Accueil > Ressources pour enseigner > Texte de la conférence "Wikipédia fabrique-t-elle de l’information fiable ?" (...)

Texte de la conférence "Wikipédia fabrique-t-elle de l’information fiable ?" par Marie-France Blanquet


2) Des maîtres et des élèves

Wikipédia fabrique-t-elle de l’information fiable ?


Jamais projet d’encyclopédie, - intitulé proposé par les créateurs -, n’a fait couler autant d’encre, soit pour être proprement démoli car accusé de tous les maux (ou presque) ; soit, au contraire, pour être glorifié et recommandé fortement aux auteurs comme aux lecteurs. Jamais non plus un nom propre n’est entré aussi vite dans le langage populaire. Wikipédia explose en quantité d’articles, en quantité de langues, en quantité de contributeurs mais dans le même temps, explose aussi en quantité de critiques négatives très médiatisées.

Médiamétrie ou Alexa mesurent cette explosion et placent Wikipédia parmi les sites les plus consultés dans le monde et aussi en France. Parmi les sites qui la côtoient dans les premières places, c’est le seul gratuit et parmi les encyclopédies présentes sur internet, c’est également la seule entièrement gratuite. Dans le monde, la popularité de Wikipédia ne se dément pas. Chaque mois, ce sont 220 millions de visiteurs qui s’y réfèrent, dans 250 langues, amendant, s’il le faut, la dizaine de millions de notices existantes et consultant plus de 50 millions de pages par jour (1). La version française en comporte plus de 600.000.

Tous les écoliers et étudiants français « savent » ce qu’est Wikipédia, du moins l’utilisent… Car, en fait, peu de personnes savent exactement comment fonctionne ce projet d’encyclopédie qui donne au professionnel de l’information l’occasion de réfléchir fortement sur une problématique qui lui tient à cœur : la fiabilité de l’information. Wikipédia offre-t-elle, comme encyclopédie, une information fiable ou, comme l’accuse ses détracteurs, une information dénaturée ? En d’autres termes, peut-on faire confiance, ou pas, aux articles proposés par cette oeuvre ?

Y a-t-il en quelque sorte, une « subliminalité » dans les textes ? Ce terme, le plus souvent appliqué à l’image, désigne une image indécelable à l’œil nu mais que le cerveau traiterait malgré tout (Rappelons que subliminal veut dire « sous la conscience »). Nous reprenons ce concept pour nous interroger sur Wikipédia. Y a-t-il dans cette encyclopédie des messages subliminaux, stimuli incorporés dans les pages, conçus pour être perçus au dessous du niveau de conscience ? Peut-on au contraire, défendre la transparence de cette œuvre collective ?

D’où viennent les jugements de valeur forts qui condamnent ou célèbrent sans appel ? Sur quels arguments, quelles démonstrations peut-on les appuyer ? Wikipédia fabrique-t-elle de l’information fiable ou de l’information orientée et polluée ? Nous avons volontairement choisi, pour nous interroger, le terme de fabriquer qui enferme un sens noble : celui que lui donne Péguy : « fabriquer des livres [Wikipédia] n’est pas moins indispensable que de fabriquer du pain » et un sens moins noble que rappelle Bossuet : « Vous fabriquez des tromperies [Wikipédia], vous machinez des fraudes ».

Dans un premier temps, on ne peut qu’être ébranlé par l’attitude des pour ou wikipédiholiques et des antis. Les pros ont des réactions épidermiques dès que l’on ose émettre une réserve sur le projet auquel ils participent activement. De l’autre côté, les critiques sont sévères, tranchantes. Des sites ont vu le jour dédiés à la dénonciation systématique de Wikipédia. En France, Wikipédia.un.mythe.org prétend que c’est un projet anarchiste, entre les mains d’un gang (2). En bandeau sur ce site, on trouve toutes les raisons de se méfier de Wikipédia « non-fiable, non encyclopédique, révisionnisme en histoire, irrationalisme, propagande, malhonnêtetés, pour l’éducation : nuisible, neutralité fictive… » Pierre Assouline dans le Débat parle de « démagogie ambiante qui consiste à dire aux gens, vous êtes des encyclopédistes, si vous le voulez » (3). L’Institut national de recherche pédagogique recense 22 motifs de se méfier de Wikipédia que l’on peut regrouper autour de trois principaux thèmes : les contributeurs, les sources et les contenus. Il ne reste pas grand-chose pour la non méfiance ! (4)

Pour comprendre et tenter de répondre à toutes ces interrogations, il importe, dans un premier temps, de définir et de rappeler brièvement ce que fiabilité de l’information signifie et comment le professionnel de l’information en trace les marques, en général et pour une encyclopédie en particulier. Il s’agira ensuite d’appliquer ces critères sur Wikipédia, occasion de passer « derrière l’écran » en quelque sorte pour en comprendre fonctionnement et spécificité. Nous le ferons en deux temps, en examinant Wikipédia pris dans son entité de projet d’encyclopédie et, d’une façon plus spécifique, en analysant ensemble et sous forme de conclusion, un ou plusieurs articles relatifs à la profession afin de porter un jugement d’expert sur les contenus apportés. Cette démarche permettra de tracer la ligne de démarcation qui séparent les termes de fiabilité et de vérité sur lesquels nous reviendrons ultérieurement.

Les enjeux sont de taille car, comme nous l’avons signalé précédemment, Wikipédia est devenue souvent l’unique outil de référence pour une majorité d’élèves et d’étudiants. Si Wikipédia fabrique de l’information non fiable et manipulée, il est temps d’alerter et de faire barrage au développement de ce projet ou, au contraire, de dire les intérêts de ce travail collectif et ses forces, en s’appuyant sur des arguments documentés. Les enseignants documentalistes sont donc directement et fortement interpellés par cette recherche de la « vérité » !



Première partie : « Quid » de la fiabilité de l’information ?

La jeunesse du terme


Il faut d’abord connaître la relative jeunesse du terme fiabilité qui apparaît dans les années soixante pour spécifier l’aptitude d’un système technique à fonctionner sans incidents. Les études de fiabilité ne concernent alors que les calculs mathématiques destinés à prévoir la rentabilité et la sécurité de ces systèmes. En ce sens, le terminologue P. Agron remarque : « Si nous avions proposé « fiable » aux physiciens et aux mécaniciens il y a vingt ans, « Vous êtes bien aimables, nous auraient-ils dit, mais que voulez-vous que nous fassions? » Il y a une douzaine d'années la situation s'est inversée. (...). Il fallut créer une sorte de superlatif de sûr. « Très sûr » ne suffisait pas... » (5). Peu à peu le sens s’élargit pour être utilisé, entre autre, pour les systèmes d’information. Il devient un terme clé du vocabulaire documentaire.

On peut pourtant penser que le terme de « très sûr » reste un bon synonyme de ce que recouvre le terme de fiabilité, en général certes, mais principalement pour le professionnel de l’information. C’est la notion de confiance accordée indirectement à une ou plusieurs personnes (auteur et éditeur) par l’intermédiaire du document créé. Au contraire de se défier ou de se méfier, se fier à un document, c’est le juger digne de confiance pour soi ou pour les autres. C’est donc juger que l’information qu’il contient est une information de qualité. Mais cette confiance n’est pas aveugle. Elle n’est pas spontanée mais acquise. Elle est accordée de façon raisonnée et sur des critères objectifs et explicités. On ne donne pas sa confiance sans avoir testé ou éprouvé cette qualité, garante de fiabilité et donc indirectement de « vérité ». On ne donne pas sa confiance à partir de « on dit », de rumeurs ou de stéréotypes mais à travers la reconnaissance de traces ou de marques qu’au fil des ans les professionnels ont élaborés.


Quelle importance ?


L’importance accordée à la fiabilité de l’information a toujours existé. Comme le remarque un des fondateurs de Wikipédia, la méfiance est de mise pour tous les documents que nous consultons. « La question de la crédibilité de l’information est une question à se poser en permanence lorsqu’on lit un journal, qu’on écoute la radio, qu’on regarde la télé… La seule différence avec Wikipédia, c’est que si vous trouvez quelque chose de faux, vous pouvez le corriger immédiatement ». Cependant, cette importance prend aujourd’hui une ampleur considérable, accrue par les possibilités d’émission et de diffusion de l’information données à chacun d’entre nous avec, pour conséquence, l’explosion de l’information et ses effets : surinformation et pollution de l’information. Il est impératif d’évaluer l’information à cause de cet excès d’information qui caractérise nos environnements. Celui-ci menace chacun d’entre nous d’asphyxie ou de noyade (trop d’information, tue l’information). La surabondance d’information peut être cause de désorientation, de découragement. Il devient donc important de savoir chercher l’information et surtout de ne consulter que des documents « qualifiés ». Il importe donc de connaître pour les reconnaître, ces marques de qualité. Par ailleurs, même si le phénomène n’est pas nouveau, la pollution de l’information bat son plein, amplifiée grandement par le changement d’échelle lié au réseau internet. Nous connaissons tous l’existence des hoax, des rumeurs. Nous connaissons tous les manœuvres de propagande ou de manipulation de l’information. La contamination de l’information, l’invasion publicitaire, toutes ces infopollutions engendrent une crise de confiance, l’errance stérile… C’est pourquoi, le seul moyen de lutter contre elle repose sur la mise en place d’une écologie de l’information permettant son contrôle et son évaluation.


Nouvel environnement numérique : instabilité du document et mélange des genres


Par ailleurs, ce contrôle exige de prendre en compte des données essentielles caractérisant les environnements numériques dans lesquels nous vivons désormais et que l’on peut décrire en deux temps à travers les concepts de redocumentarisation et de mélange des genres.
Aujourd’hui le document imprimé continue à servir de repères lorsque nous y accédons sous sa forme numérisée. Par contre, nous perdons ces repères lorsque nous consultons un document numérique. Certes existent des métadonnées mais la convivialité de leur consultation ne déclenche pas toujours l’enthousiasme des professionnels de l’information. Elles restent encore inconnues du grand public. C’est d’un document numérique, nouveau type de document, dont il s’agit ici puisque, même si des versions papiers de Wikipédia existent (Wikireaders ou les Cahiers de Wikipédia), la création de Wikipédia, les révisions et les consultations se font dans l’univers numérique.

Le document numérique a provoqué de nombreux travaux de recherche. Le plus connu en France, signé du groupe T.Pédauque, invite à réfléchir sur le concept de redocumentarisation. (6). Pour comprendre ce que signifie ce terme, il faut déterminer ce que signifie la documentarisation classique qui consiste à traiter un document avec pour objectif d'optimiser l'usage du document en permettant un meilleur accès à son contenu et une meilleure mise en contexte. La redocumentarisation, c’est principalement la création d’une dimension originale du document numérique. Cette dimension, c’est son instabilité qui transforme le document au point que l’on peut se demander s’il s’agit encore de la même entité. Il s’agit donc toujours de traiter un document mais avec des procédés nouveaux adaptés à la spécificité de ce nouveau document. Il s’agit toujours aussi d’optimiser son usage en permettant un meilleur accès à son contenu et une meilleure mise en contexte mais dans un nouveau décor. Le document change donc de dimension temporelle, appelé à une constante construction (c’est le cas de Wikipédia) ou une disparition définitive (c’est le cas des pages dynamiques ouvertes le temps d’une consultation ou de certains blogs).

Qui dit nouveau document dit aussi nouveaux critères de fiabilité. Dans le même esprit, Hervé le Crosnier parle de conversation mondiale pour signifier les documents nés du dynamisme du web 2.0, espace dans lequel évolue Wikipédia. « Dans cet univers, on passe de la publication à la conversation » (7). Mais le document numérique ouvre sur d’autres caractéristiques en brouillant tous les repères que nous avons qui permettent de distinguer une monographie, un dictionnaire, une thèse… Tous ces documents sont unifiés dans la seule page écran par laquelle on y accède. Le mélange des strates (comment différencier contenu et support ?), celui des compétences (auteur, hébergeur ou éditeur ?) accentuent encore ce manque de repères.


Les risques de la non fiabilité


Tous ces questionnements sont impératifs pour déterminer si une information est de qualité, c’est-à-dire fiable. Ceci pour éviter de limiter les risques que l’on peut décrire en quatre temps. C’est d’abord un risque physique du à une coquille, une faute… Cela peut entraîner des conséquences humaines fâcheuses. Wikipédia est énormément critiquée pour le nombre de ses fautes malgré l’aide des « bots ». C’est aussi un risque juridique relatif aux droits d’auteurs et aux droits voisins. Risque financier également car une information erronée ou inexacte peut coûter beaucoup d’argent à l’émetteur de l’information. On peut rappeler le cas du journaliste Seigenthaler, accusé à tort dans Wikipédia d’être impliqué dans l’assassinat de Kennedy. L’auteur de la diffamation s’est dénoncé. Enfin, le risque en terme d’image est important également. Crouler sous des critiques répétées fini par éroder la crédibilité de l’entreprise toute entière en supprimant l’image de sérieux avec la conséquence d’éloigner définitivement les visiteurs ou les participants. Cela peut-il arriver à l’entreprise de Wikipédia ?


Les comportements de la fiabilité extrême


Par ailleurs, si la fiabilité concerne l’examen critique d’un document donné, elle prend ses marques également dans les comportements qui résultent de ces interrogations. Parmi ces derniers, l’identification, l’évaluation et le croisement des sources jouent les premiers rôles. Car tous les documents peuvent comporter des erreurs. Même si nous découvrons que Wikipédia fabrique des informations fiables, nous ne devons pas tomber dans le même travers que nos élèves et étudiants en l’érigeant comme unique source d’alimentation en information. On peut se demander si la véritable problématique de la fiabilité ne réside pas dans cet argument de facilité que certains pratiquent, face à la confiance qu’ils manifestent à l’égard d’un document. Il s’agit de ne pas oublier la règle numéro un de toute recherche d’information, eu égard à la relativité des savoirs,  qui consiste à ne pas se limiter à une seule source d’information ; ceci pour croiser les informations. Un document aussi parfait soit-il, reste un outil parmi d’autres. Bien évidemment, cela entraîne la deuxième règle concernant la vérification de chacune des sources.


Les traces de la fiabilité


Il est temps d’évoquer à présent les critères de fiabilité qui rendent un document crédible. Cela nous permet de mettre en évidence le caractère architectonique du concept de fiabilité. La spécificité fondamentale de cette dernière n’est pas de dire si telle affirmation notée dans un document est vraie – cela relève de l’auteur - mais si cette affirmation est vraie à travers le document dans lequel elle est notée et mémorisée. La fiabilité est un moyen de dire si, en fonction du document créé, l’information qu’il contient est susceptible d’être vraie ou fausse.

Les règles normales de la critique externe du document, qui s’applique d’abord au contexte consistent à pouvoir répondre clairement aux six questions suivantes : Qui, quoi, où, quand, comment, pourquoi et donc pour qui ? Ces questions doivent être prises ensemble et la décision de considérer comme fiables les informations doit venir de la convergence des réponses qu’on obtient. Nous allons voir que tous ces critères sont fortement remis en cause.


Deuxième partie : Wikipédia confrontée aux traces de la fiabilité

Nous allons confronter ces marques qui disent la fiabilité à Wikipédia. Mais avant et très rapidement, traçons à grand trait son histoire. Aujourd’hui tout le monde connaît l’existence de ce rêve raconté par de nombreux utopistes depuis la bibliothèque d’Alexandrie, en passant par Otlet ou Wells. Concrètement, l’initiative de la réalisation de ce rêve revient en 2001 à Larry Sanger, professeur de philosophie dans l’Ohio et à James Wales, dit Jimbo. Cependant, le projet avorte, faute d’argent et de contributeurs : Nupédia, ne décolle jamais. Jimbo reprend le projet. Celui-ci est propriétaire de la société Bomis en Floride, orientée vers la pornographie (on saura le lui rappeler plus tard !). En 2003, est créée, régie par le droit américain, une fondation à but non lucratif financée par des dons. C’est Wikimédia qui possède les serveurs sur lesquels sont hébergés tous les projets – et ils sont nombreux - , et bien sûr Wikipédia. Wikimédia possède l’infrastructure technique mais pas les contenus que tout le monde possède et peut utiliser puisqu’ils sont sous licence libre.

Ecriture collective

Le principe est simple, à l’image de cette expérience dite « piranha » lancée en 2002 par un wikipédien. Il s’agit d’écrire un article sur la pomme, réduit à la plus simple expression par le premier auteur : la pomme est un fruit. L’idée est de dépasser les limites d’un expert en demandant à tous les travailleurs intellectuels de partager leurs savoirs. La moyenne des points de vue d’une masse importante de personnes représente une information plus pertinente que le point de vue du meilleur des experts. La question est posée et reste très discutée.

Modèle éditorial inversé

La spécificité de wikipédia réside dans le modèle éditorial participatif et alternatif qui la caractérise au même titre que tous les wikis, les blogs et la plupart des outils du web 2.0. L’écriture est collective, Wikipédia comptant sur la participation bénévole de citoyens pour alimenter en contenu et créer une dynamique communautaire. Simplement, n’importe qui peut écrire, en toute bonne fois ou en mauvaise foi, n’importe quoi. C’est pourquoi est soulevée très vite la question de la fiabilité de l’information dans ce modèle éditorial original où la validation se fait en aval, et non plus en amont à l’image du modèle éditorial classique. Dans ce dernier, nommé style cathédral, un auteur soumet un manuscrit, accepté ou pas par un éditeur doté de toute une équipe de professionnels chargés de lire, relire, corriger. Par ailleurs, très souvent, les éditeurs se dotent de directeurs de collection ou de comités scientifiques chargés d’expertiser la « vérité » de l’information émise. Le lecteur reçoit une information validée, donc vraie, du moins vérifiée. Mais il ne peut réagir s’il découvre une faute ou une erreur. Dans le style bazaar, le mouvement s’inverse : un auteur écrit et est corrigé a posteriori, de façon pertinente ou pas, par son ou ses lecteurs. Encore faut-il que le texte rencontre un lecteur actif ou participatif sinon la faute ou l’erreur restera, comme dans le modèle classique.

Qui ?

L’écriture collective entraîne la première critique, parmi les plus importantes, apportée à Wikipédia sur la personne de l’auteur. Découvrir l’identité de l’auteur de l’information, responsable intellectuel de celle-ci est d’une importance capitale. Il faut pouvoir identifier et déterminer ses compétences à travers ses diplômes, ses titres, le poste occupé, son affiliation, ses publications, les documents hôtes dans lesquels ses articles ont été publiés. Dans une encyclopédie, les auteurs sont pluriels et présentés nominativement dans la liste des auteurs ou lors de la signature des articles rédigés. Parfois, les auteurs ne sont pas nommés, l’éditeur assurant alors le rôle de responsable intellectuel. Ne pas pouvoir identifier l’auteur apparaît donc comme une marque de non qualité de l’information apportée. Cette première trace de fiabilité entraîne deux remarques : le déni de l’anonymat et d’une certaine façon le déni de l’autodidacte. Ces deux points sont fortement remis en question dans notre interrogation sur Wikipédia qualifiée d’anti-élitiste par certains.

Plagiat : la première réponse à cette question réside dans l’accusation d’un immense plagiat. Selon certains, Wikipédia ne serait qu’un couper/coller d’une édition de la Britanica de 1911 ou d’auteurs pillés au grè des pages consultées par les contributeurs qui se les approprient pour les éditer sur Wikipédia.

La deuxième réponse entraîne à faire connaissance avec les contributeurs de Wikipédia. Tout est fait pour leur entente. Le wiki comme outil de publication met en évidence les mécanismes gestionnaires qui permettent à chacun d’identifier les traces de la co-construction de l’article et du co-développement de la communauté. Son moteur de recherche MediaWiki propose ainsi divers outils pour suivre l’actualité de cette communauté, ses décisions, et ses besoins. A un premier niveau de coopération, l’article donne accès à trois onglets : « discussion », « modifier » et « historique » assurant la traçabilité publique de la rédaction. La liste de suivi permet d’être alerté sur les modifications d’une sélection d’articles. Il existe aussi des pages spéciales telles que « modifications récentes » ou « articles courts » qui favorisent le suivi de l’activité éditoriale. De nombreux modèles servent à standardiser la production des entrées.

Les contributeurs

On peut présenter les contributeurs en trois principales catégories : ce sont d’abord les petits contributeurs anonymes baptisés gnomes ou fées.

(http://fr.wikipedia.org/wiki/WikiGnome).

Ils sont invités à se former dans le bac à sable et des patrouilles viennent éventuellement à leur secours en cas de maladresses.

(http://fr.wikipedia.org/wiki/Wikip%C3%A9dia:Patrouille_RC).

Il existe aussi des contributeurs occasionnels baptisés Gnoll.

(http://fr.wikipedia.org/wiki/Wikip%C3%A9dia:WikiGnoll).

Ce sont enfin les gros contributeurs qui exercent souvent des responsabilités au sein de l’encyclopédie, principalement les administrateurs.

Par définition, toute personne peut créer ou modifier un article à sa guise, qu’elle soit identifiée ou non. Ce modèle n’a donc aucun système de validation puisque l’auteur, dans son sens étymologique d’autorité, disparaît car inconnu et fondu dans la foule des contributeurs. On trouve d’ailleurs là le sens profond du terme de collaboration ou de contribution par rapport à celui de coopération. Dans cette dernière, chacun joue un rôle bien délimité et le tout est coordonné par un coordonnateur. Dans une collaboration ou une contribution, tout le monde participe sans pouvoir déterminer sa part et l’auteur cède sa place au contributeur et devient un wikipédien.

Doit-on rejeter Wikipédia au nom de l’anonymat ? Il convient de tempérer ce rejet en deux temps : d’abord en relativisant l’anonymat complet, ensuite en examinant l’aspect positif que peut avoir l’anonymat. Toute personne qui intervient sur internet est identifiée soit pas son pseudonyme soit par son adresse IP. Le système de surveillance s’établit a posteriori puisqu’un contributeur peut voir son intervention bloquée par les administrateurs, définitivement ou pour une durée variable. La deuxième réflexion concerne les aspects positifs de l’anonymat. Elle peut donner à certains le courage de s’exprimer pour dire leur savoir puisque ici le contributeur est jugé sur ce qu’il écrit et non sur ce qu’il est. On sait que certains contributeurs sont des experts. En France, par exemple, onze gros contributeurs sont des polytechniciens. Mais ils ne veulent pas signer pour diverses raisons. Certains n’ont pas envie d’associer leur nom à un processus qu’ils ne maîtrisent pas et qui pourrait les mettre sous les feux de la critique de leurs pairs. D’autres, pour ne pas intimider un contributeur plus humble. Dans tous les cas, l’écriture collective anonyme a une facette extrêmement positive. Elle concerne les raisons d’écrire. De nombreuses redondances informationnelles qui encombrent les publications vient du « publier ou périr ». Ici on écrit de façon désintéressée puisque personne n’identifie le contributeur comme « autorité » due parfois à ses multiples publications.

Enfin il faut surtout comprendre que si la caractéristique première de Wikipédia réside dans son principe de liberté de publication, la réalité sur le terrain est bien différente. Une version jeune de Wikipédia est le fruit du travail de très nombreux contributeurs. Une version plus élaborée, voire même très élaborée voit ce nombre disparaître.  L’étude des logs historiques montre que la création de nouvelles entrées qui correspondent à de nouvelles pages articles diminuent fortement. «  On constate une sorte de professionnalisation de la Wikipédia… Les plus gros contributeurs [5% des contributeurs, souvent administrateurs] éditent le plus d’articles, entre 85 et 95% du contenu total de l’encyclopédie » (8). Ainsi au fur et à mesure de la construction de l’encyclopédie, dans un but de sécurisation du contenu et de valorisation des gros contributeurs, des statuts et des droits particuliers ont été créés. L’administrateur est né le premier, qui peut bloquer définitivement ou pas un contributeur repéré. Son pouvoir est assez étendu et des plaintes ont été émises sur les abus de pouvoir de certains d’entre eux. Des super administrateurs, nommés stewards ont suivi, se rapprochant des bureaucrates pour promouvoir un nouvel administrateur. Les développeurs ont une compétence technique, ayant accès à la base de données. D’autres statuts existent comme ceux des pompiers, des patrouilleurs que nous présenterons ultérieurement. (A titre d’information, en France, il existe 175 administrateurs). Ainsi, Wikipédia est un modèle libre mais qui au fil des temps tend vers la hiérarchisation et la centralisation. Les articles sont de plus en plus verrouillés et ceux qui sont achevés font l’objet d’édition papier ou sur dvd, et seuls des contributeurs ayant des statuts spécifiques peuvent encore les modifier. Aujourd’hui, le risque de voir les contributeurs les plus zélés s’imposer fait reculer la participation des plus humbles ; allant ainsi à l’encontre de la philosophie même de cette encyclopédie collaborative.

Les non contributeurs vandales

(http://fr.wikipedia.org/wiki/Troll_%28Internet_et_Usenet%29)



Les actes de vandalisme existent sur Wikipédia mais dans une proportion infiniment plus mince que ses détracteurs ne le proclament. Certains, repérés par leur adresse IP, entrent dans les articles pour effacer des informations fiables ou les rendrent non fiables. D’autres se font identifier via un pseudo pour pouvoir faire passer des messages infamants ou insultants ou en opérant des modifications subtiles de données, de façon plus sournoise, face à ceux qui veillent à la qualité du contenu de l’encyclopédie. Ces faux contributeurs ne participent pas à l’écriture de l’encyclopédie puisque leurs apports sont plus ou moins rapidement effacés. Par ailleurs, plusieurs études n’ont pas permis d’établir un corrélat entre anonymat et vandalisme. Wikipédia mène une guerre sans merci contre les provocateurs, vandales, pertubateurs de toutes catégories. Quand les Wikitrolls, frappent, ils sont vite rattrapés. Des articles ont été gelés par la Wikimedia foundation … Ils aimantaient trop les trolls. Toutes les biographies des vivants sont sujettes à contre vérité. Ainsi, l’arbitre anglais Wayne qui a arbitré le match de la France contre les All Blacks a été décrit comme lynché par la foule des supporters. C’est pourquoi Wikipédia averti ses lecteurs sur les risques de désinformation ou d’erreur dus au manque de recul pour vérifier l’information. Ainsi, dès la mort de Yves Saint Laurent, un bandeau avertissait le lecteur des risques d’afflux d’informations sur ce couturier, parmi lesquelles certaines pouvaient se révéler erronées.

Un groupe d’étudiants du master de journalisme de Sciences politiques, sous la direction de Pierre Assouline, a réalisé une enquête intitulée : la révolution Wikipédia, les encyclopédies vont-elles mourir ? Ils ont modifié un ou plusieurs articles pour y insérer des erreurs plus ou moins évidentes. Le but était de voir en combien de temps les contributeurs réagiraient avant de corriger les erreurs. Les résultats montrent que certaines erreurs sont restées en ligne plusieurs semaines. On peut s’interroger sur la déontologie de cette démarche mais en noter, sans contestation possible, l’absurdité. Les erreurs sont présentes aussi dans les encyclopédies classiques. Il faut attendre la prochaine édition pour qu’elles soient dénoncées, alors qu’elles sont effacées dans Wikipédia. Les étudiants d’Assouline ont, malgré tout, pointé sur une supériorité de cette encyclopédie qu’ils présentent « comme un outil parmi d’autres, qui ne doit pas supplanter les autres outils d’accès à la connaissance. Ils précisent que Wikipédia peut se tromper et il est très facile de lui faire gober n’importe quoi » (9)

Aujourd’hui, un wikipédien féru d’informatique a créé un wikiscanner qui permet de repérer de quel ordinateur a été opérée une modification et donc à quelles fins. Ainsi les administrations, les politiques qui corrigent des informations en leur défaveur pour les transformer en données laudatives sont vites repérés et bloqués.

Quoi ?

Cette question consiste à délimiter trois données : la nature du document ; la couverture informationnelle et les sources.


Nature du document


Wikipédia est-elle une encyclopédie ? Deux choses caractérisent une encyclopédie ; c’est la prise en compte de tous les savoirs du monde et leur organisation circulaire. Certains contestent ce titre à Wikipédia en la situant plutôt du côté d’une œuvre journalistique que d’une œuvre synthétique et encyclopédique. Leurs arguments viennent de l’importance accordée par les wikipédiens à l’actualité. Wikipédia est, en effet, très réactive à l’événementiel. Il n’est qu’à regarder la page consacrée à Yves Saint Laurent pour le mesurer. On sait par exemple, qu’après le tsunami qui a ravagé l’Asie du sud-est, Wikipédia s’est remplie en quelques heures d’informations portant sur tous les domaines sur les pays concernés. Pour les plus critiques, Wikipédia peut se confondre avec la presse people à cause de son intérêt pour la vie privée des grands de ce monde !(2). Pour d’autres, elle peut se confondre avec le journalisme participatif. C’est la position de certains chercheurs qui comparent la neutralité de point de vue au traitement des actualités dans la presse et la positionnent comme un véritable baromètre des sujets de société, vue son intérêt constant pour l’évènementiel. Des chercheurs posent, en ce sens, la grave question : Wikipédia remet-elle en cause le savoir au bénéfice de l’information ? C’est l’expression qu’emploie B. Legendre qui estimait en 2000 à propos de la Webencyclopédie des éditions Atlas, aujourd’hui disparue, que la transposition du papier au numérique soumet l’édition « au risque de l’information en forçant l’éditeur à privilégier une approche factuelle des contenus plutôt qu’une approche analytique » (10). L’encyclopédie perd sa caractéristique de somme de savoirs autosuffisants et complémentaires, inscrits dans une logique circulaire au profit d’un ensemble multiforme construit par simple juxtaposition d’informations qui affecte le dispositif de légitimité culturelle fourni par l’édition traditionnelle.

D’autres au contraire, voient dans Wikipédia les marques de la véritable encyclopédie. Grâce au numérique ce genre peut s’épanouir et trouver sa réelle réalisation. Elle répond ainsi aux besoins de l’humanité dans la description que H.G.Wells donne en 1936, à l’occasion d’une conférence au Royal Institute de Grande-Bretagne : « Une encyclopédie universelle dont le rôle serait de produire des synthèses intellectuelles vivantes, dynamiques et continuellement révisées, étendues et remplacées par les savants créateurs du monde entier » (11) ; à part que dans le cas de Wikipédia, ces savants sont remplacés par tous ceux qui savent ou croient savoir et veulent partager. C’est en ce sens que B. Mélançon en 2004, dans un texte passionnant, interroge : sommes nous les premiers lecteurs de l’encyclopédie ? (12) Interrogation que B. Juanals complète par une autre : l’encyclopédie aurait-elle trouvé dans le numérique son support idéal ? (13) De document de référence stabilisé, l’encyclopédie devient-elle, avec le support numérique, la production collective et les mises à jour permanente, une ressource banalisée de faits et de données, ou une construction du savoir total à jamais inachevé ? Jimmy Walles reconnaît que Wikipédia est avant tout une encyclopédie. Elle est devenue une expérience sociale formidable, bien entendu, mais ce n’était pas son réel objectif. Par ailleurs, il faut noter que Wikipédia précise très vite pour ses premiers visiteurs, ce qu’elle n’est pas : dictionnaire, sites d’actualités, liste de discussion, outil de veille…

Couverture

Une encyclopédie est soit universelle, couvrant ainsi l’ensemble du savoir humain, soit spécialisée ne couvrant dès lors qu’un chapitre ou domaine d’information. Mais dans tous les cas, elle est équilibrée, faisant aux savoirs une même part informationnelle. Son équilibre est pensé en amont, organisé selon un plan préétabli. C’est ce qui fait défaut à Wikipédia qui se construit au gré des contributions et qui présentent de grands déséquilibres dans le développement de ses articles. La couverture est encyclopédique mais inégale, reflétant les intérêts des contributeurs, remettant ainsi en cause la question de sa fiabilité. L’homogénéité des premiers contributeurs fait que Wikipédia est d’une grande richesse sur les sciences exactes et appliquées. Les sciences humaines et sociales gagnent du terrain au fur et à mesure de l’arrivée de nouveaux contributeurs. Mais de nombreux domaines ne sont pas encore couverts. Des articles sont seulement ébauchés ou donnés sous forme de brouillon. « Il existe, explique Florence Devouard, vice-président de la fondation Wikimédia, des secteurs extrêmement peu couverts et par conséquent, peu validés. C’est par la multiplication des auteurs que la fiabilité se construit. Des secteurs comme celui de la biologie ont ainsi été relus par des dizaines de personnes…. Et ne posent aucun problème de fiabilité. En revanche, si on lit un article très spécialisé, il est vrai qu’on a très peu de garantie. Par ailleurs une encyclopédie est organisée. C’est-à-dire qu’elle présente ses informations en fonction d’un système de classification cohérent. Les informations sont intégrées dans un tout présenté à partir d’une signalétique qui permet aux lecteurs de se repérer et de les retrouver. Wikipédia a fait un énorme travail de classification en organisant les informations en portail. Mais il reste beaucoup à faire pour certains articles isolés et déconnectés de l’ensemble de l’encyclopédie. De plus, du fait du grand nombre de rédacteurs, certains articles sont parfois contradictoires. Les ajouts successifs rendent difficile cette classification cohérente des savoirs.

Les sources 


Wikipédia reconnaît qu’elle n’a pas les moyens de juger la crédibilité d’une information mais peut renvoyer le lecteur vers des publications qui ont reconnu cette information crédible. Il est donc impératif de citer les sources. Sous les attaques répétées concernant la validité des informations, Wikipédia a élaboré une règle sur les sources, véritable cours sur la présentation

de références bibliographiques !


(http://fr.wikipedia.org/wiki/Wikip%C3%A9dia:Article_bien_sourc%C3%A9)


Les articles souffrant d’un déficit de sources sont désormais signalés, grâce à une bannière informant les lecteurs de ce déficit. Par ailleurs, les fondateurs pensent également créer un réseau d’experts pour certifier l’information émise. Un site sur la qualité a été ouvert (Quality.wikimedia.org) et Wikipédia 1.0 viserait dès la fin 2008 à identifier les articles les plus fiables signalés par une bannière.

Où ?

Cette question consiste à identifier deux données. D’abord l’éditeur ou hébergeur qui donne l’hospitalité au document concerné. En France, par exemple, l’éditeur Larousse et Robert, tous deux auteurs d’encyclopédies diverses, ont des politiques éditoriales différentes qui permettent d’attribuer aux encyclopédies éditées des valeurs d’usage distinctes. Ne pas pouvoir identifier le document hôte ou le serveur apparaît donc comme une marque de non qualité de l’information.

Mais le « où » soulève également la problématique de l’accès à l’information. Appartient-elle à la sphère de la littérature grise, qui implique la connaissance des producteurs peu connus ou trop spécialisés dans l’information ? Est-elle émise par un éditeur stable ? La question se pose gravement sur internet où les sites disparaissent parfois du jour au lendemain mais pas pour Wikipédia qui, contrairement à certains blogs, parfois constructions instables, apparaît comme un projet sur un long terme.

Lieux de rencontre

Il existe plusieurs lieux réels ou virtuels pour aller à la rencontre de Wikipédia. Nous avons évoqué précédemment la fondation Wikimédia qui coordonne tous les projets Wiki. Il existe une autre instance : Meta-Wiki, que l’on peut présenter comme l’espace de communication de Wikipédia qui rend visible les actions relatives à la gouvernance globale des projets de cette fondation. C’est dans ce lieu que se tiennent les discussions des contributeurs, lieu d’autorégulation à visiter : http://fr.wikipedia.org/wiki/M%C3%A9tawiki

Il faut également parler des rencontres formelles et des rencontres informelles. Ainsi, en 2007, à la Cité des sciences et de l’industrie de Paris, Wikipédia a tenu sont premier colloque avec pour préambule : « Wikipédia n’est plus un projet loufoque et utopique ». Ouvrir, valider, développer en constituent le thème général. Il faut citer également des colloques tels wikisym qui permettent aux wikipédiens d’échanger sur les wikis en général et sur Wikipédia en particulier. On peut également citer les wikimania, nom des conférences internationales de Wikimedia Foundation.

Accès à : via Google ?

L’accès à Wikipédia fait l’objet de critiques dues à son omniprésence dans toutes interrogations menées sur Google. L’internaute ne peut échapper à cette encyclopédie, très bien référencée et très bien positionnée. Certains s’indignent de cette stratégie marketing et se demandent pourquoi google favorise autant Wikipédia. D’autres au contraire, annoncent la fin de Wikipédia qui connaît aujourd’hui des difficultés financières. Cette fin serait due précisément à Google qui lance sa propre encyclopédie collaborative : Knol basée sur des contributeurs clairement identifiés et dont les pages seront indexées par… Google !

Accès dans : les outils facilitateurs

Il existe plusieurs modes de recherche dans cette encyclopédie. La plus connue consiste à lancer une recherche à partir d’un mot clé. Les portails sont également très utiles pour se repérer dans les contenus informatifs de cette encyclopédie. Les créateurs de cet hyperdocument s’applique à faciliter l’accès aux informations en mettant à disposition de ses utilisateurs des outils de plus en plus conviviaux. On peut citer, Powerset moteur de recherche sémantique qui utilise le traitement du langage naturel pour « comprendre » les concepts du contenu web et fait correspondre des pages aux requêtes. Pour l’instant, il recherche seulement dans Wikipedia. Wikiwix se dit “l’ultime moteur de recherche d’articles Wikipedia.” (ultimate Wikipedia articles search engine). Il cherche ainsi dans tous les sites Wiki à la fois (c’est-à-dire, Wikiquote, Wikiionary, Wikinews, etc) et possède une recherche d’images Wikipedia. AskMeNowest est un moteur de recherche Wikipédia orienté mobile. Gollum est un navigateur Wikipédia qui veut “[réduire] la complexité de l’information” et rend plus facile la navigation sur l’enclyclopédie en ligne. WikiMindMap est un des mashups les plus intéressants de recherche sur Wikipédia. Le site génère une mindmap, à partir du mot clé de la recherche, en fonction des entrées de Wikipédia. Véritable carte conceptuelle qui permet d’explorer facilement un sujet et ses articles dans leur intégralité. Wikiwax offre une assistance dans la recherche de mots clés quand Lexisum résume les articles de Wikipédia. Enfin, Wikiseek est un moteur de recherche qui n’indexe que les pages Wikipédia et les pages dont les liens figurent sur Wikipédia.

Si les créateurs de Wikipédia sont très à l’écoute de leurs utilisateurs, la lecture de tous ces services permet de comprendre que l’encyclopédie est un tout relativement complexe qu’il importe de montrer aux élèves ou étudiants à travers une formation.





Quand ?

Cette question a pour objectif de déterminer la date d’émission du document. La règle est simple : un document non daté est un document à jeter. La date est un critère déterminant pour garantir la fraîcheur des informations apportées par le document. Les professionnels de l’information parlent de durée de vie de l’information ou de certificat de validité qui détermine la date de création et sa période de validité. Il faut toutefois pondérer cette importance suivant le domaine considéré. En ce sens, il existe des domaines à évolution lente et des domaines à évolution galopante. Pour ces derniers, il importe d’avoir toujours la dernière édition, revue et mise à jour. D’une façon générale, l’absence de date ou un trop grand âge dans certains domaines présentant une information frappée d’obsolescence apparaît donc comme une marque de non qualité. Cette trace de fiabilité de l’information est fortement remise en cause dans le cas de Wikipédia, encyclopédie en train de se faire et donc toujours sujette à révision. Wikipédia est une construction permanente. L’actualisation des contenus s’inscrit dans une temporalité quasi-immédiate et relègue donc la question de l’obsolescence. Un des avantages ( ?) de Wikipédia est de pouvoir fournir des informations presque en temps réel. Mais dans ce cas, il est impossible d’avoir du recul pour s’assurer que les informations recueillies ont bien eu le temps d’être vérifiées et scientifiquement validées. Alors, face aux critiques concernant l’impossibilité d’accorder la fiabilité à des articles volatiles et en constante modification, Wikipédia a évolué peu à peu vers une version stabilisée de certains de ses contenus. Ainsi coexistent une version « live » telle qu’elle existe actuellement et une version validée comme stable. Par ailleurs, des outils tels que Wikirage, équivalent de Google trends pour Wikipédia, montre les tendances sur Wikipédia fondées sur les modifications. Ce logiciel permet de connaître quels articles ont été les plus modifiées et donc de distinguer les articles sensibles des articles qui le sont moins. (http://www.wikirage.com/

). Wikipédia étudie
les moyens de rendre visibles uniquement les corrections émises
par des contributeurs de confiance. Un ajout logiciel développé
par Luca de Alfaro assigne à chaque contributeur un indice de
confiance basé sur l’historique de leurs interventions. Les
nouveaux commencent avec un taux très bas. Plus une écriture
est vite recouverte par une autre, et moins elle est fiable. Par
contre, ceux qui produisent au moins trente corrections en trente
jours sont validés. Les néophytes devront attendre la
validation d’un éditeur de confiance pour que leurs
corrections soient prises en compte.

Comment ?

Cette
question concerne les conditions d’élaboration à
partir desquelles l’œuvre est créée, sa mise à
disposition… A cet égard, Wikipédia a élaboré
dés sa création des principes de base incontournables
pour tous ceux qui veulent devenir wikipédiens. Le premier
affirme la nature encyclopédique de Wikipédia. Viennent
ensuite le principe de la neutralité (NPOV) - « La
neutralité de point de vue est absolue et non négociable »
- , le respect du copyright, la licence GNU GFDL (General free
documentation licence), le respect des contributeurs dans la
rédaction collective (wikipetiquette et wikilove).

Le
principe de la neutralité est particulièrement attaqué
car trop utopique. On ne peut, comme le dit A. Comte, être à
la fenêtre et se regarder passer. Le savoir peut-il être
neutre ? Peut-on le détacher de la manière dont il
est exprimé à travers les mots choisis, la tournure des
phrases ? On assiste ainsi à des tentatives de
propagande politique ou religieuse qui peuvent durer plusieurs jours,
avec des guerres d’édition. On peut cependant défendre
le principe de neutralité dans le cas où un article
peut présenter des points de vue, énumérant la
somme de tous ces points de vue exposée le plus clairement
possible, avec indication claire de leurs sources. « Il
s’agit de décrire le débat plutôt que d’y
participer » déclare son fondateur. « La
politique de neutralité de Wikipédia indique que nous
nous devons d’évoquer toutes les facettes d’un point
controversé. L’article ne doit en aucune façon
établir, sous-entendre ou même insinuer qu’un des
points de vue est plus correct qu’un autre. ». Ce sont
les wikipompiers qui interviennent en cas de conflit pour éteindre
les incendies nés de désaccord d’édition
(


Article publié le vendredi 27 juin 2008