Recherche
Accueil du site > Revue > Essais & débats > Portrait de l’intellectuel en DJ

Portrait de l’intellectuel en DJ

Wikipédia face à l’expertise scientifique

par Philippe Lacour , le 28 mars 2008

Domaine(s) : Art & littérature

Mots-clés : internet | science | wikipédia | encyclopédie

Toutes les versions de cet article :

Wikipédia est en passe de devenir une véritable institution du paysage intellectuel contemporain. Mais quel rôle est appelée à y jouer l’expertise scientifique ? Selon Philippe Lacour, ce problème ne fera pas tant l’objet d’une résolution interne à l’encyclopédie que d’une opérationnalisation externe, selon un double principe de différenciation clinique et critique. L’évolution de Wikipédia répond à une logique de fragmentation et de recomposition du savoir et des contenus numériques, présageant sans doute une nouvelle forme de vie intellectuelle.

Télécharger ce(s) document(s) :

Wikipédia et Citizendium

L’ambiguïté éditoriale de Wikipédia est notoire. Non seulement la norme positiviste, privilégiant la présentation neutre des faits, la vérifiabilité et l’écriture consensuelle, n’est pas toujours respectée (manipulations, polémiques, etc.), mais, plus profondément, d’autres inspirations philosophiques (libérale, communautariste, relativiste) en contrarient structurellement la suprématie au sein du projet [1]. A cet égard, le débat concernant l’encyclopédie en ligne Citizendium n’a peut-être pas reçu toute l’attention qu’il mérite. Au regard du succès de Wikipédia, le projet rival lancé par Larry Sanger peut paraître au premier abord bien puéril et vain. Pourtant, au-delà de la querelle de personnes (même si Jimmy Wales l’a contesté, Larry Sanger est en fait co-fondateur de Wikipédia [2]), le problème qu’il pose (celui de la qualité), et les solutions qu’il avance (l’expertise), suscitent une réflexion légitime.

A bien des égards, le projet de Larry Sanger, comme il le souligne lui-même [3], diffère radicalement de celui de Jimmy Wales. Certes, dans les deux cas, il s’agit d’un wiki, autrement dit un site web édité collectivement, et dont on peut moduler les conditions de lecture et d’écriture de façon plus ou moins restrictive [4]. De plus, Citizendium utilise le même moteur wiki que wikipédia (mediawiki, open source) ; d’où leur ressemblance graphique. Mais, refusant l’« ouverture » incontrôlée du wiki en mode écriture [5], Larry Sanger a fait d’emblée le choix restrictif de la langue anglaise [6] et de la critique des pairs (peer-review) [7]. L’un des objectifs de Citizendium, sans qu’on puisse y voir le but principal, consiste à recycler Wikipédia en améliorant la production spontanée au moyen d’un léger contrôle scientifique a posteriori (un « gentle expert oversight »), et sans prétendre à une véritable direction scientifique [8]. La position éditoriale est en quelque sorte située à mi-chemin du « bazar » (construction spontanée et chaotique, dite aussi « bottom-up ») et de la « cathédrale » (construction dirigée et planifiée, dite « top-down ») [9]. En outre, elle engage une responsabilité juridique [10]. Il est également demandé aux contributeurs de signer leur publication, et leur identité est authentifiée. Avec ses 5.600 articles, son monolinguisme, et son goût de « déjà vu », Citizendium paraît dérisoire. Pourtant, la question se pose légitimement de savoir si cette position à distance n’est pas, à l’avenir, la plus prometteuse.

Citizendium retrouve en fait, par-delà les accidents de l’histoire, le rôle qui devait être celui de Nupedia, l’encyclopédie en ligne à laquelle un espace wiki (devenu par la suite Wikipédia) devait servir d’atelier préparatoire pour le gros œuvre, autrement dit de stockage d’appoint d’articles bruts destinés à être passés au tamis de l’expertise collégiale. L’atelier s’est émancipé pour devenir l’être semi-sauvage et bigarré que l’on connaît aujourd’hui. En apparence, cette nouvelle et surprenante autonomie a modifié radicalement le rapport entre les deux projets : Nupedia n’est-elle pas morte aussitôt née, irrémédiablement supplantée par la croissance exponentielle de Wikipédia ? En réalité, cette suprématie n’est pas aussi absolue et définitive qu’il pourrait d’abord le sembler. En effet, le projet scientifique de Nupedia – une ligne éditoriale forte, définie collectivement par un cercle d’experts – n’a pas disparu, puisqu’on le retrouve presque à l’identique dans Citizendium, moyennant un assouplissement du mode d’intervention des experts. Cet avatar prend cependant acte du caractère premier de Wikipédia, et se situe habilement en position seconde, réflexive. En fait, la véritable erreur de Larry Sanger est finalement d’avoir pour son projet la même ambition que Wikipédia, en lui donnant une envergure thématique universelle et en conservant l’idéal de neutralité [11] – car, comme on va le voir, c’est précisément sur ce terrain que Wikipédia (sa version 1.0) risque, une nouvelle fois, de lui faire de la concurrence. En revanche, l’idée d’un « remix » sous expertise, et suivant une ligne éditoriale assumée, d’un matériau premier relativement brut, est parfaitement légitime, et paraît même promise à un bel avenir.

Deux critères et un problème

Preuve de la pertinence de l’intuition de Larry Sanger, un débat s’est engagé progressivement au sein même de Wikipédia touchant la question de la sélection des articles les plus fiables, après authentification par des experts. Le « projet Wikipédia : version 1.0 » aboutira à moyen terme (à l’horizon 2010). La version française de Wikipédia 0.5 devrait voir le jour en 2008 avec un total de 2000 articles (elle comptait environ 800 articles en mars) [12]. En langue anglaise, la version 0.5 existe déjà depuis 2007 ; le lancement de la version 0.7 (30.000 articles) est prévu pour 2008. Cette question de la sélection des articles s’est notamment posée corrélativement au projet de publication de l’encyclopédie sur support CD-Rom ou papier, et elle a fait émerger l’idée d’une scission entre une version instable de l’encyclopédie et une version dite stabilisée.

Les deux critères de stabilisation retenus sont l’avancement des articles et leur importance ; ils sont complètement indépendants l’un de l’autre. L’importance d’un article peut être faible, moyenne, élevée ou maximum. Aussi appelée priorité, l’importance est considérée comme une notion relative à un projet particulier défini : l’importance d’un même article peut donc varier d’un projet (thématique) à l’autre. Mais si tel est le cas, pourquoi alors prendre soin de préciser que « l’article sur le chômage est plus important que celui sur Paris Hilton » [13] ? Il semble bien y avoir en l’occurrence quelque chose comme une contradiction entre une norme absolue mais implicite (le sérieux) et le principe fondamental de libéralité (la pertinence est relative aux projets, qui sont issus d’un découpage thématique).

Dans l’ordre de l’avancement, une échelle établit le dégradé suivant : ébauche, bon début, article de catégorie B, bon article, article de catégorie A, article de qualité (se rapprochant de « l’article parfait ») – on .trouve la même terminologie pour les « portails ». Les critères d’avancement n’échappent toutefois pas à l’ambiguïté éditoriale déjà mentionnée : outre la qualité de finition (orthographe, syntaxe, mise en page, illustrations) et le respect des licences juridiques des documents insérés, la « qualité encyclopédique » exige la clarté, l’exhaustivité, la neutralité, la pertinence, la citation des sources, etc. Notons que l’avancement est établi à l’issue d’un vote qui, lorsque l’article est de qualité (étoile jaune dans le coin supérieur droit), est signalé en bas de la page. L’article sur les « émeutes de Jérusalem de 1920 » a ainsi été élu au premier tour (treize voix pour) ; celui sur « Adam Smith » au second (par 12 voix pour un et une contre). Peuvent voter tous les wikipédiens ayant plus de 50 contributions, l’obtention d’un statut étant soumis à un quorum et à une majorité qualifiée (80% d’avis favorables pour le statut Article de Qualité).

Reste que cette évaluation interne au projet, si elle est un critère de stabilisation, ne constitue pas un critère de validation. C’est toute l’ambiguïté du rapport que Wikipédia entretient avec l’expertise qui se joue dans cette nuance. Dans son article très stimulant, Christian Vandendorpe, reste quelque peu hésitant sur cette question cruciale du « peer-review » [14]. Il renvoie aux « avertissements » de Wikipédia qui précisent bien l’absence de relecture formelle par les pairs mais cite ensuite avec faveur le cas d’un universitaire encourageant ses étudiants à écrire sur Wikipédia pour se former aux exigences du peer-review (notes 2 et 11). Aussi bien cette ambiguïté est-elle celle de Wikipédia elle-même. L’ambivalence est d’abord lexicale : la version anglaise parle bien de « peer-review », mais en précisant bien qu’il ne s’agit pas d’un peer-review universitaire. La version française parle quant à elle d’un « comité de lecture » informel auquel on peut faire appel (c’est facultatif) sur simple demande. Mais l’ambiguïté tient aussi au fait que l’encyclopédie externalise en quelque sorte le « peer-review », par son souci d’accréditer ses articles par des notes et des sources qui ont elles-mêmes fait l’objet d’une critique par les pairs. Ainsi, il est précisé qu’un article de catégorie A « devrait contenir une quantité suffisante de références externes écrites venant de préférence de la littérature papier (venant de publications avec comité de lecture quand c’est approprié) plutôt que de sites internet ». Enfin, l’évolution de Wikipédia vers l’expertise est franchement envisagée dans certaines pages anglaises, qui n’hésitent pas à utiliser le terme de « validation » – en prenant bien conscience de la rupture ainsi induite avec le fondement philosophique du projet [15].

Lignes de fuite

On le voit, si le remix (à la Citizendium) s’impose, c’est donc essentiellement en raison de deux limites de Wikipédia, qui sont à vrai dire inhérentes à tout projet encyclopédique, mais qui constituent en l’occurrence de véritables « lignes de fuite » numériques du projet de Jimmy Wales. La première est clinique ; la seconde est critique.

Au-delà de son sens médical, la « clinique » désigne le problème de la connaissance de l’individuel, de ses modalités, et notamment de son échelle (ou de son « grain », au sens photographique du terme). La nature virtuelle de l’encyclopédie la rend potentiellement universelle, puisque en expansion continue. Or l’exhaustivité est par définition impossible puisque le savoir est toujours débordé par les détails du réel. Soit par exemple la page « vélo » du Wikipédia français, admirablement détaillée : pourquoi n’y parle-t-on pas des courses cyclistes de la région de Quimper, en octobre 2002, en créant un lien avec une page consacrée au temps qu’il y faisait à ce moment là, à la couleur de l’herbe, à la forme des nuages, etc. ? Quiconque tentera l’expérience verra son article effacé au motif que ce type d’information est « trop spécifique » pour être vraiment « pertinent » [16]. C’est que tout savoir implique une sélection au sein de la multiplicité non ordonnée du monde ; de sorte que l’idée d’un cadastre exhaustif du savoir est aussi illusoire et saugrenue que la carte au 1/1ème imaginée par Borges. Wikipédia s’arrête donc à un certain niveau de généralité, qu’un souci légitime de précision « clinique » peut souhaiter dépasser – par exemple si l’on est passionné de cyclisme breton.

La seconde ligne de fuite est critique. L’ambiguïté du « point de vue neutre » a été maintes fois soulignée [17], et tout particulièrement par les commentateurs de la galaxie « wiki » du Web [18]. On trouve ainsi sur Meatball Wiki une critique de la prétendue objectivité de cet idéal, des fausses symétries qu’il induit, et de l’apathie du consensus contraint (par élimination des controverses). En fait, une telle ligne éditoriale « neutre » n’est possible que lorsqu’il s’agit d’exposer un résumé du savoir existant, et non d’engager une recherche impliquant un risque critique [19] – cette dernière démarche tendant plutôt à susciter des points de vue multiples [20].

Remix

Ces deux difficultés rendent absolument inévitable la fragmentation de la plate-forme de savoir commun qu’est Wikipédia, et l’émanation, à partir d’elle, de « reprises » plus spécialisées et à la ligne éditoriale plus forte [21]. Ces micro-remix laissent entrevoir un tout autre espace que celui de l’encyclopédie existante, qui ne s’y substitue pas, mais en est fortement complémentaire : un univers de petits groupes cohérents de savants, spécialisés, s’opposant les uns aux autres dans un espace polémique consacrant le conflit des interprétations comme logique constitutive (et non résiduelle) du savoir critique [22]. Le « débat » entre points de vue différents, souhaité par Jimmy Wales et Larry Sanger, n’aura jamais vraiment lieu sur Wikipédia (pas même dans les pages « discussion »), ni sans doute à l’intérieur de ces petits groupes soudés par une « sensibilité » ou une problématique commune : il naîtra entre ces groupes, de leur opposition réciproque. Le dissensus, en particulier dans les sciences humaines, suppose en effet des choix éditoriaux critiques que la « neutralité » de Wikipédia rend impossible à assumer. Wikipédia ne devrait donc à l’avenir, outre sa fonction informative, que jouer le rôle de carte d’un espace polémique, simple relevé de positions, renvoyant à d’autres micro-wiki le soin de détailler les arguments critiques. Par ailleurs, chaque « remix » de Wikipédia risque d’augmenter la dépendance de chacun à l’égard de cette matrice, qui a dès lors toute chance de devenir une nouvelle koinè du savoir, plus que jamais un simple point de départ pour la formation du jugement [23].

On le voit, ce mouvement de désagrégation-recomposition n’est nullement contradictoire de la tendance à l’unification. Loin d’être une exception, cette symbiose correspond d’ailleurs à une évolution fondamentale du nouveau web, si mal nommé « web 2.0 » ou « web 3.0 », et dont la nature est en fait profondément socio-sémantique [24]. On ne l’observe pas seulement dans la production du savoir en ligne, mais aussi dans la recherche d’information, par exemple. L’ère du règne sans partage des grands moteurs de recherche généralistes semble en effet révolue. Apparaissent une multitude de moteurs spécialisés, plus ou moins « sociaux » (instruits par les utilisateurs qui notent les résultats pour éduquer la machine [25]), remixés par des méta-moteurs qui font eux aussi appel à un classement qui n’est plus seulement automatique (contrairement au « Page Rank » de Google [26]). A chaque fois, il s’agit d’augmenter la pertinence des résultats de la recherche en faisant de la machine un automate dirigé par un humain plutôt qu’un robot auto-suffisant : l’ordinateur « assiste » la recherche humaine [27]. Des micro-moteurs recyclent ainsi les résultats des moteurs généralistes, et des méta-moteurs (comme ari@ne ou ixquick) remixent les résultats des micro-moteurs et des moteurs standards… On pourrait mener exactement la même analyse concernant l’évolution des réseaux sociaux [28].

L’encyclopédie Wikipedia est donc en soi moins importante que les principes qu’elle illustre : travail collaboratif, facilité d’écriture, plasticité et évolutivité de l’objet produit. A n’en pas douter, ces principes trouveront de nouvelles incarnations le long des deux lignes de fuite critique et clinique évoquées. Ces applications seront d’autant plus nombreuses que le contenu du web sera rendu « mobile » (techniquement [29] et juridiquement), apte à rentrer, d’une manière indéfiniment déformable, dans la configuration de nouveaux « organes de l’âme ». Si l’on ajoute que l’énorme proportion de nullité des productions virtuelles spontanées n’est pas un argument [30], on comprend l’originalité de la nouvelle figure de l’intellectuel qui se dessine sous nos yeux : tout à la fois critique et engagé (Sartre), spécifique (Foucault), collectif (Bourdieu) et virtuel – un véritable DJ du savoir numérique.

par Philippe Lacour , le 28 mars 2008


Pour citer cet article :

Philippe Lacour, « Portrait de l’intellectuel en DJ. Wikipédia face à l’expertise scientifique », La Vie des idées, 28 mars 2008. ISSN : 2105-3030. URL : http://www.laviedesidees.fr/Portrait-de-l-intellectuel-en-DJ.html

Si vous souhaitez critiquer ou développer cet article, vous êtes invité à proposer un texte au comité de rédaction. Nous vous répondrons dans les meilleurs délais : redaction@laviedesidees.fr.

Notes

[1Voir notamment Marc Foglia et al., Wikipedia. Média de la connaissance démocratique ? Quand le citoyen lambda devient encyclopédiste, éditions FYP, Limoges, mars 2008, §3 : « Le mix philosophique de Wikipédia », et §12.8 : « La construction du consensus ? ».

[2Cf. l’article « Wikipédia » sur Wikipédia. Larry Sanger a été recruté comme rédacteur en chef de Nupedia par Jimmy Wales. Il a été financièrement contraint à la démission de ses fonctions peu après (suppression de son salaire).

[3Voir les présentations contrastives de Larry Sanger : Why citizendium et Introduction to citizendium.

[4Sur la différence entre wiki et wikpédia, cf Marc Foglia et al., Wikipedia. Média de la connaissance démocratique ? Quand le citoyen lambda devient encyclopédiste, op. cit., §2.3.

[5La lecture du wiki est en accès libre ; le contenu est sous licence juridique Creative Commons Attribution-Share Alike 3.0 United States.

[6L’ouverture aux autres langues est toutefois envisagée à l’avenir. Sur le plurilinguisme de Wikipédia, cf Marc Foglia et al., Wikipedia. Média de la connaissance démocratique ? Quand le citoyen lambda devient encyclopédiste, op. cit., §4.3.

[7Cf. http://en.citizendium.org. Rappelons que Wikipédia ne fonctionne pas selon le principe du peer-review, au sens universitaire du terme.

[8Voir les précisions données.

[9Cette opposition célèbre est due à Eric Raymond, The Cathedral and the Bazaar, O’Reilly Media, 1999.

[10Tandis que Wikipédia, comme on sait, n’est pas considérée comme un éditeur au sens strict, mais comme un simple support. Pour une discussion de la responsabilité des diffuseurs, cf. « L’affaire wikipédia. De la responsabilité sur internet », par Charlotte Dé : ; et Marc Foglia et al., Wikipedia. Média de la connaissance démocratique ? Quand le citoyen lambda devient encyclopédiste, op. cit., §8.

[11Le principe reste irénique : il s’agit de gommer les prises de position trop saillantes. Du coup, il n’y a pas vraiment d’espace polémique institutionnalisé. La continuité de la neutralité est même censée être assurée, contre toute dérive bureaucratique, par la rotation de la direction scientifique de l’entreprise, comme Larry Sanger l’explique dans sa « charte ».

[12Lors d’une réunion de l’Association Wikimedia France a Paris, à l’automne 2007. Cf. l’article de Libération : « Wikipédia veut se racheter une conduite ». Un site a été créé à cet effet.

[14Christian Vanderdorpe, « Le phénomène Wikipédia. Une utopie en marche », in Le Débat, n° 148, janv-février 2008, p. 17-30

[15Cf. l’article “validation”. On y lit notamment : Article Validation « is a plan to move toward implementing a functional mechanism which would change the modus operandi of Wikipedia away from the idealistic concept of the completely open model, and give an important tool by which trusted editors can be mechanically assisted in repelling vandalism. Because such a change could theoretically have an impact upon the very philosophy by which Wikipedia has thus far succeeded, it is necessary that such mechanism be well thought out, openly corrected, and thoroughly explained ».

[16A propos du contrôle éditorial sur Wikipédia, notamment celui des administrateurs (et autres « sheriffs »), cf Marc Foglia et al., Wikipedia. Média de la connaissance démocratique ? Quand le citoyen lambda devient encyclopédiste, op. cit., §§ 2.1 et 11.3.

[17Voir Marc Foglia et al., Wikipedia. Média de la connaissance démocratique ? Quand le citoyen lambda devient encyclopédiste, §§ 2 à 4.

[18Rappelons que Wikipédia n’est que le plus gros des wikis du web ; il existe en fait une multitude de wikis, plus ou moins actifs, qui composent une véritable nébuleuse : cf Marc Foglia et al., Wikipedia. Média de la connaissance démocratique ? Quand le citoyen lambda devient encyclopédiste, §2.3 : « Wiki vs Wikipédia ».

[19Un chercheur ne peut exposer ses théories les plus récentes ou innovantes sur Wikipédia ; d’où le désintérêt de certains spécialistes pour l’encyclopédie.

[20La multiplication perspectiviste des « points de vue » est le but explicite du protocole Hypertopic élaboré par l’Université de Technologie de Troyes pour faciliter la compréhension, la réutilisation et l’interopérabilité des applications du nouveau web. Voir le wiki.

[21C’est exactement le pari fait par Google avec les « knols », espaces collaboratifs particularisés et non anonymes (signature des articles). Les knols, dont le contenu est recyclable (licences juridiques Creative Commons) ont toutefois l’inconvénient d’inclure (au moins à titre d’option) de la publicité.

[22L’encyclopédie universelle basée sur le principe des knols l’illustre assez bien.

[23Voir la page des sites « miroirs » de Wikipédia ; on verra notamment des sites remix consacrés à l’anarchisme ou au libéralisme. Certains remix fonctionnent en lecture seule ; d’autres sont des wikis où l’internaute peut écrire (dans des limites variables). Certains ne font que reprendre les pages de Wikipédia sans les modifier ; mais la plupart de ces clones (tout particulièrement Citizendium) s’éloignent de Wikipédia, en même temps qu’ils la consacrent indirectement comme « source ». Outre le remix « parodique » de la Désencyclopedie (Uncyclopedia), mentionnons le cas des applications composites (« mash-up ») qui mettent par exemple en relation les métadonnées géographiques (geotags) de Wikipédia et des services de cartographie (de type Google Earth).

[24Sur ce concept de Web socio-sémantique développé par l’Université de Technologie de Troyes, voir la page « Socio-semantic web » de Wikipédia.

[25Voir par exemple les moteurs de recherche « communautaires » (swicki) mis à disposition gratuitement par la société Eureckster. Ces moteurs sont « spécialisables », en fonction des besoins de la communauté qui s’en empare, selon les principes d’étiquetage (tagging) inspirés du marquage communautaire (« social bookmarking »). Voir aussi la rubrique « Social search » de Wikipedia.

[26Google a bien sûr pris conscience de cette évolution et vient d’ouvrir Google Recherche Adaptée, qui s’inspire largement de ce mouvement de personnalisation : http://www.google.com/coop/cse/ (version bêta).

[27Sur ce mouvement de l’intelligence des « machines qui pensent » aux « machines qui donnent à penser », voir le résumé en ligne de la thèse de Bruno Bachimont (thèse d’informatique téléchargeable)

[28Il existe de nombreux réseaux sociaux généralistes, qui entrent en concurrence dans leur course à la taille critique (Facebook, LinkedIn, etc.). Mais il est parfaitement possible de créer « son » propre réseau social (par exemple sur http://www.ning.com ou http://www.webjam.com). Par ailleurs, les sites d’agrégation de réseaux (spécialisés ou généraux) se multiplient (http://www.spokeo.com, http://www.friendfeed.com, etc.), jouant ainsi le rôle de méta-réseaux.

[29Sur cette notion qui désigne la capacité de « migration » d’un contenu d’un support à un autre, voir notamment la discussion sur le projet de MamanWiki (la ferme à wiki qui pousse ses petits wikis à quitter la maison) de la communauté Craowiki.

[30C’est l’objection qu’adresse Deleuze aux contempteurs du septième art : un tel argument ne porte que contre la médiocrité, pas contre le cinéma. Cf. L’image-mouvement. Cinéma 1, Paris, Minuit, 1983.


↑ Haut de page

La Vie des idées
© laviedesidees.fr - Toute reproduction interdite sans autorisation explicite de la rédaction - Mentions légales - webdesign : Abel Poucet