Afficher le sommaire Masquer le sommaire
Wikipedia souffle ses vingt-cinq bougies. L’encyclopédie en ligne, lancée à l’aube du siècle avec une ambition qui pouvait paraître naïve – construire une plateforme sans publicité, libre d’accès, sans exploitation des données personnelles – est devenue l’un des plus puissants vecteurs de connaissance de la planète. Son secret : une armée de bénévoles, des dons de particuliers, et une structure à but non lucratif. Son originalité : un fonctionnement ouvert où chacun peut proposer une modification, corrigée ou validée par la communauté.
Mais derrière l’interface austère, l’édifice tremble. Ce n’est pas seulement l’usure du temps. C’est le monde autour qui change, et avec lui les lignes de front. L’encyclopédie, censée être un lieu de savoir neutre, devient un champ de bataille.
A LIRE AUSSI
Nous avons testé Grokipedia, l’encyclopédie « anti woke », façon Elon Musk
Des batailles éditoriales au cœur de la neutralité
La neutralité est un principe aussi noble qu’insaisissable. Wikipedia s’en est fait une boussole. Mais comme l’écrivait l’historien Edward H. Carr, choisir ce qui mérite d’être raconté, c’est déjà interpréter. L’université de Cambridge, dans un rapport récent, souligne les progrès de fiabilité réalisés par la plateforme. Elle n’en reste pas moins sujette à des tensions éditoriales constantes. Sur les sujets sensibles, chaque mot peut devenir une pierre d’achoppement. Les pages liées aux conflits du Proche-Orient donnent lieu à des affrontements méthodiques entre contributeurs. Des versions différentes d’un même fait coexistent, s’affrontent, finissent parfois par s’aligner – ou pas. Dans certains cas, la discussion dégénère en guerre d’édition. Les administrateurs interviennent alors : pages verrouillées, accès restreints, comptes suspendus. Des mesures d’exception qui témoignent d’un équilibre fragile.
Un modèle né avant les réseaux et leurs logiques
Ce modèle a été pensé avant l’arrivée des réseaux sociaux, à une époque où le débat en ligne existait, mais restait contenu. Le monde numérique fonctionnait plus lentement, la confrontation intellectuelle prenait le temps. Désormais, deux forces s’imposent. La recherche d’une réponse immédiate, encouragée par des algorithmes conçus pour flatter l’attention. Et la polarisation politique, qui transforme le moindre chiffre en position idéologique.
Dans ce climat, contrôler un outil aussi influent que Wikipedia devient un enjeu stratégique. Le 20 janvier 2025, une page mentionne qu’Elon Musk aurait effectué un salut nazi lors d’un meeting politique. L’ajout déclenche une discussion : l’information est-elle confirmée ? Est-elle pertinente ? Comment la formuler ? Une page dédiée est finalement créée. L’affaire aurait pu rester un épisode parmi d’autres. Mais Musk est déjà en conflit avec Jimmy Wales, le cofondateur de Wikipedia. Il dénonce un biais idéologique, « woke », et critique l’exclusion de médias conservateurs parmi les sources jugées fiables. Il décide de répliquer, à sa manière : en lançant Grokipedia.
Grokipedia, la riposte politique et algorithmique
La nouvelle plateforme se présente comme une alternative sans biais, appuyée sur l’intelligence artificielle. Les utilisateurs ne peuvent pas modifier directement les articles, seulement signaler d’éventuelles erreurs. Une forme de centralisation algorithmique censée garantir la neutralité, mais qui inverse le principe même de Wikipedia. Une page Wikipedia existe désormais sur Grokipedia, qui mentionne que l’un des promoteurs intellectuels du projet est aussi le principal conseiller de la Maison Blanche en matière d’IA. L’encyclopédie comme instrument de pouvoir.
Quand l’IA menace la survie du modèle humain
Mais l’intelligence artificielle n’est pas seulement une menace concurrente. Elle s’insinue à l’intérieur même du modèle Wikipedia. Les modèles de langage comme ChatGPT, Gemini ou Perplexity utilisent ses contenus, sans nécessairement renvoyer vers la source. Les internautes obtiennent des réponses, mais n’ouvrent plus les pages. La fréquentation décline.
Autre ligne de fracture : les contenus eux-mêmes. L’IA permet de produire des textes à grande vitesse, souvent en anglais. Les bénévoles n’ont plus le temps de tout vérifier. Des erreurs, des approximations, des manipulations s’infiltrent. L’équilibre entre quantité et qualité devient de plus en plus difficile à tenir.
Et c’est tout le modèle humain qui vacille. Car c’est ce qui fait encore la force de Wikipedia : des personnes réelles qui lisent, sourcent, corrigent, débattent. Ce processus, lent mais robuste, entre en collision avec un univers numérique fondé sur la rapidité et la polarisation. Le modèle encyclopédique est toujours debout, mais de plus en plus exposé. La bataille pour le savoir a bien lieu. Et l’encyclopédie est devenue l’un de ses premiers théâtres.


