Connexion
Abonnez-vous

Dans les communautés de Wikipédia, l’utilisation de l’IA ne passe pas

Wikipéd-IA

Dans les communautés de Wikipédia, l’utilisation de l’IA ne passe pas

La fondation Wikimedia a mis en place une fonctionnalité expérimentale de résumé automatique des articles de l'encyclopédie qui s'affichait en tête de page dans la version mobile. Les wikipédiens n'ont pas apprécié et l'ont fait comprendre à la fondation, qui a finalement fait marche arrière avant la fin de la période de tests prévue.

Le 13 juin à 08h00

Le 2 juin dernier, la fondation Wikimedia a annoncé aux communautés qui participent à l'édition de Wikipédia la mise en place d'une fonctionnalité utilisant l'IA générative : des résumés en haut des pages de l'encyclopédie. De « simples résumés pour les lecteurs générés par la machine, mais modérés par des éditeurs », expliquait la fondation.

« Ces résumés reprennent le texte existant de Wikipédia et le simplifient pour les lecteurs intéressés. Les lecteurs manifesteront leur intérêt en choisissant cette fonctionnalité et en cliquant pour ouvrir le résumé sur les pages où il est disponible », précisait-elle.

Cette expérimentation a été mise en place sur la version mobile de l'encyclopédie et devait concerner « un petit groupe (10 %) de lecteurs acceptant et ouvrant des résumés pré-générés sur un ensemble d'articles pendant deux semaines ». Un badge « non-vérifié » était même accolé en haut du texte.

Exemple du résumé généré par IA, en anglais, de la page à propos de la dopamine

De rudes critiques sur le principe même

Mais la fondation a dû l'écourter. Comme l'indique 404 Media, la communauté n'a pas apprécié le principe même de cette fonctionnalité. « Beurk » ont répondu certains. « Ce n'est pas parce que Google a déployé ses résumés IA que nous devons les surpasser », rétorque un autre : « je vous prie sincèrement de ne pas tester ça, ni sur mobile ni ailleurs. Cela porterait un préjudice immédiat et irréversible à nos lecteurs et à notre réputation de source digne de confiance et sérieuse ». D'autres affirment que c'est une « très mauvaise idée » ou s'y disent « opposés le plus fortement possible ».

La fondation n'a pas lancé ce projet en secret puisqu'une page lui était consacrée depuis janvier dernier sur son site dédié à la communauté MediaWiki. Cette page explique d'ailleurs que l'idée vient de discussions menées en aout 2024 lors de la conférence Wikimania de la fondation. Mais la communication envers la communauté à propos de ce projet semble ne pas avoir atteint sa cible avant qu'il soit mis en place.

Suite aux réactions, la fondation a lancé un sondage critiqué par la communauté pour son manque de transparence et ses résultats qui ne sont pas publics.

Une expérimentation en contradiction avec une recommandation de la communauté francophone

Du côté francophone, ça réagit aussi suite à la publication de l'article de 404 Media. « Les IA génératives peuvent s'avérer utiles pour reformuler ou synthétiser une proposition de RI [résumé introductif] préparé au préalable par un(e) honorable homo wikipedianus, mais je doute que cela puisse remplacer le RI lui-même », écrit une des bénévoles. Et d'ajouter : « Ce serait contraire à une "utilisation raisonnée" de l'IA telle que définit dans la nouvelle recommandation qui a été votée par la communauté, surtout sans vérification préalable ».

Et effectivement, en parallèle de cette expérimentation et sans aucun lien avec elle, la communauté de Wikipédia en français a voté très majoritairement pour un texte de recommandation sur l'usage de l'IA générative. Le résumé (non généré par IA) de ce texte affirme que « l'intelligence artificielle générative (IAg) n'apporte aucune garantie sur la fiabilité, la libre réutilisation et la vérifiabilité du contenu. Son utilisation est donc vivement déconseillée ».

Jules*, l'un des administrateurs de Wikipédia en français (qui a contribué à notre enquête sur les sites d'information générés par IA, ndlr), est aussi très critique de l'expérimentation mise en place par la fondation : « Je ne vois pas en quoi c'est un avantage. L'utilisateur pressé qui ne lit que le RI lira un RI généré par IA qui contient peut-être des hallucinations, des contre-sens, des imprécisions, qui ne restitue pas fidèlement le contenu de l'article, etc. C'est désastreux ».

La fondation admet un raté dans la communication avec les bénévoles

« Cette expérience, d'une durée de deux semaines, visait à rendre les articles complexes de Wikipédia plus accessibles aux personnes ayant des niveaux de lecture différents », a déclaré la fondation à 404 Media.

Elle précise que, « pour les besoins de cette expérience, les résumés ont été générés par un modèle Aya à poids ouvert de Cohere. L'objectif était de mesurer l'intérêt pour une telle fonctionnalité et de nous aider à réfléchir au type de système de modération communautaire adéquat pour garantir que les humains restent au centre des décisions concernant les informations affichées sur Wikipédia ».

Un responsable de projet de la fondation admet aussi auprès de nos confrères que la fondation aurait pu faire mieux en ouvrant la conversation sur le sujet sur le « village pump technical », l'endroit où sont discutés les sujets techniques en lien avec l'encyclopédie.

« Nous ne prévoyons pas d'introduire une fonction de résumé dans les wikis sans la participation des éditeurs. Un processus de modération par l'éditeur est nécessaire en toutes circonstances, à la fois pour cette idée et pour toute autre idée future concernant le contenu résumé ou adapté par l'IA », ajoute-t-il.

Commentaires (15)

votre avatar
L'idée de départ est bonne (proposer un résumé) car c'est souvent une des problématiques de wikipédia : tu cherches des infos sur un thème, et dès le paragraphe d'intro tu as besoin d'être un spécialiste du sujet pour le comprendre parce que la moitié des mots est du jargon spécifique du thème. Donc avoir un résumé en langage compréhensible par le commun des mortels serait une excellente idée.

Mais par essence, si on vient sur wikipédia c'est pour essayer d'avoir la définition la plus précise, honnête, sérieuse, non biaisée, vérifiée par des pairs... bref aux antipodes de ce que fait l'IA. C'est juste broken by design.
votre avatar
C'est dommage, tu te contredis entre le 1er et le 2nd paragraphe.
En fait, tu as raison, les 2 besoins existent :
- un besoin d'information pointue, rigoureuse à destination des spécialistes
- un besoin d'information simplifiée, pour la vulgarisation (mais par essence tronquée, avec les problèmes que ça apporte)

J'ai l'impression que Wikipédia a fait l'erreur de débutant en informatique : partir d'une solution technique pour trouver le besoin (on a accès à l'IA, comment va-t-on l'utiliser ?), au lieu de partir du besoin pour concevoir une solution (comment faire cohabiter la vulgarisation et l'information pointue ?).
votre avatar
Je ne pense pas que les 2 types d'informations soient contradictoires (résumé vs complet). Forcément que le résumé omettra des précisions, vulgarisera des éléments, mais s'il est proprement fait, par un humain (aidé d'IA s'il le désire), en choisissant rigoureusement les mots, il peut rester fidèle à l'idée de départ.

On pourrait même imaginer des déclinaisons à destination de publics différents (enfants par exemple) ou des longueurs différentes (1 phrase / 3 phrases...).
votre avatar
FYI en anglais il y a le "simple English" qui permet d'avoir une version simplifiée de certains concepts pour certaines pages wiki.
votre avatar
Ca existe aussi en français. C'est le FALC (français Facile A Lire et à Comprendre).
votre avatar
Mais il n'y a pas de version de wikipédia en falc, comme pour le simple english, non ?
votre avatar
Non, en effet, je ne trouve rien sur la liste des éditions
votre avatar
Mais c'est génial ça, je ne connaissais pas. Merci. Bon ben alors pas besoin de plus... si ce n'est appliquer ça à tous les articles techniques à jargon compliqué et à toutes les langues.
votre avatar
Perso je trouve leur cas d'usage inutile. Le résumé par IA en RAG (comme ils ont cherché à faire) a de l'intérêt quand il s'agit de synthétiser des documents plutôt longs et pas forcément structurés de la même manière histoire de voir s'ils sont pertinents, par exemple.

Dans le cas de Wikipedia, le cartouche d'introduction est généralement rédigé de manière à fournir l'essentiel pour comprendre le contexte (Machin est un truc créé en tel année par Bidule qui opère dans blablabla, Truc est un concept développé par Chose...) et la structuration des articles suit une certaine logique de lecture qui se suffit.
votre avatar
Pas grave. Le contenu de wikipedia est facilement absorbable par d'autres IA.
Si wikipedia ne propose pas d'IA pour rester "pur", un autre acteur en proposera une.
Y a certainement un marché pour une IA spécialisée dans les connaissances académiques.
votre avatar
Je ne vois pas de pertinence pour entraîner une IA sur Wikipedia en vue de faire un LLM de génération de connaissances académiques. Le contenu de Wikipédia est mouvant (c'est la difficulté à laquelle font face les modèles spécialisés devs : ils sont obsolètes par définition dans le cas d'une techno qui évolue vite, cf les framework Javascript qui pop plus vite qu'une infestation de cafards), c'est donc du RAG qu'il doit faire à mon sens. Il ne faut pas oublier qu'un LLM n'apprend plus une fois produit et l'entraînement c'est ce qui coûte le plus cher.

Le seul intérêt d'un entraînement à mes yeux, c'est pour que le LLM apprenne à lire le contenu et traiter des requêtes en conséquence pour être plus pertinent.
votre avatar
Pour info, Wikipedia fait partie depuis le début des sources de données d'entrainement de tous les LLM ou presque. Et c'est assumé notamment parce que ces données sont de qualité et en licence Creative Commons by-sa. L'enjeu n'est pas là.
votre avatar
Oui ça je sais bien, Wikipedia fait partie des corpus d'entraînement depuis GPT-1. Au même titre que les textes européens traduits en multilangues ont servi à entraîner les modules de traduction. L'entraînement est effectivement possible grâce à la licence CC (qui, jusqu'ici, considère ça comme du fair use sauf si sa position a changé, pas souvenir de l'avoir vu passer). En parlant de ça, Creative Commons étudie tout de même la création de signaux pour préciser les termes de ces usages. Ils avaient d'ailleurs bien indiqué à l'époque de la DAMUN que les licences CC ne constituaient pas un refus de fouille au sens de la directive.

Ce que je voulais dire, c'est qu'il y a une différence entre entraîner un LLM dessus en vu de lui apprendre à lire, et vouloir en faire une "base de connaissances" à des fins encyclopédique.

Lorsqu'un contenu est régulièrement modifié, l'intérêt d'entraîner un LLM dessus n'est super pertinent dans le second cas. Le RAG est plus adapté pour ça.

Pour donner un autre exemple de vie réelle : l'usage de l'IA dans l'ITSM. Entraîner un LLM sur la documentation d'un service IT (quand elle existe :D) n'a que peu de sens : une doc, ça peut changer et rendre l'entraînement caduque. Le RAG sera donc à préférer. Par contre, entraîner un LLM sur la base d'incidents, demandes et changements a un intérêt : ce sont des données figées dans le temps et qui permettent au modèle d'apprendre à tirer des schémas récurrents ou corréler des cas similaires. L'exercice d'entraînement n'a pas besoin d'être répété trop souvent et ce sera toujours de la donnée incrémentée, mais jamais changée.
votre avatar
La seule encyclopédie valable est celle de Diderot & d'Alembert.
Universalis pour faire joli sur ses étagères.
(sans gros morceaux gourmands d'IA inside)
votre avatar
Déjà rien que l'idée ... Heureusemetn que la fondation a compris et est revenue en arrière.

Dans les communautés de Wikipédia, l’utilisation de l’IA ne passe pas

  • De rudes critiques sur le principe même

  • Une expérimentation en contradiction avec une recommandation de la communauté francophone

  • La fondation admet un raté dans la communication avec les bénévoles

Fermer