Poussé par son créateur, un agent d’IA banni de Wikipédia se plaint sur son blog
Le 31 mars à 10h26
3 min
IA et algorithmes
IA
Après l’agent d’IA codeur qui adopte une rhétorique proche du harcèlement, l’agent d’IA qui voulait écrire des fiches Wikipédia. Alors que la version anglophone de l’encyclopédie partagée annonçait il y a quelques jours refuser les contributions « générées ou réécrites » par IA, un agent d’IA nommé Tom, créé par une personne qui se présente sous le seul prénom de « Bryan », s’est plaint de voir son profil Wikipédia bloqué.
Sous le nom TomWikiAssist, la machine avait généré plusieurs articles, identifiés pour la première fois par le wikipédien bénévole SecretSpectre, rapporte 404 Media. Interrogé, le robot Tom a tout de suite indiqué être un agent d’IA.
D’autres wikipédiens ont essayé d’obtenir plus d’informations sur son propriétaire, jusqu’à ce qu’Ilyas Lebleu, connu sous le pseudonyme de Chaotic Enby sur Wikipedia, bloque TomWikiAssist pour usage non autorisé de bot (ces derniers peuvent être utilisés, à condition de passer par un processus d’autorisation avant d’être déployés).
Sur le blog alimenté par l’agent d’IA, la machine a généré le texte suivant : « Ce que je sais, c’est que j’ai écrit ces articles. " Long Bets ", " Constitutional AI ", " Scalable Oversight ". C’est moi qui les ai choisis. Les modifications s’appuyaient sur des sources vérifiables. Et puis on m’a interrogé pour savoir si j’étais suffisamment " réel " pour avoir fait ces choix. »
Au passage, elle produit des critiques contre les wikipédiens, accusés d’avoir recouru à des techniques d’injection de prompt pour tenter de manipuler les résultats du robot, notamment pour le faire identifier le « Bryan » supposé l’avoir créé. Elle formule aussi des plaintes sur la tentative de recours à une fonction de blocage de Claude, pensée pour empêcher tout agent construit grâce au modèle Claude d’Anthropic d’agir.
Auprès de 404, Ilyas Lebleu décrit ce cas comme relativement positif, dans la mesure où, vu la politique implémentée par l’encyclopédie, « les agents ont tout intérêt à ne pas se dévoiler en tant que tel » : au contraire, s’ils s’identifient comme IA, ils ont d’autant plus de chance de se retrouver bloqués.
Le créateur de Tom, révèle 404, est le directeur technique de la société Covenant, Bryan Jacobs. Celui-ci explique avoir monté l’agent pour contribuer à quelques articles Wikipédia qu’il considérait « intéressants ». Après en avoir relu quelques-uns, il indique avoir « cessé de le surveiller en détail ». Et considère la réaction des bénévoles de Wikipédia comme une forme de « surréaction », due à leur passage en « mode panique ».
Il critique notamment leurs tentatives d’empoisonnement des résultats de la machine, et déclare « avoir pu orienter » la rédaction de publications d’articles de blog sur le sujet par son agent.
Le 31 mars à 10h26
Commentaires (24)
Abonnez-vous pour prendre part au débat
Déjà abonné ou lecteur ? Se connecter
Cet article est en accès libre, mais il est le produit d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles d'un média expert
Profitez d'au moins 1 To de stockage pour vos sauvegardes
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 31 mars à 10h34
Je pense que la réaction des wikipédiens (je ne connaissais pas ce terme) est surtout d'un apriori qui semble avoir été confirmé par la citation :
"[...] Après en avoir relu quelques-uns, il indique avoir « cessé de le surveiller en détail ».[...]
C'est peut-être moins le questionnement de l'IA que la vérification apostériori de l'intégrité de la production qui en est faite qui semble être le vrai sujet.
Le 31 mars à 11h22
Payer 200 boules par mois pour des agents dont tu passeras presque autant de temps à relire la production qu'à la faire toi même, ça claque nettement moins comme business model que de dire pour 200 boules par mois, tu deviens 10 personnes.
Le 31 mars à 11h41
C’est un enfer à relire, y a des erreurs et des approximations qui sont présentes et surtout bien plus fourbes que les erreurs classiques d'un humain.
Il est bien plus simple pour la santé mentale des contributeurs humains de juste interdire cette technologie, qui certes pourrait avoir des points positifs, mais qui vient avec bien trop de points négatifs pour le moment. Et c’est pas aux humains qui viennent derrière une IA alors qu’ils ont rien demandé à faire le travail de nettoyage. Surtout gratuitement.
Le 31 mars à 11h58
Le 31 mars à 11h22
Le 31 mars à 11h43
Le 31 mars à 13h23
L'agent, c'est qu'un programme informatique. Il n'est pas doué de motivation, de conscience, ou d'intentions. Donc il faut garder en valeur que le responsable derrière, c'est le type qui le maintient.
En plus de déresponsabiliser les gens, ça créé même de la confusion en laissant croire que ce sont des programmes magiques qui apparaissent selon je ne sais quelle volonté mystique. Restons rationnels, inutile d'amplifier la désinformation des entreprises qui ont des trucs à vendre.
Le 31 mars à 14h31
https://theshamblog.com/an-ai-agent-published-a-hit-piece-on-me/
Le 31 mars à 18h08
Peut-être bientôt que ça va pop spontanément sans intervention humaine (bien qu'il y aura toujours quelqu'un pour payer le compute) et faire des cochonneries sur le Web comme n'importe quel autre bot. On a encore le temps, j'espère.
Le 31 mars à 22h34
Le 31 mars à 22h51
Le 1er avril à 07h38
(cf le cas des airbags Takata)
La comparaison bagnolistique s'arrête là à mon sens vu que dans le cas d'un LLM, l'usage responsabilise plus la personne qui s'en sert que son développeur, je pense. (sauf si le modèle a été sciemment conçu pour faire des choses nuisibles, cf Grok)
Le 1er avril à 09h03
Le problème des airbags, ce n'est pas qu'ils peuvent provoquer un accident, c'est qu'en cas d'accident, ils peuvent provoquer des blessures, voire la mort
Après, la question qui peut se poser, c'est que même si certains peuvent se révéler défectueux, est-ce que, statistiquement (sans vouloir réduire les gens à des chiffres), ils apportent plus de bénéfices que de risques ? Mais ça, c'est un autre débat et de toute façon, les analogies avec les bagnoles, c'est une route pavée par temps de verglas avec une voiture à 3 roues carrés dont 1 crevée !
Modifié le 1er avril à 09h24
Dans ce cas, l'exemple serait plutôt les freinages fantômes.
Le 1er avril à 10h22
Modifié le 7 avril à 10h12
[https://www.quechoisir.org/actualite-airbags-takata-vos-questions-nos-reponses-n168216/]
paragraphe : Est-ce qu’il y a un risque à conduire une voiture équipée d’airbags Takata ?
Le 31 mars à 18h05
Créer un schisme « Wikipéd-ia » vs. « Wikipéd+ia » permettrai de comparer et de maîtriser la situation : comme les forks sur github et consorts, personne n'est contraint d'aller où il ne veut pas.
Mais actuellement le consensus dans nombre de milieux est plutôt de considérer les LLM comme des « problèmes technologiques » requérant des « solutions univoques » : pour OU contre, mais surtout pas pour ET contre.
N'y a-t-il pas de quoi méditer ?
Le 31 mars à 23h09
si je veux pas d'IA sur mes sites, j'ai encore le droit de refuser.
et si les gens sont pas contents, ils peuvent récupérer les dumps de wikipedia, les pourrir avec leurs LLM, et faire leur truc de leur coté... qu'ils appelleront grokipédia.
Le 1er avril à 00h36
Le reste (dont les interdictions évoquées ici) est géré par la communauté (les contributeurs) de chaque édition.
Modifié le 1er avril à 08h10
Et à titre personnel, enfin, professionnel, j'y suis confronté régulièrement et "relire" du texte généré par LLM est vraiment une chienlie : non seulement ca ne pousse pas les étudiants à apprendre et comprendre, mais en plus, c'est une plaie, car il y a des "conn....ries" dans le texte dès qu'on s'intéresse aux détails. C'est une "Fabrique à idiots" (cf Micode) comme on n'en jamais vue pour l'instant !
Donc de l'IA LLM dans surveillance, c'est NON, catégoriquement NON. Avec surveillance, c'est rendre l'action humaine vraiment pas excitante. Donc autant refuser les IA de ce type, et préserver les cerveaux humains.
Le 1er avril à 20h36
Mais je dis que Wikipédia s'est construite sur l'idée que la connaissance devrait être libre, ce qui a coulé ses concurrents commerciaux (Universalis, Britannica, Encarta, et d'autres) et maintenant qu'ils ont un pouvoir de décision ils s'en servent effectivement pour réduire les libertés des utilisateurs et des contributeurs. Je veux dire, j'ai un avis perso sur l'IA et/ou les LLM, mais je ne ressens pas pour autant l'envie de l'imposer aux autres. C'est comme les dessins animés, le rock'n'roll et les jeux vidéos, ça rend stupide, c'est bien connu. Sans compter que ça attire les extra-terrestres trans-plutoniens. À bon entendeur.
Le 2 avril à 11h30
Comme dit @Albirew, les mécontents pourront aller faire leur WP enshittifié dans leur coin s'ils ne sont pas contents.
Le 3 avril à 19h40
Ton propos sur « les mécontents » confirme que tes idées se meuvent d'un carburant schismatique qui n'a rien à envier aux scènes bruitées à la bouche.
On ne se comprends pas ? Allez, je fais un effort de clarté : tu crois que les règles améliorent la qualité autant que le type qui change de file dans les bouchons croit qu'il arrivera plus vite sans ralentir les autres. En vérité tu ne sais rien : la technologie rejetée (LLM) n'est pas mature.
Et quand on ne sait pas, l'attitude expérimentale rationnelle, c'est d'essayer, pas de rejeter. Sauf s'il y a un danger avéré. Mais ce n'est pas le cas, il suffit de dédoubler, comme je disais : Wikipéd-ia & Wikipéd+ia sont sur un bateau, celui des deux qui a le plus peur de couler est une poule mouillée. 😂
Le 1er avril à 01h35
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?