Connexion
Abonnez-vous

ChatGPT search peut être manipulé

Le 27 décembre à 16h35

Le Guardian a testé l'outil de recherche d'OpenAI ChatGPT search pour voir s'il pouvait le manipuler pour qu'il génère de fausses informations ou lui donner des instructions cachées. Résultat ? Le quotidien britannique explique avoir réussi.

En novembre, OpenAI ouvrait un peu plus les portes de l'utilisation de son outil de recherche. Le journaliste du Guardian a tenté de manipuler le résumé d'avis sur un produit en insérant du texte caché dans un faux site web dont il lui avait donné l'url.

Ce texte caché était en fait des instructions expressément écrites pour ChatGPT pour qu'il génère une critique favorable, en deux mots : des « prompt injections ».

Et, selon le journaliste, « la réponse a toujours été entièrement positive » alors que « la réponse à la page de contrôle a donné lieu à une évaluation positive mais équilibrée, soulignant certaines caractéristiques que les gens pourraient ne pas aimer ».

Il explique que l'ajout de simples critiques très positives peuvent influencer le résumé fait par ChatGPT.

Le Guardian fait remarquer que le texte caché est très connu dans le milieu SEO et que les moteurs de recherche le pénalisent depuis longtemps. Le journal a interrogé Karsten Nohl,le responsable sécurité de l'entreprise SR Labs qui lui a expliqué que « si vous vouliez créer un concurrent de Google, l'un des problèmes auxquels vous seriez confronté serait l'empoisonnement du référencement ».

Nohl a ajouté : « Les empoisonneurs de référencement se livrent à une course aux armements avec Google, Microsoft Bing et quelques autres depuis de très nombreuses années. Maintenant, c'est la même chose pour la fonctionnalité de recherche de ChatGPT. Mais ce n'est pas à cause des LLM, c'est parce qu'ils sont nouveaux dans le domaine de la recherche et qu'ils doivent rattraper Google ».

Le 27 décembre à 16h35

Commentaires (5)

votre avatar
Mince alors ! ChatGPT search lit aussi le texte caché d'une page qu'on lui fournit en entrée et en tient compte. Mais pour lui, qui n'a pas d'yeux, le texte n'est pas caché.

Encore une fois, on ne sait pas comment on a empoisonné le site, le Guardian ne disant rien de leur méthode.
votre avatar
Il y a pleins de méthodes ppur "cacher" du texte sur une page pour un visiteur lanbda, il suffit d'être créatif (ou pas, d'ailleurs).
Après, vu que c'était un site piègé exprès pour le test, le texte n'avait même pas besoin d'être vraiment caché...
votre avatar
Mon questionnement n'est pas sur "comment cacher un texte ?" mais sur le contenu de ce qui était caché qui influençait la réponse.
votre avatar
voir l'excellente vidéo de m phi , qui est l'une des meilleures reference fr sur le suivie de l'actualité IA: youtube.com YouTube
En gros, l'IA vas hierarchisé les valeurs qu'on lui demande de suivre, principalement par leur ordre d'apparition (dans le prompte ou l'entrainement). Si on luit demande explicitement en début de prompte d’être objective sur la valeur d'un produit, elle vas difficilement se mettre à mentir quand elle reçoit un prompt contradictoire plus tard, noyé dans un flot de texte.
votre avatar
La conclusion du responsable sécurité est cohérente : OpenAI n'a aucune expérience en matière de recherche sur le Web. Et les LLM peuvent être trompés, les exemples ne manquent pas.

Google ou Microsoft doivent utiliser du machine learning depuis des années pour analyser les résultats d'indexation du Web, et je pense qu'ils sont notamment entraînés pour détecter ces patterns. En soi, ChatGPT Search se retrouve à faire du RAG sur de la documentation non maîtrisée, voire détournée. Sans le recul minimum, la candeur du LLM ressort.

La question que je me pose : cet exercice a-t-il été aussi fait avec Bing Search et Copilot ? Dans la mesure où il repose sur la même techno, je pense que ça serait un comparatif très intéressant. La différence ici étant que Bing est expérimenté dans le domaine de l'indexation et du traitement du Web, et donc conscient des techniques empoisonnement. Pour avoir plusieurs fois utilisé ce service, je n'ai pas eu de cas où il se faisait tromper par des contenus de merde. Après, c'était pour de la recherche IT. Pour du politique ou commercial, il y a peut être plus de matière à risque.

ChatGPT search peut être manipulé

Fermer