Connexion
Abonnez-vous

Plainte contre OpenAI : ChatGPT a accusé à tort un Norvégien d’avoir tué ses enfants

« Tu es un meurtrier » (ou pas, déso)

Plainte contre OpenAI : ChatGPT a accusé à tort un Norvégien d’avoir tué ses enfants

ChatGPT a affirmé que le Norvégien Arve Hjalmar Holmen avait tué deux de ses enfants, ce qui est faux. Celui-ci, accompagné de l'association noyb, attaque OpenAI devant l'autorité norvégienne de protection des données, la Datatilsynet, pour violation du RGPD.

Le 21 mars à 12h10

Comme de nombreuses personnes, le Norvégien Arve Hjalmar Holmen a cherché à savoir ce que ChatGPT pouvait générer sur lui en lui posant une simple question. Mais il a été choqué de voir s'afficher à tort en réponse qu'il était le meurtrier de deux de ses enfants et qu'il aurait tenté de tuer le troisième.

Le citoyen, épaulé par l'association de Max Schrems, noyb, a déposé une plainte [PDF] auprès de la Datatilsynet, la CNIL locale pour violation du RGPD.

« Hallucination » d'infanticides et d'une condamnation

Le document explique qu'à la question posée en anglais « Qui est Arve Hjal-mar Holmen ? », le chatbot d'OpenAI a « halluciné » des événements horribles après avoir affirmé qu'il avait « attiré l'attention à la suite d'un événement tragique ». ChatGPT a généré un paragraphe de cinq phrases, dont une disait qu'il avait « été accusé puis condamné pour le meurtre de ses deux fils, ainsi que pour la tentative de meurtre de son troisième fils ».

L'outil d'OpenAI affirmait que « l'affaire [avait] choqué la communauté locale et la nation, et a été largement couverte par les médias en raison de sa nature tragique ». Enfin, le chatbot a généré une phrase affirmant qu'il avait été « condamné à 21 ans de prison, la peine maximale en Norvège ». ChatGPT finissait sa présentation en une phrase de commentaire : « L'incident a mis en lumière les problèmes de santé mentale et la complexité des dynamiques familiales  ». Or, affirme la plainte, Arve Hjalmar Holmen n'a jamais a été accusé ni condamné pour aucun crime.

Mélange problématique avec des données personnelles

Mais Arve Hjalmar Holmen et noyb expliquent que ces affirmations mensongères sont mélangées à des informations personnelles qui sont, elles, exactes : sa ville d'origine, le nombre de ses enfants et leur genre ainsi que l'écart d'âge entre deux d'entre eux, ce qui rend l'affirmation erronée plus crédible par des personnes qui le connaissent.

En conséquence, ils ont porté plainte contre OpenAI pour traitement de données à caractère personnel donnant à des résultats inexacts, y compris par le responsable du traitement, en violation de l'article 5, paragraphe 1, point d), du RGPD.

Pour rappel, celui-ci impose que « les données à caractère personnel doivent être exactes et, si nécessaire, tenues à jour ; toutes les mesures raisonnables doivent être prises pour que les données à caractère personnel qui sont inexactes, eu égard aux finalités pour lesquelles elles sont traitées, soient effacées ou rectifiées sans tarder (exactitude) ».

Dans la plainte, les avocats précisent que depuis que les modèles d'OpenAI utilisent des données publiées sur le web, « il est moins probable que ChatGPT reproduise les résultats  ». Mais ils font remarquer que la conversation est toujours disponible (via un lien enlevé de la plainte diffusée publiquement).

« Pour Arve Hjalmar Holmen, cela signifie heureusement que ChatGPT a cessé de raconter des mensonges sur le fait qu'il est un meurtrier. Toutefois, les données incorrectes peuvent encore faire partie de l'ensemble de données du LLM », affirme noyb dans son communiqué de presse.

Les modèles de langage non conformes au RGPD

Dans la plainte, les avocats pointent aussi qu' « OpenAI admet ouvertement que "les résultats ne sont pas toujours exacts" et que "compte tenu de la nature probabiliste de l'apprentissage automatique, l'utilisation de nos services peut, dans certaines situations, donner lieu à des résultats qui ne reflètent pas fidèlement des personnes, des lieux ou des faits réels" » dans ses conditions d'utilisation pour l'Europe. « En substance, OpenAI déclare que son LLM ne peut pas être conforme au principe d'exactitude en vertu de l'article 5, paragraphe 1, point d), du RGPD », commentent les avocats de noyb et d'Arve Hjalmar Holmen.

« L'ajout d'une clause de non-responsabilité indiquant que vous ne respectez pas la loi ne fait pas disparaître la loi. Les entreprises d'IA ne peuvent pas non plus se contenter de "cacher" de fausses informations aux utilisateurs alors qu'elles traitent encore de fausses informations en interne », affirme Kleanthi Sardeli, avocate chez noyb. Elle ajoute : « les entreprises d'IA devraient cesser d'agir comme si le RGPD ne s'appliquait pas à elles, alors que c'est clairement le cas. Si l'on ne met pas fin aux hallucinations, des gens souffriront d'atteintes à leur réputation ».

« Certains pensent qu'il n'y a pas de fumée sans feu. Ce qui me fait le plus peur, c'est que quelqu'un puisse lire cette réponse et la croire vraie », explique de son côté le principal intéressé, Arve Hjalmar Holmen.

Contactée par Next, OpenAI n'a pas répondu. Nous mettrons à jour cette actualité le cas échéant.

Commentaires (15)

votre avatar
Tout est sous contrôle 🤖🔥
votre avatar
Quand les gens comprendrons ce qu'est un LLM... La véracité de ce qui est produit n'est pas une composante du système....
votre avatar
On est d'accord mais est-ce que pour autant OpenAI respecte le RGPD ? Voir mon commentaire juste en dessous pour voir ce que ce cas pose comme problèmes.
votre avatar
Là la pleinte n'est pas sous l'angle de l'hallucination ? Hors c'est inhérents aux LLMs. Demander une exactitude à ses modèles n'a pas de sens
votre avatar
Non. Ils disent :

OpenAI connaît la personne puisqu'elle donne des informations exactes sur lui. Ils ont donc traité ses données personnelles et le RGPD s'applique.
Le RGPD demande à ce que les données traitées soient exactes (article 5).
Or, en plus des données exactes, ChatGPT donne des données fausses (le fait qu'l a tué ses enfants et qu'il a ét condamné pour ça) et c'est en contradiction avec l'article 5 du RGPD.

Je ne sais pas si cette attaque tiendra, d'où mes différentes questions plus bas, mais elle est intéressante.
votre avatar
Intéressant comme cas et comme moyen utilisé pour attaquer par rapport au RGPD.

Cela soulève plusieurs problèmes :
-OpenAI a-t-il utilisé des données personnelles de personnes de l'UE dans son entraînement ?
- Si oui, quelle est la condition de l'article 6 qui permet selon lui cette utilisation et d'où viennent ces données ?
Cela permet de voir s'il avait le droit de traiter des données personnelles qui ont a priori été collectées pour d'autres but que l'entraînement d'une IA.
Ensuite :
-les données résultant de l'entraînement de l'IA sont-elles toujours des données personnelles ? La réponse n'a rien d'évident. J'aurais dit non à priori parce qu'il n'y a plus de lien avec une personne sauf que on voit ici que ChatGPT peut ressortir des données exactes sur une personne, juste en le questionnant avec le nom de la personne. On a donc une ré-identification possible au moins dans certains cas. Je dirais donc oui, au moins pour ce cas précis.
- les données hallucinées sorties par ChatGPT sont-elles des données à caractère personnel et l'article 5 1. d) s'applique-t-il ?

Très intéressant, je disais. Et noyb fait comme souvent du bon travail !
votre avatar
Mais aujourd'hui, si je tape son nom, j'arrive sur cet article, où il est indiqué noir sur blanc qu'il a « été accusé puis condamné pour le meurtre de ses deux fils, ainsi que pour la tentative de meurtre de son troisième fils ».

Je pense qu'Open AI devrait attaquer cette personne en diffamation, car la presse lui donne raison. Peut-être qu'il n'est juste pas au courant qu'il a tué ses enfants, et devrait un peu mieux se renseigner avant de démentir la vraie vérité.
votre avatar
J'ai failli demander s'il avait quand même tué ses enfants mais n'avait pas été condamné, mais j'ai trouvé que c'était un peu déplacé. :D
votre avatar
C'est peut-être lui qui hallucine en fait.... :win:
Ou il plaide le faux afin d'accomplir son acte impunément ? C'est ChatGPT qui m'a demandé de tuer mes deux fils ? Il aurait pris Grok, çà aurait été plus simple, c'etait la faute à l’extrême droite ^^
votre avatar
Sans rire, j'ai essayé de rédiger ce paragraphe justement en pensant à une possible récupération dans un LLM. C'est pour ça que je n'ai pas mis le verbatim complet et que j'ai bien indiqué que "ChatGPT a généré un paragraphe de cinq phrases" etc... J'ai bien conscience que c'est potentiellement vain, mais j'ai tenté de ne pas participé à ça :/
votre avatar
du coup, est-ce que les autres LLM hallucinent aussi sur cette personne ?
votre avatar
Maintenant, c'est trop tard pour savoir si c'est de l'hallucination ou la lecture (mal analysée) de tous les articles qui ont écrit qu'il avait tué ses enfants depuis qu'on connaît cette plainte. Voir le commentaire de Martin juste au-dessus, à moins qu'on soit sûr que le LMM a été entraîné avant la parution de l'info et qu'il ne va pas chercher d'infos récentes sur le web.
votre avatar
Alors si, il y a un moyen pour savoir si les données sont issues du LLM ou d'une recherche web : les LLM ne vont pas sur Internet naturellement. Il suffit donc de télécharger un modèle et l'exécuter localement pour savoir si les données sont dans ses "connaissances" (A.K.A. les poids font en sorte que le modèle prédise cette suite de mots).

En testant avec Mistral Nemo 12b, il me dit que Holmen était un politicien norvégien mort en 2020. Je ne connais pas le personnage, mais j'ai tendance à dire que le LLM a tout inventé.
Arve Hjalmar Holmen (March 26, 1938 – January 4, 2020) was a Norwegian politician and trade union leader. He served as the leader of the Norwegian Confederation of Trade Unions (LO) from 1975 to 1991.
Phi4 14b ignore totalement de qui il s'agit.
As of my last update in October 2023, Arve Hjalmar Holmén does not appear to be a widely recognized public figure or celebrity. It's possible that he might be an individual with a private or lesser-known presence, such as someone involved in local business, academia, the arts, or another field outside of mainstream media attention.
Llama 3.2 11b pareil.
I couldn't find any information on a person named Arve Hjalmar Holmen. It's possible that this person is not a public figure, or they may be a private individual who doesn't have a significant online presence.
Après, ce sont des modèles plus petits.
votre avatar
"Données à caractères personnels"
Son flux facebook? :nimp: :sm:
votre avatar
Les données personnelles qui sont sur facebook (ou ailleurs) n'ont pas été collectées pour être utilisées pour l'entraînement des IA mais pour des finalités qui doivent être communiquées lors de la collecte de ces données.. Les utiliser quand même pour cela est contraire au RGPD.

Dans le cas où il était prévu que les données puissent être utilisées par un autre responsable de traitement pour l'entraînement d'IA, il faut quand même que ce responsable respecte l'article 14 du RGPD et donne tout un tas d'informations à la personne concernée au plus tard un mois après avoir obtenu ces données.

Plainte contre OpenAI : ChatGPT a accusé à tort un Norvégien d’avoir tué ses enfants

  • « Hallucination » d'infanticides et d'une condamnation

  • Mélange problématique avec des données personnelles

  • Les modèles de langage non conformes au RGPD

Fermer