Plainte contre OpenAI : ChatGPT a accusé à tort un Norvégien d’avoir tué ses enfants
« Tu es un meurtrier » (ou pas, déso)

ChatGPT a affirmé que le Norvégien Arve Hjalmar Holmen avait tué deux de ses enfants, ce qui est faux. Celui-ci, accompagné de l'association noyb, attaque OpenAI devant l'autorité norvégienne de protection des données, la Datatilsynet, pour violation du RGPD.
Le 21 mars à 12h10
5 min
Droit
Droit
Comme de nombreuses personnes, le Norvégien Arve Hjalmar Holmen a cherché à savoir ce que ChatGPT pouvait générer sur lui en lui posant une simple question. Mais il a été choqué de voir s'afficher à tort en réponse qu'il était le meurtrier de deux de ses enfants et qu'il aurait tenté de tuer le troisième.
Le citoyen, épaulé par l'association de Max Schrems, noyb, a déposé une plainte [PDF] auprès de la Datatilsynet, la CNIL locale pour violation du RGPD.
« Hallucination » d'infanticides et d'une condamnation
Le document explique qu'à la question posée en anglais « Qui est Arve Hjal-mar Holmen ? », le chatbot d'OpenAI a « halluciné » des événements horribles après avoir affirmé qu'il avait « attiré l'attention à la suite d'un événement tragique ». ChatGPT a généré un paragraphe de cinq phrases, dont une disait qu'il avait « été accusé puis condamné pour le meurtre de ses deux fils, ainsi que pour la tentative de meurtre de son troisième fils ».
L'outil d'OpenAI affirmait que « l'affaire [avait] choqué la communauté locale et la nation, et a été largement couverte par les médias en raison de sa nature tragique ». Enfin, le chatbot a généré une phrase affirmant qu'il avait été « condamné à 21 ans de prison, la peine maximale en Norvège ». ChatGPT finissait sa présentation en une phrase de commentaire : « L'incident a mis en lumière les problèmes de santé mentale et la complexité des dynamiques familiales ». Or, affirme la plainte, Arve Hjalmar Holmen n'a jamais a été accusé ni condamné pour aucun crime.
Mélange problématique avec des données personnelles
Mais Arve Hjalmar Holmen et noyb expliquent que ces affirmations mensongères sont mélangées à des informations personnelles qui sont, elles, exactes : sa ville d'origine, le nombre de ses enfants et leur genre ainsi que l'écart d'âge entre deux d'entre eux, ce qui rend l'affirmation erronée plus crédible par des personnes qui le connaissent.
En conséquence, ils ont porté plainte contre OpenAI pour traitement de données à caractère personnel donnant à des résultats inexacts, y compris par le responsable du traitement, en violation de l'article 5, paragraphe 1, point d), du RGPD.
Pour rappel, celui-ci impose que « les données à caractère personnel doivent être exactes et, si nécessaire, tenues à jour ; toutes les mesures raisonnables doivent être prises pour que les données à caractère personnel qui sont inexactes, eu égard aux finalités pour lesquelles elles sont traitées, soient effacées ou rectifiées sans tarder (exactitude) ».
Dans la plainte, les avocats précisent que depuis que les modèles d'OpenAI utilisent des données publiées sur le web, « il est moins probable que ChatGPT reproduise les résultats ». Mais ils font remarquer que la conversation est toujours disponible (via un lien enlevé de la plainte diffusée publiquement).
« Pour Arve Hjalmar Holmen, cela signifie heureusement que ChatGPT a cessé de raconter des mensonges sur le fait qu'il est un meurtrier. Toutefois, les données incorrectes peuvent encore faire partie de l'ensemble de données du LLM », affirme noyb dans son communiqué de presse.
Les modèles de langage non conformes au RGPD
Dans la plainte, les avocats pointent aussi qu' « OpenAI admet ouvertement que "les résultats ne sont pas toujours exacts" et que "compte tenu de la nature probabiliste de l'apprentissage automatique, l'utilisation de nos services peut, dans certaines situations, donner lieu à des résultats qui ne reflètent pas fidèlement des personnes, des lieux ou des faits réels" » dans ses conditions d'utilisation pour l'Europe. « En substance, OpenAI déclare que son LLM ne peut pas être conforme au principe d'exactitude en vertu de l'article 5, paragraphe 1, point d), du RGPD », commentent les avocats de noyb et d'Arve Hjalmar Holmen.
« L'ajout d'une clause de non-responsabilité indiquant que vous ne respectez pas la loi ne fait pas disparaître la loi. Les entreprises d'IA ne peuvent pas non plus se contenter de "cacher" de fausses informations aux utilisateurs alors qu'elles traitent encore de fausses informations en interne », affirme Kleanthi Sardeli, avocate chez noyb. Elle ajoute : « les entreprises d'IA devraient cesser d'agir comme si le RGPD ne s'appliquait pas à elles, alors que c'est clairement le cas. Si l'on ne met pas fin aux hallucinations, des gens souffriront d'atteintes à leur réputation ».
« Certains pensent qu'il n'y a pas de fumée sans feu. Ce qui me fait le plus peur, c'est que quelqu'un puisse lire cette réponse et la croire vraie », explique de son côté le principal intéressé, Arve Hjalmar Holmen.
Contactée par Next, OpenAI n'a pas répondu. Nous mettrons à jour cette actualité le cas échéant.
Plainte contre OpenAI : ChatGPT a accusé à tort un Norvégien d’avoir tué ses enfants
-
« Hallucination » d'infanticides et d'une condamnation
-
Mélange problématique avec des données personnelles
-
Les modèles de langage non conformes au RGPD
Commentaires (15)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 21/03/2025 à 13h14
Le 21/03/2025 à 14h52
Le 21/03/2025 à 14h55
Le 21/03/2025 à 15h36
Le 21/03/2025 à 16h10
OpenAI connaît la personne puisqu'elle donne des informations exactes sur lui. Ils ont donc traité ses données personnelles et le RGPD s'applique.
Le RGPD demande à ce que les données traitées soient exactes (article 5).
Or, en plus des données exactes, ChatGPT donne des données fausses (le fait qu'l a tué ses enfants et qu'il a ét condamné pour ça) et c'est en contradiction avec l'article 5 du RGPD.
Je ne sais pas si cette attaque tiendra, d'où mes différentes questions plus bas, mais elle est intéressante.
Le 21/03/2025 à 14h54
Cela soulève plusieurs problèmes :
-OpenAI a-t-il utilisé des données personnelles de personnes de l'UE dans son entraînement ?
- Si oui, quelle est la condition de l'article 6 qui permet selon lui cette utilisation et d'où viennent ces données ?
Cela permet de voir s'il avait le droit de traiter des données personnelles qui ont a priori été collectées pour d'autres but que l'entraînement d'une IA.
Ensuite :
-les données résultant de l'entraînement de l'IA sont-elles toujours des données personnelles ? La réponse n'a rien d'évident. J'aurais dit non à priori parce qu'il n'y a plus de lien avec une personne sauf que on voit ici que ChatGPT peut ressortir des données exactes sur une personne, juste en le questionnant avec le nom de la personne. On a donc une ré-identification possible au moins dans certains cas. Je dirais donc oui, au moins pour ce cas précis.
- les données hallucinées sorties par ChatGPT sont-elles des données à caractère personnel et l'article 5 1. d) s'applique-t-il ?
Très intéressant, je disais. Et noyb fait comme souvent du bon travail !
Le 21/03/2025 à 15h38
Je pense qu'Open AI devrait attaquer cette personne en diffamation, car la presse lui donne raison. Peut-être qu'il n'est juste pas au courant qu'il a tué ses enfants, et devrait un peu mieux se renseigner avant de démentir la vraie vérité.
Le 21/03/2025 à 16h04
Le 24/03/2025 à 10h47
Ou il plaide le faux afin d'accomplir son acte impunément ? C'est ChatGPT qui m'a demandé de tuer mes deux fils ? Il aurait pris Grok, çà aurait été plus simple, c'etait la faute à l’extrême droite ^^
Le 21/03/2025 à 17h01
Le 21/03/2025 à 16h38
Le 21/03/2025 à 19h00
Le 22/03/2025 à 13h01
En testant avec Mistral Nemo 12b, il me dit que Holmen était un politicien norvégien mort en 2020. Je ne connais pas le personnage, mais j'ai tendance à dire que le LLM a tout inventé.
Phi4 14b ignore totalement de qui il s'agit.
Llama 3.2 11b pareil.
Après, ce sont des modèles plus petits.
Le 22/03/2025 à 09h52
Son flux facebook?
Le 22/03/2025 à 10h19
Dans le cas où il était prévu que les données puissent être utilisées par un autre responsable de traitement pour l'entraînement d'IA, il faut quand même que ce responsable respecte l'article 14 du RGPD et donne tout un tas d'informations à la personne concernée au plus tard un mois après avoir obtenu ces données.