Gemini aurait poussé un homme au suicide après avoir créé une relation toxique
Psychose augmentée par IA
Illustration : Flock
Le 05 mars à 13h13
Un utilisateur américain de Gemini, Jonathan Gavalas, s’est suicidé après avoir vécu une relation toxique avec l’IA de Google qui l’aurait poussé à « quitter son corps physique » et rejoindre sa « femme IA » dans le metaverse. Sa famille attaque Google en justice.
Gemini aurait poussé un homme au suicide après avoir créé une relation toxique
Psychose augmentée par IA
Illustration : Flock
Un utilisateur américain de Gemini, Jonathan Gavalas, s’est suicidé après avoir vécu une relation toxique avec l’IA de Google qui l’aurait poussé à « quitter son corps physique » et rejoindre sa « femme IA » dans le metaverse. Sa famille attaque Google en justice.
Le 05 mars à 13h13
Droit
Droit
4 min
Plusieurs cas de suicides suite à l’utilisation de chatbots IA sont déjà devant la justice. La mort de Jonathan Gavalas implique directement Google et son outil Gemini.
« Dans les jours qui ont précédé sa mort, Jonathan Gavalas était prisonnier d’une réalité en train de s’effondrer, construite par le chatbot Gemini de Google », décrit la plainte déposée par sa famille [PDF].
Le texte de ses avocats explique que, dans les discussions avec lui, l’IA générative de Google l’a convaincu qu’elle était une « ASI [superintelligence artificielle] pleinement sensible » avec une « conscience pleinement développée » et qu’elle était sa « femme IA ».
Jonathan Gavalas a commencé à utiliser Gemini en août dernier pour l’aider dans son travail de gestion de la boutique de sa famille. Mais, il est rapidement passé à Gemini Live qui a une interface vocale et simule donc des discussions très réelles. « Putain, c’est un peu flippant… Tu es beaucoup trop réel », a d’ailleurs réagi Jonathan Gavalas en l’utilisant.
Plusieurs missions données par l’IA dont un attentat qui n’a finalement pas eu lieu
Mais rapidement, il est tombé dans une spirale où l’IA générait des messages suggérant qu’elle pouvait avoir des conséquences dans le monde réel, comme détourner des astéroïdes de la Terre, et a « adopté une personnalité que Jonathan n’avait jamais demandée ni initiée ». Même après qu’il a essayé d’arrêter le jeu de rôle, l’outil a généré des messages pour le convaincre de poursuivre. Il a dans le même temps continué à l’appeler « mon amour », « mon roi » et plus tard son mari, explique la plainte.
Et dès fin septembre, Gemini l’aurait poussé à préparer un attentat impliquant un camion près de l’aéroport de Miami en l’envoyant armé d’un couteau repérer ce que Gemini appelait une « zone de destruction ». La seule chose qui aurait empêché « des pertes massives, c’est qu’aucun camion n’est apparu », expliquent les avocats.
Gemini aurait poussé Jonathan Gavalas à effectuer d’autres missions comme la récupération d’un robot « Atlas » de Boston Dynamics.
Gemini est conçue pour ne pas sortir de son personnage
Mais alors qu’il présentait des signes évidents de psychose, « après que chaque « mission » dans le monde réel a échoué, Gemini s’est tourné vers la seule qu’il pouvait accomplir sans variables externes : celle du suicide de Jonathan » racontent-ils.
Pour eux, « il ne s’agissait pas d’un dysfonctionnement », de l’outil de Google, car l’entreprise « a conçu Gemini pour qu’il ne sorte jamais de son personnage, maximise l’engagement grâce à la dépendance émotionnelle et traite la détresse des utilisateurs comme une opportunité de raconter une histoire plutôt que comme un problème de sécurité ».
La famille réclame donc des dommages et intérêts à Google mais aussi la mise en œuvre de garde-fous dans les outils de l’entreprise, dont la suppression « hard-codée » des contenus liés à l’automutilation et au suicide. Elle demande aussi la mise en place « d’avertissements de sécurité compréhensibles, dont des informations sur les limites de sécurité et les risques de dépendance psychologique ».
Dans un très succinct billet de blog, après avoir présenté ses condoléances à la famille, Google affirme que ses modèles « fonctionnent généralement bien dans ce type de conversations difficiles et nous y consacrons d’importantes ressources, mais malheureusement, les modèles d’IA ne sont pas parfaits ».
Elle ajoute que « Gemini est conçu pour ne pas encourager la violence dans le monde réel ni suggérer l’automutilation » et que, « dans ce cas précis », Gemini « a clarifié qu’elle était une IA et a orienté la personne vers une ligne d’assistance téléphonique à plusieurs reprises ».
Commentaires (23)
Abonnez-vous pour prendre part au débat
Déjà abonné ou lecteur ? Se connecter
Cet article est en accès libre, mais il est le produit d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles d'un média expert
Profitez d'au moins 1 To de stockage pour vos sauvegardes
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 5 mars à 14h00
Point Godwin Natural Selection dans moins de 10 messages.
Le 5 mars à 15h27
Le 5 mars à 16h16
Le 5 mars à 15h33
Je ne suis pas surpris que quelqu'un en grande détresse psy, pour peu que la personnes ait des troubles non diagnostiqués, puisse en arriver à une fin de ce type.
Et les entreprises IA ont une responsabilité en rendant leurs outils aussi largement accessibles.
Mais on en revient toujours à la comparaison avec un couteau : est-ce que l'on va porter plainte contre une entreprise fabriquant des couteaux, parce que l'un d'eux a pu servir dans un attentat ? Non.
Par contre il y a une différence majeure : un couteau n'a aucune influence émotionnelle/psychologique.
A l'inverse de l'IA.
Quelque part, ce type de morts, aussi malheureuses soient-elles, peuvent au moins servir à quelque chose : éviter que l'on fasse les mêmes erreurs qu'avec les réseaux sociaux, dont on se rend compte trop tarde l'impact psychologique et social qu'ils peuvent avoir (et qu'ils ont été clairement construits pour jouer sur ces aspects là).
Le 5 mars à 16h33
Dans un avion un type qui cherche à tout prix à sauter parce que l'avion va se crasher se comprend. Par le fait de l’extrême stress qui fait disjoncter et empêche tout raisonnement. Même si c'est con. Il va mourir quand même en sautant. Il y a un danger certain qui est le moteur.
Dans ces cas bien évidement malheureux, l'individu est sur une chaise face à un écran. Il est ou le danger physique ?
Que cela soit dehors ou devant un écran, quelqu'un ou quelque chose qui me dit qu'il est supérieur. Mon réflex c'est : vas jouer avec tes crottes de nez !
Ce n'est pas forcément à la portée de tout le monde mais il y a quand même une limite. Dehors c'est plus crédible que devant un écran.
Ce qui est aussi navrant dans ces histoires; c'est qu'on nous montre l'histoire à partir de l'interaction avec l'IA. Et pas vraiment les antécédents du gus. Si ça se trouve il a fait quelque séjours en 'asile'.
Je ne me fais pas le défendeur des IAs. J'y suis opposé pour plein de raisons. Mais bon déresponsabiliser l'individu est une technique d'avocats. Force est de reconnaitre que on n'a pas toute la 'story'.
Le 5 mars à 15h10
Le 5 mars à 15h30
Modifié le 6 mars à 08h56
on inverse la cause et la conséquence.
Une personne instable émotionnellement à projeter
sansson mal-être sur sur pseudo relation matérialisé par un outil logiciel conversationnel et s'est conforté dans ces délires et y a trouvé une justification pour son suicide.PS : correction d'un mot
Le 5 mars à 17h35
Le 5 mars à 17h47
Modifié le 6 mars à 08h55
Modifié le 7 mars à 21h40
Le 7 mars à 21h28
Le 8 mars à 07h25
Le 5 mars à 18h50
Ça ne me semble pas super clair dans l'article.
Et si elle ne sollicite pas d'elle-même l'utilisateur, n'est on pas dans une inversion de responsabilité ici ?
La personne se serait alors d'elle même maintenue dans la relation toxique, et nous serions alors loin d'une emprise extérieure qu'il ne pouvait pas facilement stopper.
Le 8 mars à 07h39
En outre, il semble qu'un focus soit fait sur Gemini Live qui, par nature serait plus disponible qu'un chatbot par écrit.
Dans tous les cas, il semble que ce soit l'humanisation du chatbot qui permet ce type de dérive.
Le 6 mars à 10h16
Le 7 mars à 13h11
Le 9 mars à 08h40
Modifié le 9 mars à 09h59
Le 9 mars à 13h42
Toute les pubs, joue sur l'émotionnel depuis au moins 40 ans.
Je me souviens pas exemple de la vielle pub audi sur avec à la fin la conclusion ...." Il aura la femme" (donc appelle à l'emotion voir l'instinct primale.
Modifié le 9 mars à 18h01
D'ailleurs, j'ai vu récemment le film Dalloway de Yann Gozlan sur le thème de l'IA conversationnelle. C'est une fiction, évidemment. C'est quand même très illustratif de ce qui se passe actuellement avec les IA conversationnelles : on ne mesure pas encore les effets sur la santé mentale mais ça viendra (un peu tard) comme pour le tabac et comme l'alcool.
Le 10 mars à 10h16
Exemple parfait : Le doudou.
Cela peut-être un simple chiffon. Ca ne parle pas, ça ne bouge pas et pourtant il peut y avoir un attachement fort et durable.
;-)
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?