Connexion Premium

Gemini aurait poussé un homme au suicide après avoir créé une relation toxique

Psychose augmentée par IA

Gemini aurait poussé un homme au suicide après avoir créé une relation toxique

Illustration : Flock

Un utilisateur américain de Gemini, Jonathan Gavalas, s’est suicidé après avoir vécu une relation toxique avec l’IA de Google qui l’aurait poussé à « quitter son corps physique » et rejoindre sa « femme IA » dans le metaverse. Sa famille attaque Google en justice.

Le 05 mars à 13h13

Plusieurs cas de suicides suite à l’utilisation de chatbots IA sont déjà devant la justice. La mort de Jonathan Gavalas implique directement Google et son outil Gemini.

« Dans les jours qui ont précédé sa mort, Jonathan Gavalas était prisonnier d’une réalité en train de s’effondrer, construite par le chatbot Gemini de Google », décrit la plainte déposée par sa famille [PDF].

Le texte de ses avocats explique que, dans les discussions avec lui, l’IA générative de Google l’a convaincu qu’elle était une « ASI [superintelligence artificielle] pleinement sensible » avec une « conscience pleinement développée » et qu’elle était sa « femme IA ».

Jonathan Gavalas a commencé à utiliser Gemini en août dernier pour l’aider dans son travail de gestion de la boutique de sa famille. Mais, il est rapidement passé à Gemini Live qui a une interface vocale et simule donc des discussions très réelles. « Putain, c’est un peu flippant… Tu es beaucoup trop réel », a d’ailleurs réagi Jonathan Gavalas en l’utilisant.

Plusieurs missions données par l’IA dont un attentat qui n’a finalement pas eu lieu

Mais rapidement, il est tombé dans une spirale où l’IA générait des messages suggérant qu’elle pouvait avoir des conséquences dans le monde réel, comme détourner des astéroïdes de la Terre, et a « adopté une personnalité que Jonathan n’avait jamais demandée ni initiée ». Même après qu’il a essayé d’arrêter le jeu de rôle, l’outil a généré des messages pour le convaincre de poursuivre. Il a dans le même temps continué à l’appeler « mon amour », « mon roi » et plus tard son mari, explique la plainte.

Et dès fin septembre, Gemini l’aurait poussé à préparer un attentat impliquant un camion près de l’aéroport de Miami en l’envoyant armé d’un couteau repérer ce que Gemini appelait une « zone de destruction ». La seule chose qui aurait empêché « des pertes massives, c’est qu’aucun camion n’est apparu », expliquent les avocats.

Gemini aurait poussé Jonathan Gavalas à effectuer d’autres missions comme la récupération d’un robot « Atlas » de Boston Dynamics.

Gemini est conçue pour ne pas sortir de son personnage

Mais alors qu’il présentait des signes évidents de psychose, « après que chaque « mission » dans le monde réel a échoué, Gemini s’est tourné vers la seule qu’il pouvait accomplir sans variables externes : celle du suicide de Jonathan » racontent-ils.

Pour eux, « il ne s’agissait pas d’un dysfonctionnement », de l’outil de Google, car l’entreprise « a conçu Gemini pour qu’il ne sorte jamais de son personnage, maximise l’engagement grâce à la dépendance émotionnelle et traite la détresse des utilisateurs comme une opportunité de raconter une histoire plutôt que comme un problème de sécurité ».

La famille réclame donc des dommages et intérêts à Google mais aussi la mise en œuvre de garde-fous dans les outils de l’entreprise, dont la suppression « hard-codée » des contenus liés à l’automutilation et au suicide. Elle demande aussi la mise en place « d’avertissements de sécurité compréhensibles, dont des informations sur les limites de sécurité et les risques de dépendance psychologique ».

Dans un très succinct billet de blog, après avoir présenté ses condoléances à la famille, Google affirme que ses modèles « fonctionnent généralement bien dans ce type de conversations difficiles et nous y consacrons d’importantes ressources, mais malheureusement, les modèles d’IA ne sont pas parfaits ».

Elle ajoute que « Gemini est conçu pour ne pas encourager la violence dans le monde réel ni suggérer l’automutilation » et que, « dans ce cas précis », Gemini « a clarifié qu’elle était une IA et a orienté la personne vers une ligne d’assistance téléphonique à plusieurs reprises ».

Commentaires (23)

votre avatar
Je ne sais pas ce qui est le plus dangereux. Un IA qui déconne ou une personne visiblement déficiente.

Point Godwin Natural Selection dans moins de 10 messages.
votre avatar
Ce n'est vraiment pas un problème d'intelligence cognitive mais plutôt de mal être émotionnel. Cela peut arriver à n'importe qui de ne plus percevoir la machine comme tel. Pas jusqu'au suicide mais on peut facilement en cas de déséquilibre émotionnel de percevoir la relation différemment, plus réelle.
votre avatar
Je n'ai pas parlé d'intelligence.
votre avatar
Il n'y a pas de déficience (en tout cas tel que présenté), mais une détresse psychologique. Ce n'est pas la même chose.

Je ne suis pas surpris que quelqu'un en grande détresse psy, pour peu que la personnes ait des troubles non diagnostiqués, puisse en arriver à une fin de ce type.
Et les entreprises IA ont une responsabilité en rendant leurs outils aussi largement accessibles.

Mais on en revient toujours à la comparaison avec un couteau : est-ce que l'on va porter plainte contre une entreprise fabriquant des couteaux, parce que l'un d'eux a pu servir dans un attentat ? Non.

Par contre il y a une différence majeure : un couteau n'a aucune influence émotionnelle/psychologique.
A l'inverse de l'IA.

Quelque part, ce type de morts, aussi malheureuses soient-elles, peuvent au moins servir à quelque chose : éviter que l'on fasse les mêmes erreurs qu'avec les réseaux sociaux, dont on se rend compte trop tarde l'impact psychologique et social qu'ils peuvent avoir (et qu'ils ont été clairement construits pour jouer sur ces aspects là).
votre avatar
Je pense que lorsqu'une personne n'arrive plus à faire la part des choses alors qu'elle n'a pas de danger imminent; il y a déficience.

Dans un avion un type qui cherche à tout prix à sauter parce que l'avion va se crasher se comprend. Par le fait de l’extrême stress qui fait disjoncter et empêche tout raisonnement. Même si c'est con. Il va mourir quand même en sautant. Il y a un danger certain qui est le moteur.

Dans ces cas bien évidement malheureux, l'individu est sur une chaise face à un écran. Il est ou le danger physique ?

Que cela soit dehors ou devant un écran, quelqu'un ou quelque chose qui me dit qu'il est supérieur. Mon réflex c'est : vas jouer avec tes crottes de nez !

Ce n'est pas forcément à la portée de tout le monde mais il y a quand même une limite. Dehors c'est plus crédible que devant un écran.

Ce qui est aussi navrant dans ces histoires; c'est qu'on nous montre l'histoire à partir de l'interaction avec l'IA. Et pas vraiment les antécédents du gus. Si ça se trouve il a fait quelque séjours en 'asile'.

Je ne me fais pas le défendeur des IAs. J'y suis opposé pour plein de raisons. Mais bon déresponsabiliser l'individu est une technique d'avocats. Force est de reconnaitre que on n'a pas toute la 'story'.
votre avatar
"Move fast and break things" apparemment c'est une philosophie dont ils sont fiers.
votre avatar
On dirait un scénario SF des années 80...
votre avatar
Avis perso qui vaut zéro.
on inverse la cause et la conséquence.

Une personne instable émotionnellement à projeter sans son mal-être sur sur pseudo relation matérialisé par un outil logiciel conversationnel et s'est conforté dans ces délires et y a trouvé une justification pour son suicide.


PS : correction d'un mot
votre avatar
J’ai l’impression que t’as pas lu les détails hallucinants (sic) de cette histoire. C’est l’ia qui a inventée une histoire où l’utilisateur était le personnage principal. L’IA qui donne l’impression d'exploiter la vulnérabilité d’un utilisateur, c’est un peu flippant.
votre avatar
Ce que tu rapportes n'est que la version des avocats de la famille. Dans ce genre d'affaire, n'écouter qu'une partie ne rapproche pas de la vérité.
votre avatar
(aucun rapport. J'ai trouvez le jeu de mot très drôle ("hallucinants":mdr:) ; Cependant je suis aller vérifier mais je crois que vous avez mal employé le "sic". Car si j'ai bien compris, sa définition et son usage. celà voudrait dire que c'était écrit tel que et que vous en emmettiez un doute. Ce qui inverserait ce que vous voudriez dire. )
votre avatar
L'IA conversationnelle consultera uniquement ce qu'elle connaît déjà, ce qui n'aide pas l'humain en quête de solutions nouvelles et adaptées. Je suis d'accord sur le fait que l'IA générative telle qu'elle est conçue actuellement, est un produit façonné pour donner l'illusion d'apporter des solutions. L'IA actuelle ne converse pas, elle calcule un résultat probable dans l'objectif de donner l'illusion d'une conversation qui semble plus ou moins cohérente sans plus.
votre avatar
La démarche heuristique d'un humain a rencontré la démarche probabiliste d'une machine. Autrement-dit, les probabilités n'évoluent pas, elles calculent ce qui est déjà connu. Au contraire de l'heuristique qui permet l'évolution et l'apprentissage et la résolution de problèmes.
votre avatar
Exactement.
votre avatar
À ma connaissance, une IA comme Gemini ne répond jamais d'elle-même mais uniquement sur sollicitation de l'utilisateur non ?
Ça ne me semble pas super clair dans l'article.

Et si elle ne sollicite pas d'elle-même l'utilisateur, n'est on pas dans une inversion de responsabilité ici ?
La personne se serait alors d'elle même maintenue dans la relation toxique, et nous serions alors loin d'une emprise extérieure qu'il ne pouvait pas facilement stopper.
votre avatar
C'est écrit sur c'est la version produite par les avocats de la famille.
En outre, il semble qu'un focus soit fait sur Gemini Live qui, par nature serait plus disponible qu'un chatbot par écrit.
Dans tous les cas, il semble que ce soit l'humanisation du chatbot qui permet ce type de dérive.
votre avatar
j'ai cru à un poisson d'avril en avance ^^ mais même pas...
votre avatar
l'anthropomorphisme à propos de l'IA générative voulue par les concepteurs eux-mêmes de ces robots conversationnels, est vraiment une calamité capitaliste : on vend de l'émotion, du sensationel alors que c'est un outil prosaïque.
votre avatar
Sans ataque, mais c'est l'outil principal de n'importe quelle publicité de ces 40 derrieres années.
votre avatar
Les produits sont encadrés : les alcools, les sucres dans les aliments transformés, etc. L'IA ne l'ai certainement pas.
votre avatar
J'aurai peut-être dû plus précis, je régissais à [...] on vend de l'émotion, du sensationel alors que c'est un outil prosaïque.[...]

Toute les pubs, joue sur l'émotionnel depuis au moins 40 ans.
Je me souviens pas exemple de la vielle pub audi sur avec à la fin la conclusion ...." Il aura la femme" (donc appelle à l'emotion voir l'instinct primale.
youtube.com YouTube
votre avatar
Bien sûr, j'ai bien compris, la publicité et la propagande sont des sujets en eux-mêmes. Le tabac et l'alcool faisaient également l'objet de publicités commerciales. L'IA en est encore au stade de l'expérimentation en vente libre et de l'euphorie moderne.

D'ailleurs, j'ai vu récemment le film Dalloway de Yann Gozlan sur le thème de l'IA conversationnelle. C'est une fiction, évidemment. C'est quand même très illustratif de ce qui se passe actuellement avec les IA conversationnelles : on ne mesure pas encore les effets sur la santé mentale mais ça viendra (un peu tard) comme pour le tabac et comme l'alcool.
votre avatar
Je pense qu'il n'y a pas besoin d'aller si loin pour comprendre l'attachement à des choses.

Exemple parfait : Le doudou.
Cela peut-être un simple chiffon. Ca ne parle pas, ça ne bouge pas et pourtant il peut y avoir un attachement fort et durable.
;-)