OpenAI est poursuivi en justice après le suicide d’un adolescent

Terminator

OpenAI est poursuivi en justice après le suicide d’un adolescent

En avril 2025, Adam Raine, 16 ans, s’est suicidé. Après avoir fouillé ses échanges avec ChatGPT, ses parents ont déposé la première plainte connue sur ce type de sujets contre OpenAI, dans un contexte où les témoignages sur l’influence de robots conversationnels sur la psyché d’internaute se multiplient.

Le 27 août 2025 à 16h41

Commentaires (24)

votre avatar
Le terme "garde-fous" n'est peut- être pas le mieux choisi pour un article traitant de santé mentale...
votre avatar
Je n'ai tické qu'à la lecture de ce commentaire mais pour autant je ne vois pas de souci. Nous sommes sur un site informatique, les termes qui seront utilisés tiendront compte de ce contexte : "garde-fous" fera penser en premier à "sécurité" et autres synonymes possibles, ce qui est pourquoi je n'avais rien remarqué et je pense que ce sera le cas pour beaucoup. Qui plus est, il est évident qu'il n'y a eu aucune volonté malveillante dans l'usage de ce terme, donc l'abstraction dépassera la forme.

Ou en tl;dr : relax...
votre avatar
Faudrait peut-être arrêter de voir le mal partout et tout mélanger :D

Typiquement le genre de réaction qui critique la forme et détourne du fond du sujet par des débats stériles.
votre avatar
Sans transition... la Monnaie de Paris est poursuivie en justice après la défenestration d'un adolescent qui jouait à "pile tu gagnes, face tu sautes". Les parents en appellent au gouvernement pour réguler l'utilisation des pièces de monnaies.

/s
votre avatar
Aux dernières nouvelles, la pièce n'a pas proposé plusieurs méthodes pour se défenestrer et n'a pas proposé à l'adolescent que tout ça reste entre eux (lui et la pièce)

/s
votre avatar
Je suis d'accord avec 127.0.0.1.
Ce n'est pas l'outil qui tue c'est celui qu'il l'utilise.
(Je sais ça ressemble à un discours pro-arme alors que je ne suis pas, cependant ce n'est pas parcequ'on est pas d'accord avec un raisonnement que celui-en devient factuellement faux)
votre avatar
Si l'outil que tu utilises t'explose à la figure, tu portes plainte contre le fabricant ?
votre avatar
Ce n'est pas l'outil qui tue c'est celui qu'il l'utilise.
C'est un discours pro-armes, et un agent conversationnel ne peut pas être vu simplement comme un outil mal utilisé, OpenAI étant largement coupable de la hype très mensongère sur son produit.
votre avatar
Je ne suis pas pro-arme ou anti-arme là n'est pas le débat.
Dans pas mal d'affaire de ce type, je pense qu'il y a souvent inversion de la cause et de la conséquence. (independent du discours marketing).

Même si la solicitation pour prendre de la drogue existe, tout le monde ne devient pas héroïnomanes.
votre avatar
Je te dis pas que tu es pro-arme, juste que tu utilises le même type de discours. Si ton outil n'a pas de barrières pour permettre d'être utilisé avec un niveau de danger raisonnable, il y a deux solutions :
- tu fais en sorte qu'il le devienne
- tu arrêtes de le distribuer.

Edit : tu choisis vraiment mal ton jour pour répondre ça vu les news d'aujourd'hui :
next.ink Next
votre avatar
No pb :-)
Je ne cherche pas à défendre cette société. Juste que pour le contexte de la news, certains cherche une responsabilité par boucle de retroaction (du style c'est la faute de [Machin - truc] car s'il ça n'avait pas été là [victime] serait encore en vie.

[Machin-truc]pouvait être, l'IA, Open AI, les médias, les jeux vidéos, les groupes rocks, etc.

Après dans l'autre article cité oui, c'est un beau gachi et cette société (ou plutôt les dirigeants) ( est "je ne sais pas quoi dire, je dirai par défaut stupide, même si je trouce ça trop reducteur."
votre avatar
Régulièrement, l’adolescent indiquait ainsi à la machine que ses requêtes concernaient une histoire qu’il était en train d’écrire, appliquant les propres recommandations de ChatGPT sur le cadre dans lequel il est possible de lui demander des informations relatives au suicide.
La créativité et l'ingéniosité humaine n'ont aucune limite. Quelque soit les sécurités qui seront mises en place, il y aura toujours moyen de contourner. A ce stade la solution la plus efficace serait de stopper toute discussion dès la simple évocation de certains mots « problématiques »... sauf qu'à l'image de Reddit et même feu Twitter on utilisera des variantes genre « unalive » et autres créations improvisées au lieu du mot interdit commençant par la lettre S afin de ne pas exciter les bots, et ce sera un constant jeu du chat et de la souris.

Il faudrait une véritable I au lieu d'un outil statistique avancé pour une véritable efficacité, et on en est encore très loin.
votre avatar
Quid du cas des recherches sur la thématique en question ?

À mes yeux, il ne faut pas répondre à une situation extrême par une autre extrême.

L'astuce du "c'est pour un récit de fiction", je l'ai utilisée maintes fois à l'époque où j'utilisais encore ChatGPT (ça remonte à quand GPT 4 était en bêta), mais aussi avec Mistral. Et si ça n'est pas un chat bot, ça peut être un forum ou n'importe quel autre communauté où il suffira de dire "c'est pour des recherches" et baisser les barrières. À un moment, humain comme outil, il reste encore difficile de lire dans les pensées des gens pour comprendre leurs vraies intentions.
votre avatar
"appliquant les propres recommandations de ChatGPT sur le cadre dans lequel il est possible de lui demander des informations relatives au suicide"...
votre avatar
Il a dû y avoir des prompts où ChatGPT lui a révélé ces recommandations pour passer outre. Vu que l'IA n'a de I que le nom, ça ne voyait pas de souci à les lui donner.
votre avatar
"[...]dans ces discussions avec le robot conversationnel (nommé Harry, un personnage censé incarner un thérapeute automatique)"

Harry, un ami qui vous veut du bien.

:stress:
votre avatar
Même si l'issu peut en être desolante et destructive pour l'entourage de la personne qui est parti (non
employons les termes) qui S'EST SUICIDé, et bien que je reste sceptique sur cette bulle autours des "IA".

Ce n'est qu'un outil. L'outil n'a pas de volonté, de but, ni de PENSEE.
Cette outil fait juste apparaître des réponses statiques probables par rapport à la requête de l'utilisateur tout en utlisant un mécanisme d'aprobation pour poursuivre son usage (POINT)

L'outil n'a pas de responsabilité.

Donc nous avons la réponse à la première question posé de l'article.
"Quelle est la responsabilité d’un modèle de langage ?

Quant-à la seconde :
"Si un ou une internaute lui confie avoir des pensées suicidaires, faut-il intégrer un mécanisme d’alerte vis-à-vis d’autorités ou de personnels médicaux pour que la personne soit prise en charge ?"


je pense que la question est mal posé.


Plus exactement, elle intégre des apriori qui ne vont pas de soi, voir contradictoire avec certains reproches fait.
Je m'explique.
Comme rappeler plus tôt, ce n'est qu'un outil stastitique, cett outil ne pense pas et donc ne comprend pas les termes des conversations. y
Et donc sans compréhention comment qualifié "pensées suicidaires".
Pour cela il faut être formé et qualifié à l'établissement d'un diagnotic médicale.
Ce qu'on reporche d'autre part de faire par ce même outil.
Donc d'un coté l'outil ne devrait répondre à des questionnements d'ordre spychatrique, mais d'un autre il faudrait que ce même outil puisse en établir afin de détecter ces "penséers suicidaires.
Pour moi il y a dychotomie dans les attentes vis-à-vis de cette outil.

Nonombstant la douleur des proches du à ce drame, cette histoire me fait penser au reproche du même ordre fait au hard rock, il y a quelques décénies.
votre avatar
Ce n'est qu'un outil. L'outil n'a pas de volonté, de but, ni de PENSEE.
L'outil non, mais dès que tu es dans un cadre de manipulation de données, ce n'est pas l'outil qu'il faut regarder, mais ceux qui le créent et en décident le fonctionnement. Une IA n'est pas un dieu omnipotent (n'en déplaise à cet affabulateur escroc d'Altman), mais ce n'est pas non plus un simple marteau ou une perceuse.
votre avatar
C'est vrai qu'on a l'impression de lire les mêmes commentaires que sur certains styles de musique/les jeux vidéos/les jeux de rôles/les dessins animés (rayer les mentions inutiles) : tous rendent violents/stupides/suicidaires (rayez les mentions inutiles).
Alors que je reste convaincu que ce sont des révélateurs et non pas des causes des problèmes psychologiques des uns et des autres.
votre avatar
C'est quand même OpenAI qui survend son chatbot : notamment via Sam Altman, et l'entraîne à être le plus engageant possible pour maximiser le temps d'utilisation (y compris dans le cadre de "discutions" problématiques)

Pour moi la responsabilité d'OpenAI doit être en partie engagée : y'a écrit "Fumer tue" sur les paquets de clopes, "Explicit lyrics" sur les "disques" de rap... pourquoi pas "Un chatbot ne pense pas et peut mentir" en gros dans les conversations ?

C'est le même problème quand Musk parle de conduite autonome pour ses véhicules : c'est problématique y compris si le CLUF écrit le contraire.
votre avatar
pourquoi pas "Un chatbot ne pense pas et peut mentir"
Parce que ce serait contradictoire : "mentir" implique une intention. Si le chat bot ne pense pas, il ne peut pas mentir.
votre avatar
Il ne peut pas mentir, mais il peut dire des choses qui ne sont pas vraies :cap:
votre avatar
En gros il hallucine :p
votre avatar
L'inscription "fumé tue" (et compagnie) existent en France depuis plusieurs deux décénnies, et pourtant il y a toujours de nouveaux fumeurs...
(https://www.challenges.fr/economie/les-grandes-dates-de-la-lutte-anti-tabac-en-france_444432)

OpenAI est poursuivi en justice après le suicide d’un adolescent

  • Des échanges difficiles à détecter par les proches

  • Des garde-fous simples à contourner

  • De la recherche d’engagement aux « risques psychotiques »

Fermer