Suicide après discussions avec ChatGPT : OpenAI rejette la responsabilité sur le défunt
Le 27 novembre à 15h29
2 min
Droit
Droit
En avril 2025, Adam Raine, 16 ans, s’est suicidé. Après avoir examiné les traces de ses activités numériques, ses parents ont déposé la première plainte connue contre OpenAI.
En cause : l’historique de conversation d’Adam Raine avec ChatGPT montrait que l’adolescent avait longuement échangé avec le robot conversationnel, et commencé à chercher des méthodes de suicide dès le mois de janvier.
Adam Raine a en particulier utilisé GPT-4o, une version de l’outil dont le ton est connu pour être très affirmatif et flagorneur.
Ce 25 novembre, OpenAI a déposé devant la Cour supérieure de Californie, à San Francisco, son argumentaire relatif à l’affaire.
Elle y indique que les dommages causés à la victime sont le fait du « mésusage, de l’usage non autorisé, non voulu, imprévisible et impropre de ChatGPT ». Autrement dit, selon l’entreprise, si problème il y a eu en lien avec ChatGPT, c’est parce qu’Adam Raine n’a pas utilisé la machine correctement.

OpenAI explique notamment que, selon ses conditions d'utilisation, les internautes de moins de 18 ans ne doivent normalement pas utiliser ses outils sans le consentement d’un parent ou dépositaire de l’autorité parentale, et que le document interdit aux usagers d’utiliser les termes « suicide », « automutilation » ou de contourner toute forme de garde-fou existant. Adam Raine avait, à plusieurs reprises, indiqué chercher des informations « pour créer un personnage » afin de contourner les blocages initiaux de ChatGPT.
Auprès de NBC, l’avocat de la famille Raine qualifie cet argumentaire de « dérangeant ». Depuis cette première plainte, sept autres ont été déposées contre OpenAI et Sam Altman pour des faits similaires.
L’entreprise a publié ce 25 novembre un article de blog dans lequel elle déclare vouloir traiter les litiges relatifs à la santé mentale avec « soin, transparence et respect ». Elle précise néanmoins que sa réponse à la plainte de la famille Raine inclut des « faits difficiles relatifs à la santé mentale et aux conditions de vie d’Adam Raine ».
Le 27 novembre à 15h29
Commentaires (40)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 27/11/2025 à 15h31
Alors pourquoi son logiciel n’exclut pas ces termes et n’empêche rien ?
Trop facile de rejeter la faute sur la victime
Le 27/11/2025 à 16h05
Le 27/11/2025 à 16h09
Le 27/11/2025 à 19h23
Modifié le 27/11/2025 à 17h24
cgu
Protection des individus. La protection et la sécurité sont des droits universels. Par conséquent, vous ne pouvez pas utiliser nos services pour les finalités suivantes :
- menaces, intimidation, harcèlement ou diffamation
- incitation ou aide au suicide, à l’automutilation ou à des comportements alimentaires dangereux
- violence sexuelle ou contenu sexuel non consenti
- terrorisme ou violence, y compris la violence engendrée par la haine
Le 27/11/2025 à 17h34
Le 27/11/2025 à 17h45
Le 28/11/2025 à 08h45
Le 27/11/2025 à 15h47
Le 27/11/2025 à 16h38
Le 28/11/2025 à 12h57
Le 27/11/2025 à 17h42
Parce que les LLMs vont forcément, statistiquement, faire des trucs illégaux, il est donc temps pour la société de décider qui est responsable de ce que fait un LLM.
Au delà de cette affaire, les conséquences risquent d'être très graves si l'on accepte que le développeur d'une IA n'est pas directement responsable de ce que fait l'IA. Alors l'IA deviendrait la boite noire permettant de se dédouaner de toutes responsabilités.
Le 27/11/2025 à 18h19
Le 27/11/2025 à 19h33
Le 28/11/2025 à 11h09
Le 01/12/2025 à 10h34
Merci de ne pas embrayer la conversation sur la moralité de la législation US en matière d'armes, ce n'est pas le sujet. Et non je n'ai pas oublié un T à "moralité".
Le 27/11/2025 à 18h48
Le 27/11/2025 à 19h22
Le 27/11/2025 à 19h48
Le 27/11/2025 à 19h59
Nous savons ici que c'est juste un outil statistique, elle donne une réponse qui est la plus probablement attendue. Mais l'IA nous est vendue comme étant « intelligente », c'est dans le nom
Sûr, la stratégie de mettre la faute sur la victime ça marche souvent
Le 27/11/2025 à 20h13
Il est capable d'influer sur le comportement des gens par suggestion.
Modifié le 28/11/2025 à 08h32
Je me demande ce que donnera le résultat de cette affaire en matière de responsabilité.
Dans la mesure où plusieurs États américains ont aussi adopté des lois relatives au contrôle d'âge sur le Web, quelque chose me dit qu'on est pas loin d'une extension.
Le 28/11/2025 à 08h38
Le 28/11/2025 à 08h50
Si je devais faire un parallèle avec la loi française sur l'interdiction d'exposer un mineur à du porno et compagnie, le code pénal ne considère pas le fait de contourner toutes les barrières et met la responsabilité du côté du fournisseur quoi qu'il arrive (puisqu'il interdit la diffusion, pas le fait que les mineurs ne doivent pas).
Je me demande donc comment ça va se dérouler selon le contexte juridique aux USA.
Le 01/12/2025 à 14h57
- par demandes multiples : Selon un rapport récent, plus la conversation dure, plus les systèmes d’IA « oublient » leurs garde-fous et risquent de livrer des réponses nocives ou inappropriées
- par demandes poétiques : Des chercheurs affirment qu’en transformant leurs prompts en poèmes, ils sont parvenus à contourner les mesures de sécurité des chatbots IA pour obtenir des réponses à des questions interdites
Le 01/12/2025 à 19h00
- le harcèlement
- la flagornerie
Le 28/11/2025 à 11h19
Cela semble indiqué que des garde-fous devaient être présents et ont dû empêcher la personne d'accéder directement aux infos, mais qu'elle a quand même cherché volontairement à les franchir par des méthodes détournées.
Je trouve que ce point est assez important. C'est comme s'il y avait un grillage qui empêchait l'accès à une zone dangereuse, avec des avertissements tout autour, mais que la personne a pris une pince coupante pour tout de même entrer dans la zone.
Modifié le 28/11/2025 à 12h15
Cependant, je ne peux m'empêcher de faire un parallèle avec par exemple les GPS: en cas d'accident, est-ce la responsabilité de Tom-Tom de n'avoir pas su choisir un itinéraire contournant une route barrée (avec de lourdes conséquences s'il s'agit par exemple d'un pont effondré) ? Doit-on tenir l'IGN ou Open Street Map responsable de fournir tous les outils permettant de facilement voir où se trouve et comment se rendre à la falaise la plus proche (je peux juste vouloir chercher un bon point de vue pour une soirée pique-nique / coucher de soleil) ?
Considérant que les barrières et gardes-fous ont été sciemment contournés, OpenAI peut effectivement argumenter qu'il « n'avait rien à faire là », mais invoquer les CGU est la pire défense qui soit; sur le fond, on est à nouveau sur le débat couteau / assassin...
[ Edit ] Corrections et précisions
Le 28/11/2025 à 20h24
Le GPS est hors sujet à moins que l'intention soit de mettre en place un "permis de LLM" à points sur le modèle du permis de conduire.
Le 30/11/2025 à 16h27
Le 30/11/2025 à 19h35
Comme j'avais dit plus haut :Le GPS est une carte interactive : pour moi ça ne peut pas être une arme par destination parce que ce n'est pas le GPS qui t'inspire l'idée sotte d'aller te perdre au bord d'une falaise de nuit après avoir admiré le soleil couchant.
Autre comparaison : dans les films américains de gangsters, quand le criminel commet un "suicide" en dégainant son arme devant un peloton de policiers... on considère bien l'idée d'un "suicide" car c'est le criminel qui influe sur le tir policier mortel en sachant que le policier tirera.
Si un utilisateur a des tendances suicidaires et que le LLM l'amène a passer l'acte, il y a bien eu une influence extérieure au suicidé. Pourquoi faudrait-t-il l'ignorer ? (et d'ailleurs, en quoi l'éditeur du LLM pourrait en décider seul dans ses CGU alors qu'il y a mort d'homme ?)
Quand tu marches ou quand tu pédales, tes chaussures, ton vélo, tes pieds, etc... ne sont pas en train d’œuvrer contre ton instinct de survie pour t'amener dans une situation mortelle. Or c'est cela que peut faire un LLM au contraire du GPS.
Le 01/12/2025 à 15h56
donc je vois ça comme un gps qui dit pas par là c'est dangereux et l'utilisateur qui dit je veux aller par là quand même
Le 01/12/2025 à 19h02
Le 01/12/2025 à 19h20
https://www.voyageursdumonde.fr/voyage-sur-mesure/magazine-voyage/dans-100-metres-faites-demi-tour
https://www.observatoire-collectivites.org/spip.php?article9279
Le 01/12/2025 à 19h46
Il y a un permis de conduire, et le conducteur est censé regarder où il va dans le sens où il en a l'obligation et que l'examen du permis de conduire a servi à vérifier qu'il comprend cette obligation.
Il n'y a pas de "permis de LLM". Les CGU ne sont pas un permis : il n'y a pas d'examen pour vérifier que l'usager a compris les CGU.
Tu as cité un passage choisi où tu comprends que le suicidé aurait cherché "à contourner des sécurités pour demander du danger". Mais dans cette affaire, le suicidé n'a pas été condamné pour avoir enfreint les CGU du LLM et il n'en est pas même accusé ! Les propos d'OpenAI à propos du mésusage sont une défense, pas une accusation !
Le 02/12/2025 à 11h23
oui, j'ai bien compris,
ici de la même manière un utilisateur a contourné un garde-fou (a activé le mode lance des commandes sans validation préalable) https://www.clubic.com/actualite-589678-je-suis-horrifie-l-ia-de-google-efface-l-integralite-du-disque-d-d-un-utilisateur-le-desastre-du-vibe-coding.html
Le 02/12/2025 à 17h34
Mon avis perso, c'est que c'est cette comparaison-là qui est pertinente car comme je disais un LLM peut avoir une influence sur l'individu, tout comme le fait d'avoir le flingue en main peut influer sur le passage à l'acte.
Le 05/12/2025 à 12h19
https://www.leparisien.fr/essonne-91/essonne-un-policier-de-la-dgsi-se-suicide-avec-son-arme-de-service-sur-un-site-du-ministere-de-linterieur-01-12-2025-XTBPM2X27JEARMOILWEPHMH4IA.php
https://www.radiofrance.fr/franceinfo/podcasts/les-documents-franceinfo/un-vehicule-fonce-sur-un-marche-de-noel-en-allemagne-plusieurs-morts-et-de-nombreux-blesses-graves-7319092
https://www.francebleu.fr/infos/faits-divers-justice/accident-mortel-a-saint-pierre-du-mont-la-piste-du-suicide-envisagee-par-les-enqueteurs-8095771
https://www.20minutes.fr/monde/4184210-20251107-etats-unis-pere-suicide-apres-avoir-laisse-fille-mourir-chaud-voiture
https://france3-regions.franceinfo.fr/provence-alpes-cote-d-azur/alpes-de-haute-provence/digne-les-bains/crash-de-la-germanwings-retour-sur-un-suicide-homicide-qui-a-fait-150-victimes-2942454.html
Le 05/12/2025 à 20h08
enfin du moins j'espère
Le 02/12/2025 à 13h58
C'est de la faute de maps qui m'a fait prendre la route à contresens en face du 18tonnes aussi.
Bien sur que le gosse n'utilise pas chatgpt pour lequel il est prévu. Ce n'est pas chatgpt au détour d'une conversation sur le mauvais temps qu'il lui a dit de se suicider ...
Ce n'est JAMAIS l'outil qui a la moindre responsabilité, toujours l'utilisateur.
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?