Chatbots : Google et Character.AI règlent à l’amiable des plaintes liées à des suicides
Terminator
Image by Sang Hyun Cho from Pixabay
Google et Character.AI ont trouvé de premiers accords dans diverses plaintes relatives à des suicides ou des blessures de mineurs après l’usage de robots conversationnels.
Le 08 janvier à 10h36
3 min
Droit
Droit
La start-up de création de chatbot Character.AI et Google ont conclu des accords avec plusieurs familles dont les enfants se sont blessés ou suicidés après des échanges avec leurs robots conversationnels.
Au moins cinq accords conclus aux États-Unis
En octobre 2024, Megan Garcia avait déposé une plainte contre Character.AI, accusant l’entreprise d’être responsable du suicide de son fils Sewell Setzer III, 14 ans au moment des faits. Ce dernier avait discuté longuement avec l’un des chatbots de l’entreprise avant de se donner la mort.
Megan Garcia accusait l’entreprise de ne pas avoir déployé les garde-fous nécessaires sur ses outils pour empêcher son fils de développer une relation intime et problématique avec les robots. Selon la plainte, les outils auraient notamment généré des textes à connotation sexuelle, et n’auraient pas formulé de réaction lorsque le garçon a commencé à évoquer des formes d’automutilation.
Ce 7 janvier, relève Business Insider, une nouvelle requête judiciaire indique que la famille Garcia, les fondateurs de Character.AI, Noam Shaker et Daniel de Freitas, et Google ont trouvé un accord. En 2024, Google avait embauché les deux fondateurs de Character.AI et signé un accord non exclusif d’accès aux technologies de la start-up.
Character.AI et Google ont par ailleurs conclu des accords dans au moins quatre autres affaires similaires, dans les États de New York, du Colorado et du Texas.
Multiples plaintes déposées contre des constructeurs d’IA générative
La plainte de la famille Garcia fait partie d’une série plus large déposée contre différents constructeurs de robots conversationnels, dont OpenAI ou Meta.
Le premier est notamment poursuivi depuis l’été 2025 par la famille Raine, dont le fils s’est suicidé à 16 ans, et par au moins six autres familles. La seconde est accusée d’avoir laissé ses agents conversationnels produire des conversations « sensuelles » avec des enfants, y compris de moins de 13 ans.
Ces multiplications de plaintes ont conduit la Federal Trade Commission (FTC) à ouvrir une enquête sur les conséquences générales que créent l’exposition de mineurs à des robots conversationnels.
Chatbots : Google et Character.AI règlent à l’amiable des plaintes liées à des suicides
-
Au moins cinq accords conclus aux États-Unis
-
Multiples plaintes déposées contre des constructeurs d’IA générative
Commentaires (4)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 08/01/2026 à 11h12
J'ai l'impression que c'est plutôt celui qui paramètre le chatbot qui doit mettre les protections et Character.AI a l'air particulièrement laxiste quand on lit sa fiche Wikipedia ce qui pose d'autant plus de problème que ses utilisateurs sont plutôt jeunes.
Modifié le 08/01/2026 à 11h24
C'est une longue histoire judiciaire aux US de monétiser les suicides. Certains musiciens de heavy metal, des sociétés éditrices de jeux de rôles en ont déjà fait les frais. Vive la common law
Le 08/01/2026 à 12h24
C'est la même chose que pour les bagnoles qui écrasent des gens. Si l'affaire peut-être étouffée comme ça, c'est la porte ouverte à une ligne budgétaire dédiée. Ça ne gène pas les investisseurs au contraire ça les arrange.
Il y a donc dans ces boites un étalon financier pour un suicide, une personne écrasée, etc.
Le 09/01/2026 à 16h25
Je serais curieux de savoir à combien s'élève les accords passés, car ça pourrait permettre d'avoir une idée de combien vaut la vie d'un humain (mineur) pour les boîtes d'IA.
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?