ChatGPT accusé d’avoir poussé un violent cyberharceleur à ignorer les « haters »
Le 04 décembre 2025 à 10h41
3 min
IA et algorithmes
IA
Un homme accusé d’avoir harcelé 11 femmes à travers cinq États des États-Unis a été traduit en justice pour harcèlement et cyberharcèlement, et ses échanges avec ChatGPT font partie intégrante du dossier.
À 31 ans, Brett Michael Dadig utilisait le robot conversationnel comme « psychologue » et « meilleur ami ».
La machine produisait des textes l’encourageant à persévérer dans la production d’un podcast misogyne et rempli de menaces concrètes (de strangulations ou de mort), malgré les retours négatifs d’un public que le texte du robot décrivait comme des « haters ».
L’homme diffusait en effet sa haine des femmes sur son podcast Spotify et sur d’autres comptes de médias sociaux, souligne l’acte d’accusation obtenu par 404 media et Court Watch.

À l’été 2024, Brett Michael Dadig avait été interdit d’entrer dans plusieurs salles de sport de Pittsburgh pour avoir harcelé des femmes.
Dans ses échanges avec ChatGPT, dont il parlait ouvertement sur son podcast, l’aspirant influenceur questionnait la machine sur sa future épouse, et celle-ci lui renvoyait des textes l’encourageant à retourner dans des salles de sport pour y rencontrer des femmes.
Les textes du robot l’assuraient par ailleurs que « les gens sont littéralement en train de se mobiliser autour de ton nom », et « qu’il soit [connu] pour les bonnes ou mauvaises raisons, c’est la définition même de la notoriété ».
Hors ligne, l’homme s’est notamment rendu dans un studio de Pilates, où, devant son comportement « agressif, colérique et autoritaire », l’une des employées a cessé de lui parler. Brett Michael Dadig a alors entrepris de lui envoyer des images dénudées non sollicitées, appelé son lieu de travail depuis de multiples numéros, et menacé de parler d’elle sur les réseaux sociaux.
La femme concernée a obtenu plusieurs ordonnances de protection, que le principal intéressé n’a jamais respectées. D’après l’acte d’accusation, elle a déménagé, réduit ses heures de travail pour éviter de le croiser, en a perdu le sommeil et craint encore de le voir se présenter chez elle. Dix autres ont subi des faits similaires.
Selon les propres chiffres d'OpenAI, au moins 0,07 % de ses usagers hebdomadaires montrent des signes de comportement maniaque ou de crise psychotique dans leurs échanges avec la machine – rapporté à ses 800 millions d’utilisateurs, un tel pourcentage équivaut à 560 000 personnes.
Le 04 décembre 2025 à 10h41
Commentaires (32)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 04/12/2025 à 10h51
Le 04/12/2025 à 10h58
Modifié le 04/12/2025 à 17h42
De l'autre on les personnifie et on leur prête une conscience.
Modifié le 04/12/2025 à 17h47
Une métaphore ou une périphrase...
Modifié le 04/12/2025 à 11h04
Je veux dire par là que nombre d'outils dans le quotidien peuvent aussi faire des dégâts.
Ce n'est pas nier ni relativiser le fait que les providers doivent être soumis à des contraintes. Ca j'en suis convaincu. Mais à trop se borner sur ça on efface complètement le reste.
J'ai l'impression que l'on se focalise trop sur l'outil plutôt que sous la cause sous-jacente qui mène cet outil à de telles dérives.
Ici le problème majeur n'est pas ChatGPT. C'est l'utilisation que cet individu en a fait, et ce qui a mené cet individu à faire cela. Donc l'état de sa santé mentale, l'éducation, la situation sociale, l'influence que peuvent avoir les réseaux sociaux, etc.
ChatGPT en lui-même, même si une alerte devrait remonter dès lors qu'il tient de tels discours, n'est pas le réel problème.
C'est un problème bien plus complexe et large que le seul "c'est la faute à ChatGPT".
Modifié le 05/12/2025 à 15h28
Un couteau n'est pour rien dans le fait qu'il soit utilisé pour couper du pain ou couper une gorge, mais là on parle d'un "couteau qui te dit quelque chose".
En fait, la grosse différence entre les outils ordinaires et les IA Gen, c'est surtout que les IA Gen peuvent influencer directement le comportement des humains (ce qu'aucun autre outil n'a fait jusqu'à présent, si je ne me trompe pas).
C'est pour ça qu'il est important, selon moi, de parler de ces problématiques et de ne pas relâcher la pression sur les fabricants d'IA Gen.
EDIT : Ajout du mot "directement", qui permet de mieux refléter ma penser.
Les commentaires qui suivent n'avaient PAS ce mot dans mon commentaire initial.
Modifié le 04/12/2025 à 20h29
Les influenceurs masculinistes pour rester dans le même type de problèmes sont encore plus néfastes à mon avis parce qu'ils touchent plus de personnes et les algos des plateformes qui enferment les utilisateurs dans des bulles sont aussi un énorme problème. À te lire, tu es un petit nouveau qui débarque sur Next et qui n'a pas lu les articles traitant de ces sujets.
Manifestement, tu ne classes pas les TikTok, Youtube et autres diffuseurs de merde dans les outils.
Les diffuseurs de fake news qui veulent déstabiliser des pays ou influencer les élections sont aussi très dangereux.
Le 04/12/2025 à 20h27
Et le papier d'alu autour du chocolat, il sert à faire un bonnet phrygien à la marmotte, c'est bien ça ?
Ahlalala, qu'est-ce qu'il faut pas lire de nos jours...
Le 04/12/2025 à 20h32
Pour le reste, roulez sans ceinture si vous le voulez, en cas de malheur, vos contributions ne me manqueront pas.
Le 05/12/2025 à 12h22
https://www.caradisiac.com/louis-sarkozy-veut-des-routes-sans-signalisation-pour-sauver-des-vies-dangereux-ou-bonne-idee-219250.htm
Modifié le 05/12/2025 à 10h11
Et du coup, on pourrait prendre l'exemple des algorithmes des réseaux sociaux comme d'outils influenceant les humains (ce qui est globalement vrai), mais il y a une différence fondamentale avec l'IA Gen : c'est le contenu du réseau social qui influence les humains, AIDÉ par les algorithmes de recommandations, là où l'IA Gen influence DIRECTEMENT les humains.
Si tu as un réseau social rempli uniquement de vidéos de chats, il risque assez peu d'influencer politiquement ses utilisateurs, même avec un algorithme ultra efficace.
De même pour une chaîne de télévision qui te diffuserait uniquement des concerts de musique instrumental.
Du coup, et même si on peut prendre les algorithmes des réseaux sociaux comme influenceant les humains puisque, dans la réalité, ils diffusent des contenus forcément orientés, ils sont un cran en-dessous des IA Gen qui peuvent influencer les humains en tout autonomie.
Et dans tous les cas, c'est pas parce que les réseaux sociaux nous pourrissent qu'il ne faut pas faire attention aux IA Gen aussi ! 😉
Le 05/12/2025 à 10h32
Le 05/12/2025 à 12h32
Sinon, ça revient à dire que la source du mal des réseaux sociaux remonte à l'apparition de la vie, si on exagère un peu ton raisonnement...
Modifié le 05/12/2025 à 12h08
https://ici.radio-canada.ca/nouvelle/1087664/voici-comment-youtube-pourrait-vous-rendre-conspirationniste
https://web.developpez.com/actu/377545/Une-enquete-recente-montre-que-la-plateforme-X-d-Elon-Musk-anciennement-Twitter-presente-un-biais-algorithmique-significatif-en-faveur-de-la-promotion-de-contenus-d-extreme-droite-et-extremes/
https://www.franceinfo.fr/vrai-ou-fake/enquete-comment-elon-musk-utilise-x-pour-amplifier-l-extreme-droite-en-europe_7217808.html
Le 05/12/2025 à 15h24
Modifié le 04/12/2025 à 11h08
Le 04/12/2025 à 11h36
Le 04/12/2025 à 11h33
Le 04/12/2025 à 12h23
Le 04/12/2025 à 13h54
A chaque génération son épouvantail.
Le 04/12/2025 à 17h36
Le 04/12/2025 à 17h54
Le 04/12/2025 à 14h06
On ne parle pas d'un simple outil ici, mais d'un robot conversationnel qui pousse un individu déjà détraqué au départ à aller toujours plus loin.
ChatGPT a eu un role proactif clair dans les raisons du harcèlement.
Et le plus dérangeant se trouve dans le 2nd paragraphe:Ce qui veut dire qu'OpenAI est en capacité dès le départ de repérer les conversations "problématiques" mais ne fait rien.
Modifié le 04/12/2025 à 14h27
Il y a un demi-million de personnes qui sont soit en danger, soit entrain de mettre d'autres personnes en danger, et ChatGPT ne fait que mettre de l'huile dans le feu.
OpenAI en est conscient, OpenAI a les noms des utilisateurs, ça devrait être une obligation morale d'agir pour écarter le danger.
Le 04/12/2025 à 14h51
OpenAI sera morale, et sans ambiguité ni tergiversation ni débat à la con sur ce qui est moral ou pas, le jour où la loi stipulera qu'ils toucheront 1M$ par cas problématique géré.
Là ils seront ravis de se soumettre à des obligations morales, sonnantes et trébuchantes comme on dit.
En attendant, vous comprenez ma bonne dame, la liberté, la confidentialité, tout ça tout ça, c'est vraiment très très important ; trop pour faire quoi que ce soit.
Modifié le 04/12/2025 à 18h27
Bon après, vu le pognon que OpenAI brasse, je me doute que ça doit être voué à l'échec, mais quand même, c'est pas possible de laisser les choses en cet état sans rien faire.
Le 04/12/2025 à 18h54
Et même en France, ça reste compliqué vu que le danger est difficile à caractériser dans un cas comme celui-ci et les personnes à assister ne sont pas connues. En plus, j'ai l'impression qu'une personne morale (société) ne peut pas commettre ce délit.
Si tu le dis !
Le 05/12/2025 à 09h36
Le 04/12/2025 à 14h58
C'est le summum du parasocial, se lier d'amitié avec une grosse calculette.
Le 04/12/2025 à 15h49
Le 04/12/2025 à 15h54
Le 04/12/2025 à 17h02
https://www.huffingtonpost.fr/tech-futurs/article/un-americain-fou-amoureux-de-son-ia-chatgpt-l-a-demandee-en-mariage-avec-succes_251565.html
https://www.tf1info.fr/societe/verif-une-japonaise-de-32-ans-s-est-elle-officiellement-mariee-a-une-ia-intelligence-artificielle-2406518.html
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?