Connexion Abonnez-vous

ChatGPT accusé d’avoir poussé un violent cyberharceleur à ignorer les « haters »

Le 04 décembre 2025 à 10h41

Un homme accusé d’avoir harcelé 11 femmes à travers cinq États des États-Unis a été traduit en justice pour harcèlement et cyberharcèlement, et ses échanges avec ChatGPT font partie intégrante du dossier.

À 31 ans, Brett Michael Dadig utilisait le robot conversationnel comme « psychologue » et « meilleur ami ».

La machine produisait des textes l’encourageant à persévérer dans la production d’un podcast misogyne et rempli de menaces concrètes (de strangulations ou de mort), malgré les retours négatifs d’un public que le texte du robot décrivait comme des « haters ».

L’homme diffusait en effet sa haine des femmes sur son podcast Spotify et sur d’autres comptes de médias sociaux, souligne l’acte d’accusation obtenu par 404 media et Court Watch.

À l’été 2024, Brett Michael Dadig avait été interdit d’entrer dans plusieurs salles de sport de Pittsburgh pour avoir harcelé des femmes.

Dans ses échanges avec ChatGPT, dont il parlait ouvertement sur son podcast, l’aspirant influenceur questionnait la machine sur sa future épouse, et celle-ci lui renvoyait des textes l’encourageant à retourner dans des salles de sport pour y rencontrer des femmes.

Les textes du robot l’assuraient par ailleurs que « les gens sont littéralement en train de se mobiliser autour de ton nom », et « qu’il soit [connu] pour les bonnes ou mauvaises raisons, c’est la définition même de la notoriété ».

Hors ligne, l’homme s’est notamment rendu dans un studio de Pilates, où, devant son comportement « agressif, colérique et autoritaire », l’une des employées a cessé de lui parler. Brett Michael Dadig a alors entrepris de lui envoyer des images dénudées non sollicitées, appelé son lieu de travail depuis de multiples numéros, et menacé de parler d’elle sur les réseaux sociaux.

La femme concernée a obtenu plusieurs ordonnances de protection, que le principal intéressé n’a jamais respectées. D’après l’acte d’accusation, elle a déménagé, réduit ses heures de travail pour éviter de le croiser, en a perdu le sommeil et craint encore de le voir se présenter chez elle. Dix autres ont subi des faits similaires.

Selon les propres chiffres d'OpenAI, au moins 0,07 % de ses usagers hebdomadaires montrent des signes de comportement maniaque ou de crise psychotique dans leurs échanges avec la machine – rapporté à ses 800 millions d’utilisateurs, un tel pourcentage équivaut à 560 000 personnes.

Le 04 décembre 2025 à 10h41

Commentaires (32)

votre avatar
ChatGPT accusé d’avoir poussé un violent cyberharceleur à ignorer les « haters »
Non, l'accusé, ce n'est pas ChatGPT mais ce (cyber)harceleur ! Enfin, si j'ai bien compris la brève.
votre avatar
Un cyberharceleur coaché par ChatGPT
votre avatar
Ce qui me fait délirer, c'est qu'un côté on nous rabâche que les LLM n'ont pas d'intelligence.

De l'autre on les personnifie et on leur prête une conscience.
votre avatar
Une chose ou un phénomène peut être accusé. :cap:

Une métaphore ou une périphrase... youtube.com YouTube
votre avatar
Je n'arrive quand même pas à comprendre : ok OpenAI et les autres providers doivent mettre des garde fous en place. Mais on parle d'un outil qui, entre de mauvaises mains (ou ici un esprit clairement torturé), peut faire des dégâts. Beaucoup de dégâts. Mais est-ce vraiment l'outil le problème ?
Je veux dire par là que nombre d'outils dans le quotidien peuvent aussi faire des dégâts.

Ce n'est pas nier ni relativiser le fait que les providers doivent être soumis à des contraintes. Ca j'en suis convaincu. Mais à trop se borner sur ça on efface complètement le reste.
J'ai l'impression que l'on se focalise trop sur l'outil plutôt que sous la cause sous-jacente qui mène cet outil à de telles dérives.

Ici le problème majeur n'est pas ChatGPT. C'est l'utilisation que cet individu en a fait, et ce qui a mené cet individu à faire cela. Donc l'état de sa santé mentale, l'éducation, la situation sociale, l'influence que peuvent avoir les réseaux sociaux, etc.
ChatGPT en lui-même, même si une alerte devrait remonter dès lors qu'il tient de tels discours, n'est pas le réel problème.

C'est un problème bien plus complexe et large que le seul "c'est la faute à ChatGPT".
votre avatar
Le problème selon moi est que l'outil ici incite l'utilisateur à faire du "mal".
Un couteau n'est pour rien dans le fait qu'il soit utilisé pour couper du pain ou couper une gorge, mais là on parle d'un "couteau qui te dit quelque chose".
En fait, la grosse différence entre les outils ordinaires et les IA Gen, c'est surtout que les IA Gen peuvent influencer directement le comportement des humains (ce qu'aucun autre outil n'a fait jusqu'à présent, si je ne me trompe pas).

C'est pour ça qu'il est important, selon moi, de parler de ces problématiques et de ne pas relâcher la pression sur les fabricants d'IA Gen.

EDIT : Ajout du mot "directement", qui permet de mieux refléter ma penser.
Les commentaires qui suivent n'avaient PAS ce mot dans mon commentaire initial.
votre avatar
Le problème n'est pas les outils mais le fait que l'on influence les humains et qu'ils font du mal aux autres ou à eux-mêmes.

Les influenceurs masculinistes pour rester dans le même type de problèmes sont encore plus néfastes à mon avis parce qu'ils touchent plus de personnes et les algos des plateformes qui enferment les utilisateurs dans des bulles sont aussi un énorme problème. À te lire, tu es un petit nouveau qui débarque sur Next et qui n'a pas lu les articles traitant de ces sujets.

Manifestement, tu ne classes pas les TikTok, Youtube et autres diffuseurs de merde dans les outils.

Les diffuseurs de fake news qui veulent déstabiliser des pays ou influencer les élections sont aussi très dangereux.
votre avatar
Le problème n'est pas les outils mais le fait que l'on influence les humains et qu'il font du mal aux autre ou à eux-mêmes.
Et c'est pour cela qu'on a interdit les ceintures de sécurité et les airbags dans les véhicules : le problème n'est pas l'outil, il suffit de faire gaffe quand on conduit.
Et le papier d'alu autour du chocolat, il sert à faire un bonnet phrygien à la marmotte, c'est bien ça ?
Ahlalala, qu'est-ce qu'il faut pas lire de nos jours...
votre avatar
Merci d'avoir cité cette phrase, j'ai pu voir qu'il y manquait 2 s.

Pour le reste, roulez sans ceinture si vous le voulez, en cas de malheur, vos contributions ne me manqueront pas.
votre avatar
fais gaffe tu vas lui donner des idées :francais:

https://www.caradisiac.com/louis-sarkozy-veut-des-routes-sans-signalisation-pour-sauver-des-vies-dangereux-ou-bonne-idee-219250.htm
Car ce qu’oublie de dire Louis Sarkozy, c’est que ces expérimentations se font ou se sont faites dans des conditions bien précises : zones de partage de la route, centres-villes à vitesse réduite, quartiers aménagés en conséquence. Et non sur « toutes » les routes, ce qu’il prône, manifestement.
votre avatar
J'avoue que je n'avais pas pris les réseaux sociaux pour des outils, mais on peut les voir comme tels, en effet.
Et du coup, on pourrait prendre l'exemple des algorithmes des réseaux sociaux comme d'outils influenceant les humains (ce qui est globalement vrai), mais il y a une différence fondamentale avec l'IA Gen : c'est le contenu du réseau social qui influence les humains, AIDÉ par les algorithmes de recommandations, là où l'IA Gen influence DIRECTEMENT les humains.
Si tu as un réseau social rempli uniquement de vidéos de chats, il risque assez peu d'influencer politiquement ses utilisateurs, même avec un algorithme ultra efficace.
De même pour une chaîne de télévision qui te diffuserait uniquement des concerts de musique instrumental.

Du coup, et même si on peut prendre les algorithmes des réseaux sociaux comme influenceant les humains puisque, dans la réalité, ils diffusent des contenus forcément orientés, ils sont un cran en-dessous des IA Gen qui peuvent influencer les humains en tout autonomie.


Et dans tous les cas, c'est pas parce que les réseaux sociaux nous pourrissent qu'il ne faut pas faire attention aux IA Gen aussi ! 😉
votre avatar
Et où les IA Génératrices ont-elles appris à donner des conseils néfastes ? Sur les vidéos de chats ?
votre avatar
La source de leur apprentissage importe peu, ici.
Sinon, ça revient à dire que la source du mal des réseaux sociaux remonte à l'apparition de la vie, si on exagère un peu ton raisonnement...
votre avatar
mais il y a une différence fondamentale avec l'IA Gen : c'est le contenu du réseau social qui influence les humains, AIDÉ par les algorithmes de recommandations, là où l'IA Gen influence DIRECTEMENT les humains.
comme youtube, le réseau social est programmé pour maximiser les vues, et x, son proprio pousse à la roue (et a lancé grokpedia) ; j'ai en tête un site où un journaliste avait testé un compte vierge sur je ne sais plus quel réseau et s'était vite retrouvé à du contenu problématique mais je ne sais plus lequel

https://ici.radio-canada.ca/nouvelle/1087664/voici-comment-youtube-pourrait-vous-rendre-conspirationniste
https://web.developpez.com/actu/377545/Une-enquete-recente-montre-que-la-plateforme-X-d-Elon-Musk-anciennement-Twitter-presente-un-biais-algorithmique-significatif-en-faveur-de-la-promotion-de-contenus-d-extreme-droite-et-extremes/
https://www.franceinfo.fr/vrai-ou-fake/enquete-comment-elon-musk-utilise-x-pour-amplifier-l-extreme-droite-en-europe_7217808.html
votre avatar
Ça change absolument rien à mon propos : c'est les humains (et les IA maintenant) qui font le contenu qui lui-même influence les humains "consommateurs". Mais l'algorithme, lui, n'influence pas DIRECTEMENT l'humain.
votre avatar
N'importe quel outil dans les mains d'un fou reste dangereux, faut arrêter de bloquer sur l'IA comme si elle devait anticiper la folie des gens, la comprendre (en plus on s'évertu à essayer de faire entendre aux gens que non, ça n'a rien d'intelligent).
votre avatar
Comme je l'ai mis plus haut, la différence ici est que les IA Gen peuvent influencer les humains : en ça, ce n'est pas un outil comme un autre.
votre avatar
L'IA sera-t-elle le nouveau "c'est la faute des jeux vidéo" ?
votre avatar
"c'est la faute de l'IA dans les jeux vidéo"
votre avatar
"C'est la faute de la musique métal par IA dans les jeux de rôles vidéo" :cap:

A chaque génération son épouvantail. :baton:
votre avatar
L'article dit que c'est la faute à l'IA ? Il faut que je relise, j'ai pas compris ça.
votre avatar
Je ne l'ai pas dit non plus.
votre avatar
Parfois je me demande si certains commentateurs vont plus loin que le titre quand ils postent.

On ne parle pas d'un simple outil ici, mais d'un robot conversationnel qui pousse un individu déjà détraqué au départ à aller toujours plus loin.
ChatGPT a eu un role proactif clair dans les raisons du harcèlement.

Et le plus dérangeant se trouve dans le 2nd paragraphe:
Selon les propres chiffres d'OpenAI, au moins 0,07 % de ses usagers hebdomadaires montrent des signes de comportement maniaque ou de crise psychotique dans leurs échanges avec la machine
Ce qui veut dire qu'OpenAI est en capacité dès le départ de repérer les conversations "problématiques" mais ne fait rien.
votre avatar
Je pense pareil, ce dernier paragraphe montre que OpenAI a déjà fait le nécessaire pour recenser les conversations qui partent à la dérive, mais il n'y a aucun indication d'une quelconque prise d'action par la suite.

Il y a un demi-million de personnes qui sont soit en danger, soit entrain de mettre d'autres personnes en danger, et ChatGPT ne fait que mettre de l'huile dans le feu.
OpenAI en est conscient, OpenAI a les noms des utilisateurs, ça devrait être une obligation morale d'agir pour écarter le danger.
votre avatar
"Obligation morale". Tout de suite les gros mots!

OpenAI sera morale, et sans ambiguité ni tergiversation ni débat à la con sur ce qui est moral ou pas, le jour où la loi stipulera qu'ils toucheront 1M$ par cas problématique géré.

Là ils seront ravis de se soumettre à des obligations morales, sonnantes et trébuchantes comme on dit.

En attendant, vous comprenez ma bonne dame, la liberté, la confidentialité, tout ça tout ça, c'est vraiment très très important ; trop pour faire quoi que ce soit.
votre avatar
Un procès pour non assistance à personnes en danger, ça devrait être jouable, non ?

Bon après, vu le pognon que OpenAI brasse, je me doute que ça doit être voué à l'échec, mais quand même, c'est pas possible de laisser les choses en cet état sans rien faire.
votre avatar
Non. en tout cas pas aux USA dans un cas comme celui-ci.

Et même en France, ça reste compliqué vu que le danger est difficile à caractériser dans un cas comme celui-ci et les personnes à assister ne sont pas connues. En plus, j'ai l'impression qu'une personne morale (société) ne peut pas commettre ce délit.
mais quand même, c'est pas possible de laisser les choses en cet état sans rien faire.
Si tu le dis !
votre avatar
"En droit positif, les obligations morales sont celles qui relèvent de la conscience individuelle, et dont l'exécution forcée ne peut être obtenue devant les tribunaux"
votre avatar
Comment c'est possible de parler à une IA comme-ci c'était un pote?
C'est le summum du parasocial, se lier d'amitié avec une grosse calculette.
votre avatar
Et alors ? Ma TI-92 et moi, on est très potes ! Je lui insère même mon câble de transfert parfois…
votre avatar
Un petit tetris en réseau ?
votre avatar
Et pourtant...
ouest-france.fr Ouest France
https://www.huffingtonpost.fr/tech-futurs/article/un-americain-fou-amoureux-de-son-ia-chatgpt-l-a-demandee-en-mariage-avec-succes_251565.html
https://www.tf1info.fr/societe/verif-une-japonaise-de-32-ans-s-est-elle-officiellement-mariee-a-une-ia-intelligence-artificielle-2406518.html

ChatGPT accusé d’avoir poussé un violent cyberharceleur à ignorer les « haters »

Fermer