Vague massive de deepfakes générés par Grok : la justice française étend son enquête
IA pas de consentement
Grok a généré des deepfakes de femmes déshabillées sans leur consentement, parfois des mineures, à la demande massive d'utilisateurs de X qui ont créé une tendance sur ce réseau. La justice française ajoute cette pièce au désormais épais dossier contre les deux entreprises d'Elon Musk.
Le 05 janvier à 15h01
5 min
Droit
Droit
La semaine dernière, avant le réveillon de la Saint-Sylvestre, nombre d'utilisateurs du réseau social X ont profité de la publication par des utilisatrices de photos d'elles-mêmes dans des tenues de fête pour les déshabiller virtuellement sans leur consentement, à l'aide de Grok. Saisi par plusieurs députés français et par des membres du gouvernement, le parquet de Paris va élargir l'enquête qu'il a déjà ouverte à propos de X et de xAI.
L'humiliation des femmes par le montage d'images à caractère sexuel n'est pas nouvelle. Mais l'IA générative permet une massification du phénomène depuis 2023 alors que des chercheuses et chercheurs avaient repéré dès 2021 que les ensembles de données utilisés pour entraîner les LLM comme LAION-400M contenaient de la misogynie, de la pornographie et des stéréotypes malveillants.
Début 2024 marquait une nouvelle étape : des utilisateurs de X partageaient massivement des deepfakes pornographiques de Taylor Swift, et quelques mois plus tard des influenceuses moins connues étaient aussi attaquées sur Instagram.
- Deepfakes : les sites de « déshabillage » facilitent leurs inscriptions grâce… aux géants de la tech
Massification via X et Grok
En cette fin d'année 2025, c'est Grok qui refait parler de lui à ce sujet. En effet, des utilisateurs du réseau social X ont massivement utilisé l'IA générative d'Elon Musk pour déshabiller virtuellement des femmes. Souvent avec une simple demande sous le partage d'une photo d'une utilisatrice, Grok générait une version de cette photo mais en représentant la personne en bikini ou plus ou moins dénudée.
En mai dernier, nos confrères de 404 expliquaient que l'outil de xAI posait très peu de freins à une demande d'utilisateur de déshabiller des femmes en reprenant des photos déjà existantes pour les trafiquer en objet de désir des utilisateurs du réseau social X. Mais cette « tendance » dégradante a été tellement suivie en cette fin d'année 2025 que n'importe quel utilisateur pouvait voir ce genre d'images dans la colonne « pour vous » du réseau social, avec certaines images ciblant des jeunes filles mineures.
« Je me suis retrouvée plus ou moins dévêtue sur plusieurs photos totalement sans mon consentement », raconte Fafa, une streameuse de 28 ans à France Info. « Trois ou quatre personnes s'étaient amusées à utiliser l'IA de X en vue de me dévêtir » en faisant un deepfake à partir d'un selfie de réveillon qu'elle avait posté le 31 décembre. Elle envisage de porter plainte. La doctorante en études théâtrales Marie Coquille-Chambel a vécu le même genre de violences sur le réseau social d'Elon Musk et a ensuite subi un harcèlement massif après l'avoir signalé sur X.
Devant la justice française
Le 2 janvier, les députés Arthur Delaporte (PS) et Éric Bothorel (Renaissance) ont tous deux saisi le procureur de la République de Paris, dénonçant ces deepfakes à caractère sexuel qui « contreviennent de fait à l'article 226-8-1 du Code pénal et portent atteinte à la dignité des personnes représentées et dont les contenus ont été détournés », comme l'affirme le signalement du député du Parti socialiste.
Quelques heures plus tard, le parquet de Paris expliquait à Politico qu'il allait élargir l'enquête déjà ouverte en juillet à propos de X, au départ pour ingérence étrangère. Il l'avait déjà étendue une première fois pour prendre en compte les propos négationnistes générés en novembre dernier par Grok, toujours publiés sur X.
Le gouvernement français réagissait un peu plus tard dans un communiqué expliquant que plusieurs de ses membres avaient aussi effectué des signalements à la justice : « les ministres Roland Lescure, Anne Le Hénanff et Aurore Bergé signalent au procureur de la République ainsi qu’à la plateforme Pharos, en vertu de l’article 40 du code de procédure pénale, des contenus manifestement illicites générés par l’intelligence artificielle générative Grok et diffusés sur la plateforme X, afin d’obtenir leur retrait immédiat ».
Alors qu'Elon Musk n'avait réagi à cette « tendance » sur son réseau social qu'avec des « 🤣🤣 » à propos d'une image de lui-même en bikini générée par IA, son entreprise a communiqué via le compte de Grok en publiant un message affirmant avoir « identifié des lacunes dans [ses] mesures de sécurité » pour répondre à un signalement d'un deepfake sur une enfant. xAI affirmait « s' [employer] à les corriger de toute urgence » et ajoutait que « le CSAM [child sexual abuse material, la pédopornographie] est illégal et interdit » en accompagnant son message d'un lien de signalement vers un site du FBI.
L'autorité malaisienne de la communication a elle aussi réagi, expliquant sur Facebook qu'elle avait « pris note avec une vive inquiétude des plaintes du public concernant l'utilisation abusive des outils d'intelligence artificielle (IA) sur la plateforme X, en particulier la manipulation numérique d'images de femmes et de mineurs afin de produire des contenus indécents, grossièrement offensants et autrement préjudiciables » et annonçait, elle aussi, lancer une enquête à ce sujet.
Vague massive de deepfakes générés par Grok : la justice française étend son enquête
-
Massification via X et Grok
-
Devant la justice française
Commentaires (25)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 05/01/2026 à 15h24
Le 05/01/2026 à 15h50
Le 05/01/2026 à 16h26
Le 06/01/2026 à 07h47
Le 05/01/2026 à 15h30
On se fait sanctionner, tarriffer, moquer et la seule réponse est toujours : "Tu ne le refais pas, hein ?".
Faudrait commencer à s'attaquer aux lois "anti-circumvention" que les US nous ont imposées avec leurs traités de commerce, et à cause desquelles toutes ces entreprises sont en "free-for-all".
Modifié le 05/01/2026 à 15h35
Ça a sans doute facilité cette vague de deepfakes aussi :-/
Le 05/01/2026 à 15h52
Le 05/01/2026 à 15h58
Le 05/01/2026 à 20h26
Le 05/01/2026 à 15h58
Le 05/01/2026 à 16h20
Mea culpa.
Le 05/01/2026 à 20h28
Le 05/01/2026 à 17h11
Le 05/01/2026 à 20h29
Le 06/01/2026 à 08h51
Le 06/01/2026 à 14h16
C'est pour ça que je demande si ça arrive à ses proches féminines. 😘
Le 08/01/2026 à 14h37
Le 05/01/2026 à 21h08
Le 06/01/2026 à 14h18
Modifié le 06/01/2026 à 07h28
- comment ces outils peuvent-ils générer des nus de personnes mineures (vraiment mineures, pas 17 ans et 364 jours) ?
- Sur quelles données ont-ils été entrainés ? Je connais l'inférence par les IA mais tout de même.
Quand on sait à quel point les LLM ont pompé du contenu disponible pour leur apprentissage, je me dis que ces outils de manipulation d'image doivent avoir utilisé des données illégales pour s'entrainer. Je ne parle pas du copyright.
Edit: correction grammaire et conjugaison
Le 05/01/2026 à 21h50
Les LoRA de "nudification" existent depuis à peu près le début de la massification des modèles de diffusion, tout comme il existe des modèles spécialisés dans la génération de contenu pornographique (et plein de sites de porno généré, eh oui, là aussi). Donc même sans avoir entraîné un autre dessus, l'usage de ces fichiers de poids est aussi une possibilité.
Au vu du cynisme des entreprises de la Tech US, ces comportements ne m'étonneraient pas.
Le 06/01/2026 à 12h42
Des images de mineures en sous-vêtements sont disponibles publiquement (il suffit par exemple de regarder des sites de vente de vêtements), donc ce n'est pas étonnant que Grok sache les générer.
Après, j'ai regardé un peu le flux de Grok et je n'ai pas vu de photos de personnes mineures vraiment jeunes. Celles que j'ai vu sont plutôt de jeunes filles (genre 16 ans) qui pourraient sans problème prétendre en avoir 18. Je ne sais pas si ça veut dire que Grok refuse la génération d'images dénudées quand il n'y a pas d'ambiguité sur l'âge, ou s'il reste un semblant de modération sur X.
Le 05/01/2026 à 16h44
les gensles femmes (voire des enfants) sans leur consentement. D'autre part, la publication de ces « photos » en ligne.À la limite, je peux comprendre la motivation du premier point, ça s'apparente à la visite de sites pornographiques. En revanche, je ne trouve aucune explication rationnelle à la publication de ces « photos » sur des réseaux socio, hormis la volonté de nuire à la victime.
Le 05/01/2026 à 16h49
Modifié le 05/01/2026 à 17h17
Il faut arrêter d'amener les mineurs à la plage.
Je ne suis pas sûr qu'une photo trafiquée par grok à partir d'une photo en tenue du 31/12 devienne une photo à caractère sexuel.
Je comprends que ça ne plaise pas aux cibles mais je ne suis pas sûr que l'article 226-8-1 du code pénal soit applicable. Il faut peut-être attaquer par le droit à l'image, mais c'est du civil et pas du pénal et c'est à la personne dont la photo est détournée de porter l'affaire devant le tribunal.
De plus, j'ai l'impression que celui qui est puni dans le code pénal est celui qui a porté à connaissance du public l'image en question, donc, ceux qui ont demandé à grok de générer l'image. X ne peut pas être visé par cet article de loi : il doit enlever les images si elles lui sont signalées et qu'elles sont illégales. Par contre, il y a peut-être des choses côté DSA comme indiqué dans l'article de Politico qui dit que le gouvernement a saisi l'ARCOM à ce sujet.
Et Trump va encore hurler à l'UE/la France qui s'attaque à la liberté d'expression !
Édit : n'étant pas sur X, je n'ai pas vu de telles photos (sauf une ou deux mais générées à la demande de la personne sur la photo) mais de ce que j'ai compris, il y a un garde-fou pour ne pas générer des photos de nus (il est peut-être possible de le détourner).
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?