Irlande : victime de deepfake pornographique, Cara Hunter en a fait un combat politique
Génération d'humiliation
Victime de deepfake pornographique juste avant des élections législatives, la députée d’Irlande du Nord Cara Hunter s’est emparée de la question, dont les effets restent relativement sous-estimés par la population.
Le 03 décembre à 11h42
6 min
Droit
Droit
« Est-ce que c’est vous, sur la vidéo qui circule sur WhatsApp ? » Cara Hunter se trouvait chez sa grand-mère pour un moment de répit dans une intense campagne électorale, lorsqu’elle a reçu ce message d’un inconnu sur Messenger. En avril 2022, la femme politique avait 27 ans et profitait d’une rare réunion familiale, un peu moins de trois semaines avant les élections pour l’Assemblée d’Irlande du Nord auxquelles elle se présentait. Le message l’a immédiatement mise en alerte, raconte la femme politique dans un long portrait du Guardian.
Lorsqu’elle reçoit le lien de la vidéo, elle découvre un clip « extrêmement pornographique ». À l’époque, elle n'en comprend pas bien les dessous techniques. Alors qu’elle croit à un sosie, une amie lui suggère qu’il puisse s’agir d’un deepfake, une de ces vidéos où « on met ton visage sur le corps de quelqu’un d’autre ».
Que fait-on, quand on est une femme, de moins de trente ans -« c’est déjà dur d’être prise au sérieux politiquement »-, et qu’un inconnu diffuse une vidéo pornographique très crédible de soi ? Du côté du Parti travailliste et social-démocrate (SDLP), auquel elle est affiliée, on dissuade Cara Hunter de publier le moindre communiqué, au motif qu’elle ne ferait qu’amplifier la viralité de la vidéo.
Évolutions législatives
Au commissariat, la police s’excuse, mais l’informe qu’aucun délit n’a été commis, que les équipes n’ont pas les moyens techniques pour enquêter. Il revient donc à Cara Hunter de trouver par elle-même la photo originale, en prenant des captures d’écran du deepfake puis en faisant des recherches inversées dans un moteur de recherche.
Pour l’identification du premier diffuseur de la vidéo sur WhatsApp, on lui souligne que la messagerie est chiffrée et qu’elle va se heurter au droit à la vie privée. Et Cara Hunter de rétorquer : « J’aimerais penser que j’ai le droit de ne pas voir ma vie détruite. » Mais dans un cas comme celui-ci, « vous n’êtes qu’une personne face à cette montagne de technologies et de code. »
Depuis cette affaire, le droit a évolué au Royaume-Uni et au Pays de Galles. Deux lois, l’Online Safety Act et le Data (Use and Access) Act de 2025 ont rendu la création, le partage et la demande de deepfakes à caractère sexuel illégaux. L’Irlande du Nord travaille à ses propres textes.
En France, l’interdiction de réaliser ou diffuser un montage à caractère sexuel a été ancrée dans le Code pénal avec la loi visant à sécuriser et à réguler l’espace numérique. L’usage de traitement algorithmique pour produire ces images y a été inscrit comme circonstance aggravante. Aux Pays-Bas, les députés travaillent sur l’un des textes les plus poussés en la matière, qui octroierait à la population un copyright sur leur voix, leur visage et leurs traits physiques.
Une personne sur quatre ne voit pas le problème
Mais comme ailleurs dans le monde, le public des îles britanniques ne semble pas prendre la mesure de la violence vécue par les victimes de ce type de diffusion. Les deepfakes sont pourtant déjà utilisés pour des usages malveillants, que ce soit pour harceler, pour réaliser des arnaques au président, voire, dans le cas des imageries à caractère sexuel, de l’extorsion, y compris de mineurs.
Publié fin novembre, un rapport de la police britannique note l’explosion du nombre de deepfakes de 1 780 % entre 2019 et 2024, sachant que l’immense majorité (98 % en 2023, selon Security Heroes) de ces images visent avant tout les filles et les femmes. Sur 1 700 interrogés, un répondant sur quatre estime qu’il n’y a rien de grave ou se déclare « neutre » sur le fait de créer ou partager des deepfakes intimes ou sexuels d’une autre personne.
Problématique démocratique
Lorsqu'elle en a été victime, l’enjeu, pour Cara Hunter, n’était même plus d’être élue, mais de faire cesser la diffusion de la vidéo. La politicienne a finalement obtenu son siège de députée, et s’est directement emparée publiquement du sujet. Depuis, elle reçoit régulièrement des appels de filles et de femmes victimes de faits similaires, dont certaines mineures. Dans les écoles, les enseignants lui rapportent la hausse de l’usage d'applications dédiées à « dénuder » des images de personnes par IA (en pratique, coller un faux corps nu sous le visage de la personne visée).
En France, en Espagne et ailleurs, des deepfakes pornographiques sont aussi bien fabriqués avec les visages de personnalités – journalistes, actrices, etc – que de personnes moins exposées publiquement. En Normandie, une enquête a notamment été ouverte en mars après la diffusion de deepfakes d’une douzaine de collégiennes.
Pour la députée d’Irlande du Nord, les risques démocratiques sont évidents, à commencer par celui de décourager les jeunes femmes de s’engager en politique. Réguler la production de ces images, mais aussi œuvrer pour le marquage des images générées par IA, sont autant d'outils permettant d'éviter que la pratique ne perdure, espère-t-elle.
D’autres affaires, comme les deepfakes de Vladimir Poutine et de Volodymyr Zelensky dans le cadre du conflit en Ukraine, ou le deepfake de la voix de Joe Biden pour dissuader des électeurs du New Hampshire de voter, illustrent les enjeux que ces technologies posent pour la bonne tenue du débat démocratique.
En Irlande, en octobre, la campagne présidentielle a encore été perturbée par la diffusion d’un faux extrait de journal télévisé dans lequel la candidate Catherine Connolly semblait déclarer le retrait de sa candidature.
Irlande : victime de deepfake pornographique, Cara Hunter en a fait un combat politique
-
Évolutions législatives
-
Une personne sur quatre ne voit pas le problème
-
Problématique démocratique
Commentaires (17)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 03/12/2025 à 12h39
Je n'ose imaginer le vide intersidéral des vies des personnes qui pratiquent ce genre d'agissement.
Le 03/12/2025 à 12h44
Le 03/12/2025 à 13h50
Le 03/12/2025 à 13h14
Ces personnes là, faut leur faire vivre ce que vivent les victimes, histoire qu'ils arrivent à comprendre ...
Le 03/12/2025 à 13h17
Mais faire de la sensibilisation ? Certainement indispensable.
Le 03/12/2025 à 13h41
Le 03/12/2025 à 14h44
Sans leur faire subir un viol directement, il serait possible de les mettre dans une situation qui fait penser à ça (par exemple via de la réalité virtuelle, ou en leur faisant jouer un jeu de rôles, par exemple).
Les humains apprennent mieux par la pratique, et il ne faut pas prendre l'empathie pour acquise.
Le 03/12/2025 à 13h45
Le 03/12/2025 à 14h18
On peut aussi imaginer un marquage qui permette de retrouver le compte qui a généré l'image. C'est déjà utilisé pour le partage de films en avant première pour les journalistes cinéma, chaque fichier a un marquage unique qui permet de savoir à quel journaliste ce fichier a été diffusé en cas de mise en ligne sur des sites pirates par le-dit journaliste.
Inclure un identifiant ça pose évidemment d'autre questions et puis les dégénérés qui voudront faire du deepfake porno pourront toujours avoir leur propre modèle hébergé chez eux mais ça pourrait réduire le nombre de deepfake.
Le 03/12/2025 à 15h10
Ca n'empêche pas la création et diffusion du deepfake, autrement que par la peur du gendarme.
Modifié le 03/12/2025 à 17h36
Spécifiquement sur cet article, la morale rentre en jeu, mais le deepfake sera évidemment utilisé dans le futur (avec l'amélioration des technologies) en politique, dans les entreprises, voire même pour inonder l'espace médiatique et noyer ainsi les faits,...
Pour moi tout ce qui est basé sur la "bonne volonté" (tel que le tatouage) ne sert à rien: Les IA partout se multiplient, il y a même des versions open-source, donc toute les "chartes", les règlementations,... ne serviront pas: Si c'est interdit, alors il y aura une demande, donc un profit, et des gens pour proposer.
Au mieux on peux punir après coup les auteurs. Mais c'est comme la violence: C'est pas la peur du gendarme qui fait que je ne vais pas assassiner mon voisin que je trouve horripilant, c'est mes principes.
J'écoutais le récit d'une personne à la radio qui s'est senti victime car un collègue de travail avait réalisé des deepfake sexuel d'elle, qu'il a gardé sur son PC de manière privée sans jamais le partager (et sans le dire à quiconque, juste pour ses fantasmes à lui).
Bien plus tard, une autre personne a farfouillé dans ce PC, a trouvé les deepfake et en a informé la victime (croyant bien faire), ceci sans le consentement de l'auteur dudit deepfake.
S'en est suivi un drama ; bien sur, d'où le sujet du podcast.
En fait, je pense qu'on est simplement pas armé face à tout ça, ça a été trop vite pour que notre code civil et notre "morale" (j'aime pas ce mot mais je trouve pas mieux sur le moment) ne se soit adaptés.
Le 04/12/2025 à 02h38
Le 03/12/2025 à 18h22
Le 03/12/2025 à 14h40
Le 03/12/2025 à 15h13
- l'Irlande de Cara Hunter, c'est l'Irlande du nord
- l'Irlande de Catherine Connolly, c'est la république d'Irlande.
Modifié le 05/12/2025 à 14h54
Il n'y a qu'une île d'Irlande mais deux pays sur cette île.
Modifié le 05/12/2025 à 17h22
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?