Connexion
Abonnez-vous

Deepfakes pornographiques : les défis à relever pour enrayer le phénomène

Indice n°2 : le consentement c'est important

Deepfakes pornographiques : les défis à relever pour enrayer le phénomène

Les deepfakes pornographiques sont en nette augmentation depuis la sortie d’outils d’intelligence artificielle générative. Next décortique la réponse des principaux acteurs à même d'enrayer le phénomène.

Le 09 septembre à 14h04

Dans un précédent article, nous revenions sur les enjeux soulevés par les deepfakes pornographiques, qui constituent l'immense majorité des images créées à l'aide d'intelligence artificielle générative. Loin d'être anecdotique, le sujet occupe toute une variété d'acteurs. Voyons quelles sont leurs réactions :

Quelle est la réaction des géants numériques ?

Tout dépend desquels on parle. Certains sont relativement réactifs, ou a minima coopératifs, avec les forces de l'ordre et les associations spécialisées qui prennent le rôle de « signaleurs de confiance ». La modération efficace de ces contenus reste un défi technique, ce qui a pu conduire à des actions de modération grossière, comme dans le cas de la diffusion de deepfakes de Taylor Swift sur X – devant l'émoi de sa communauté de fans, le réseau a surtout bloqué l'accès à certains hashtags précis, une limitation facilement contournable pour quelqu'un de motivé.

Pour autant, les géants numériques servent aussi l’économie du deepfake pornographique par des moyens détournés. Début septembre, Wired a par exemple montré que les 16 applications les plus populaires pour dénuder des personnes sans leur consentement, grâce à l’IA, s’appuyaient sur les outils d’authentification SSO (single sign-on) d’Apple, Google ou Discord.

Par ailleurs, on l'a vu plus haut, certaines plateformes sont beaucoup moins enclines que d'autres à opérer des actions de modération.

Quelle est la réaction des systèmes de paiement ?

Les relations entre le monde bancaire et l’industrie pornographique ont toujours été fraiches, notamment parce que le premier considère que les transactions liées à la pornographie génèrent un risque plus important de fraude. Au fil des ans, on a donc vu Visa et Mastercard couper les ponts avec des sociétés comme Mindgeek (propriétaire de Pornhub) puis avec Onlyfans (réseau social proposant des services d’abonnement et hébergeant de nombreux contenus pornographiques).

Dans le cas des applications dédiées à dénuder des personnes par IA, sans leur consentement, une réaction similaire paraît envisageable. Si plusieurs de ces services proposent de passer par Visa ou Mastercard pour en payer l’accès, Mastercard a indiqué à Wired que l’achat de contenu deepfake non consenti était interdit sur son réseau.

Quelle est la réaction des autorités ?

On l’a dit, les deepfakes pornographiques ne sont qu’un outil de plus dans la besace de potentiels cyberagresseurs. Résultat, s’ils n’ont d’abord pas été visés directement par les textes juridiques, d’autres outils pouvaient être utilisés pour s’y attaquer – dans son ouvrage Combattre le Cybersexime, l’association #Stopfisha indiquait ainsi que le deepfake « peut-être constitutif du délit d’usurpation d’identité », passible, selon l’article 226-4-1 du Code pénal, d'un an d'emprisonnement et de 15 000 € d'amende.

Pour autant, de nombreux travaux réglementaires en cours ont permis de s’emparer du sujet. En France, la loi visant à sécuriser et à réguler l’espace numérique a par exemple inscrit à l’article 226-8-1 du Code pénal :

« Est puni de deux ans d'emprisonnement et de 60 000 euros d'amende le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, un montage à caractère sexuel réalisé avec les paroles ou l'image d'une personne, sans son consentement. Est assimilé à l'infraction mentionnée au présent alinéa et puni des mêmes peines le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, un contenu visuel ou sonore à caractère sexuel généré par un traitement algorithmique et reproduisant l'image ou les paroles d'une personne, sans son consentement.

[…]

Les peines prévues au […] premier alinéa sont portées à trois ans d'emprisonnement et à 75 000 euros d'amende lorsque la publication du montage ou du contenu généré par un traitement algorithmique a été réalisée en utilisant un service de communication au public en ligne. »

Au niveau européen, la récente directive sur la lutte contre les violences faites aux femmes a aussi intégré un volet dédié aux violences numériques, qui vise notamment directement la création de deepfakes pornographiques.


À l’échelle internationale, le phénomène des cyberviolences axé contre les femmes devient depuis quelques années l’objet d’une attention spécifique. L’ONU emploie désormais le concept de violence de genre facilitée par la technologie (Technology facilitated gender-based violence, TF-GBW) pour le qualifier précisément, et l’UNESCO a produit un travail spécifique sur ce type de violences à l’ère de l’IA générative, dont nous revenions sur les constats dans l’article ci-dessous :

Quelle est la réaction de la société ?

Les personnes visées par des deepfakes pornographiques se retrouvent au croisement de deux problématiques qui restent mal considérées : les violences sexistes et sexuelles et les violences numériques.

Sur le premier axe, si l’on se reporte sur l’étude de Security Heroes, 48 % des hommes états-uniens interrogés par l’entreprise ont déjà vu des deepfakes pornographiques. Par ailleurs, parmi les consommateurs de ce type de contenu, 74 % déclarent ne pas se sentir coupables… Une part quasi égale aux 73 % qui indiquent qu’ils se plaindraient aux autorités si l’un ou l’une de leur proche était victime de deepfakes pornographiques. 68 % précisent par ailleurs qu’ils seraient choqués si l’intimité de l’un ou l’une de leurs proches était violée de cette manière.

De fait, « quand on crée des contenus pornographiques avec le corps de quelqu’un, on est déjà dans une dimension d’actes sexuels, expliquait à Next l’autrice de Féminisme et réseaux sociaux Elvire Duvelle-Charles. Or ça relève de la vie privée et de l’intégrité de la personne. »

Outre la question de la juste compréhension et considération du consentement des personnes concernées et des effets des violences sexuelles, la dimension numérique des deepfakes pornographiques est un autre axe de complexité. À propos d’autres types d’invasions de l’espace numérique, l’experte en cybersécurité Rayna Stamboliyska déclarait à Next : « Tout se passe comme si les gens se disaient « à partir du moment où les technologies existent, pourquoi je me priverais de les utiliser ? ». Sans considérer que, dans le domaine qui nous occupe, il s’agit d’utiliser l’image réelle d’une personne, sans son consentement.

Face à la difficile prise de conscience de la société, cela dit, des activistes s’organisent un peu partout dans le monde. Ainsi de Francesca Mani, qui, du haut de ses quinze ans, s’est emparée du sujet aux États-Unis ; de la journaliste Salomé Saqué, qui alerte en France ; ou des militantes féministes qui s’organisent en ligne et hors ligne en Corée du Sud.

Et puis bien sûr, Next va régulièrement à la rencontre de spécialistes du sujet. Pour en lire plus sur leurs travaux et leurs réflexions, penchez-vous donc sur les deux articles ci-dessous :

Commentaires (7)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
Merci pour cet article. Effectivement un nouvel outil de violence sociale dont on aurait pu se passer.
Je ne peux m'empêcher de faire le lien avec une sexualisation permanente de la société (pubs, films, etc) en contradiction avec l'objectif d'un plus grand respect et parité.
En tout cas très probablement une grande majorité d'hommes acteurs et de femmes victimes. Comme le revenge porn et autres. Les précédents articles le soulignaient bien.

Par rapport à "74 % déclarent ne pas se sentir coupables". Oui, bon ben pour le coup coupable n'est peut-être pas le bon adjectif. On peut être gêné, outré, choqué, blasé, mais ne pas se sentir coupable d'un méfait/délit/crime? qu'on n'a pas commis.

Entre ce genre d'outils et les réseaux sociaux, être un ado n'est vraiment pas aisé. Jugé et comparé en permanence, jamais à l'abri en dehors de l'école comme tout continue en ligne.
Les gens devraient être plus compréhensibles envers les jeunes et leurs difficultés, bien différentes de celles qu'eux-mêmes ont parfois vécu.
votre avatar
Si on a un diabète et qu'on mange un produit très sucré : soit on se sent coupable et le sentiment de culpabilité invite à changer son comportement, soit on continue à consommer du sucre en subissant les conséquences sur son état de santé (malgré la gène ou le malaise qu'on ressent éventuellement).
votre avatar
Je n'ai pas trop compris à quoi tu faisais référence dans mon commentaire.

Si quelqu'un fait un deepfake et me les partage, je réagirais différemment selon le contexte (privé/public), l'objectif (humour/caricature/moquerie/méchanceté), et la nature (meme/montage inoffensif/porno).
Dans le cas du porno, si c'est dans le but de rabaisser quelqu'un (sujet de l'article), je serais a priori contre et ne me sentirais pas coupable car je n'aurais pas participé ni à sa création ni à sa diffusion. Énervé, blasé, choqué, seront plus probables.

Mettre la tête d'un collègue sur Trump et le partager dans un contexte d'humour à un autre collègue sur Teams ne me semble pas plus nuire que les blagues ou memes qu'on fait actuellement. Tant que c'est bon enfant...
votre avatar
La règle est simple dans le cas de deepfake: si tu penses que tu peux le montrer à la personne fakée, c'est que c'est bon enfant.
Si tu penses que tu ne dois en aucun cas lui montrer, c'est coupable.
votre avatar
Si je troll sur Teams avec un collègue c'est pas toujours montrable à la cible (que parfois je ne connais pas). Ou du moins pas à chaud 😅. Entre texte et image, j'aurais appliqué la même logique. Encore une fois je ne parle pas de rabaisser, encore moins de choses en lien avec de la pornographie.

Mais je vois l'idée. C'est effectivement simple et efficace.
votre avatar
Si on se sent coupable d'avoir consommé un deepfake porno, on va éviter de consulter le site web ou le profil de la personne qui partage ces contenus, on va peut-être signaler le contenu comme problématique, etc. C'est différent si on considère qu'on n'y peut rien, que c'est la vie ou si on considère que les deepfakes porno sont géniaux à regarder.

J'ai retrouvé le site de l'étude en question et il y a un top 4 des raisons qu'ont donné les personnes qui ne se sentent pas coupable et normalisent le fait de consommer des contenus de deepfake pornographique :
* 36% disent : je sais que ce n'est pas la personne
* 30% disent : je ne pense pas que cela fasse de mal à qui que ce soit tant que c'est seulement pour mon usage personnel
* 29% disent : les deepfakes porno sont simplement une version plus ambitieuse de l'imagination sexuelle
* 28% disent qu'ils ne voient pas la différence avec la pornographique ordinaire
votre avatar
Bien d'accord. Je n'aurais peut-être pas appelé coupable le sentiment de voir puis signaler un contenu que je n'ai pas créé. Mais bon, c'est subtil selon la situation en fait, je vois mieux !

Merci pour les infos de la source ! Assez ahuri des réponses...

Deepfakes pornographiques : les défis à relever pour enrayer le phénomène

  • Quelle est la réaction des géants numériques ?

  • Quelle est la réaction des systèmes de paiement ?

  • Quelle est la réaction des autorités ?

  • Quelle est la réaction de la société ?

Fermer