Deepfakes pornographiques : les défis à relever pour enrayer le phénomène
Indice n°2 : le consentement c'est important
Les deepfakes pornographiques sont en nette augmentation depuis la sortie d’outils d’intelligence artificielle générative. Next décortique la réponse des principaux acteurs à même d'enrayer le phénomène.
Le 09 septembre à 14h04
7 min
Société numérique
Société
Dans un précédent article, nous revenions sur les enjeux soulevés par les deepfakes pornographiques, qui constituent l'immense majorité des images créées à l'aide d'intelligence artificielle générative. Loin d'être anecdotique, le sujet occupe toute une variété d'acteurs. Voyons quelles sont leurs réactions :
Quelle est la réaction des géants numériques ?
Tout dépend desquels on parle. Certains sont relativement réactifs, ou a minima coopératifs, avec les forces de l'ordre et les associations spécialisées qui prennent le rôle de « signaleurs de confiance ». La modération efficace de ces contenus reste un défi technique, ce qui a pu conduire à des actions de modération grossière, comme dans le cas de la diffusion de deepfakes de Taylor Swift sur X – devant l'émoi de sa communauté de fans, le réseau a surtout bloqué l'accès à certains hashtags précis, une limitation facilement contournable pour quelqu'un de motivé.
Pour autant, les géants numériques servent aussi l’économie du deepfake pornographique par des moyens détournés. Début septembre, Wired a par exemple montré que les 16 applications les plus populaires pour dénuder des personnes sans leur consentement, grâce à l’IA, s’appuyaient sur les outils d’authentification SSO (single sign-on) d’Apple, Google ou Discord.
Par ailleurs, on l'a vu plus haut, certaines plateformes sont beaucoup moins enclines que d'autres à opérer des actions de modération.
Quelle est la réaction des systèmes de paiement ?
Les relations entre le monde bancaire et l’industrie pornographique ont toujours été fraiches, notamment parce que le premier considère que les transactions liées à la pornographie génèrent un risque plus important de fraude. Au fil des ans, on a donc vu Visa et Mastercard couper les ponts avec des sociétés comme Mindgeek (propriétaire de Pornhub) puis avec Onlyfans (réseau social proposant des services d’abonnement et hébergeant de nombreux contenus pornographiques).
Dans le cas des applications dédiées à dénuder des personnes par IA, sans leur consentement, une réaction similaire paraît envisageable. Si plusieurs de ces services proposent de passer par Visa ou Mastercard pour en payer l’accès, Mastercard a indiqué à Wired que l’achat de contenu deepfake non consenti était interdit sur son réseau.
Quelle est la réaction des autorités ?
On l’a dit, les deepfakes pornographiques ne sont qu’un outil de plus dans la besace de potentiels cyberagresseurs. Résultat, s’ils n’ont d’abord pas été visés directement par les textes juridiques, d’autres outils pouvaient être utilisés pour s’y attaquer – dans son ouvrage Combattre le Cybersexime, l’association #Stopfisha indiquait ainsi que le deepfake « peut-être constitutif du délit d’usurpation d’identité », passible, selon l’article 226-4-1 du Code pénal, d'un an d'emprisonnement et de 15 000 € d'amende.
Pour autant, de nombreux travaux réglementaires en cours ont permis de s’emparer du sujet. En France, la loi visant à sécuriser et à réguler l’espace numérique a par exemple inscrit à l’article 226-8-1 du Code pénal :
« Est puni de deux ans d'emprisonnement et de 60 000 euros d'amende le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, un montage à caractère sexuel réalisé avec les paroles ou l'image d'une personne, sans son consentement. Est assimilé à l'infraction mentionnée au présent alinéa et puni des mêmes peines le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, un contenu visuel ou sonore à caractère sexuel généré par un traitement algorithmique et reproduisant l'image ou les paroles d'une personne, sans son consentement.
[…]
Les peines prévues au […] premier alinéa sont portées à trois ans d'emprisonnement et à 75 000 euros d'amende lorsque la publication du montage ou du contenu généré par un traitement algorithmique a été réalisée en utilisant un service de communication au public en ligne. »
Au niveau européen, la récente directive sur la lutte contre les violences faites aux femmes a aussi intégré un volet dédié aux violences numériques, qui vise notamment directement la création de deepfakes pornographiques.
À l’échelle internationale, le phénomène des cyberviolences axé contre les femmes devient depuis quelques années l’objet d’une attention spécifique. L’ONU emploie désormais le concept de violence de genre facilitée par la technologie (Technology facilitated gender-based violence, TF-GBW) pour le qualifier précisément, et l’UNESCO a produit un travail spécifique sur ce type de violences à l’ère de l’IA générative, dont nous revenions sur les constats dans l’article ci-dessous :
- Rumman Chowdhury : « il faut investir autant dans la protection des utilisateurs que dans le développement de l’IA »
Quelle est la réaction de la société ?
Les personnes visées par des deepfakes pornographiques se retrouvent au croisement de deux problématiques qui restent mal considérées : les violences sexistes et sexuelles et les violences numériques.
Sur le premier axe, si l’on se reporte sur l’étude de Security Heroes, 48 % des hommes états-uniens interrogés par l’entreprise ont déjà vu des deepfakes pornographiques. Par ailleurs, parmi les consommateurs de ce type de contenu, 74 % déclarent ne pas se sentir coupables… Une part quasi égale aux 73 % qui indiquent qu’ils se plaindraient aux autorités si l’un ou l’une de leur proche était victime de deepfakes pornographiques. 68 % précisent par ailleurs qu’ils seraient choqués si l’intimité de l’un ou l’une de leurs proches était violée de cette manière.
De fait, « quand on crée des contenus pornographiques avec le corps de quelqu’un, on est déjà dans une dimension d’actes sexuels, expliquait à Next l’autrice de Féminisme et réseaux sociaux Elvire Duvelle-Charles. Or ça relève de la vie privée et de l’intégrité de la personne. »
Outre la question de la juste compréhension et considération du consentement des personnes concernées et des effets des violences sexuelles, la dimension numérique des deepfakes pornographiques est un autre axe de complexité. À propos d’autres types d’invasions de l’espace numérique, l’experte en cybersécurité Rayna Stamboliyska déclarait à Next : « Tout se passe comme si les gens se disaient « à partir du moment où les technologies existent, pourquoi je me priverais de les utiliser ? ». Sans considérer que, dans le domaine qui nous occupe, il s’agit d’utiliser l’image réelle d’une personne, sans son consentement.
Face à la difficile prise de conscience de la société, cela dit, des activistes s’organisent un peu partout dans le monde. Ainsi de Francesca Mani, qui, du haut de ses quinze ans, s’est emparée du sujet aux États-Unis ; de la journaliste Salomé Saqué, qui alerte en France ; ou des militantes féministes qui s’organisent en ligne et hors ligne en Corée du Sud.
Et puis bien sûr, Next va régulièrement à la rencontre de spécialistes du sujet. Pour en lire plus sur leurs travaux et leurs réflexions, penchez-vous donc sur les deux articles ci-dessous :
Deepfakes pornographiques : les défis à relever pour enrayer le phénomène
-
Quelle est la réaction des géants numériques ?
-
Quelle est la réaction des systèmes de paiement ?
-
Quelle est la réaction des autorités ?
-
Quelle est la réaction de la société ?
Commentaires (7)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 09/09/2024 à 17h44
Je ne peux m'empêcher de faire le lien avec une sexualisation permanente de la société (pubs, films, etc) en contradiction avec l'objectif d'un plus grand respect et parité.
En tout cas très probablement une grande majorité d'hommes acteurs et de femmes victimes. Comme le revenge porn et autres. Les précédents articles le soulignaient bien.
Par rapport à "74 % déclarent ne pas se sentir coupables". Oui, bon ben pour le coup coupable n'est peut-être pas le bon adjectif. On peut être gêné, outré, choqué, blasé, mais ne pas se sentir coupable d'un méfait/délit/crime? qu'on n'a pas commis.
Entre ce genre d'outils et les réseaux sociaux, être un ado n'est vraiment pas aisé. Jugé et comparé en permanence, jamais à l'abri en dehors de l'école comme tout continue en ligne.
Les gens devraient être plus compréhensibles envers les jeunes et leurs difficultés, bien différentes de celles qu'eux-mêmes ont parfois vécu.
Le 09/09/2024 à 21h14
Le 10/09/2024 à 09h01
Si quelqu'un fait un deepfake et me les partage, je réagirais différemment selon le contexte (privé/public), l'objectif (humour/caricature/moquerie/méchanceté), et la nature (meme/montage inoffensif/porno).
Dans le cas du porno, si c'est dans le but de rabaisser quelqu'un (sujet de l'article), je serais a priori contre et ne me sentirais pas coupable car je n'aurais pas participé ni à sa création ni à sa diffusion. Énervé, blasé, choqué, seront plus probables.
Mettre la tête d'un collègue sur Trump et le partager dans un contexte d'humour à un autre collègue sur Teams ne me semble pas plus nuire que les blagues ou memes qu'on fait actuellement. Tant que c'est bon enfant...
Le 10/09/2024 à 10h15
Si tu penses que tu ne dois en aucun cas lui montrer, c'est coupable.
Le 10/09/2024 à 22h12
Mais je vois l'idée. C'est effectivement simple et efficace.
Le 10/09/2024 à 22h43
J'ai retrouvé le site de l'étude en question et il y a un top 4 des raisons qu'ont donné les personnes qui ne se sentent pas coupable et normalisent le fait de consommer des contenus de deepfake pornographique :
* 36% disent : je sais que ce n'est pas la personne
* 30% disent : je ne pense pas que cela fasse de mal à qui que ce soit tant que c'est seulement pour mon usage personnel
* 29% disent : les deepfakes porno sont simplement une version plus ambitieuse de l'imagination sexuelle
* 28% disent qu'ils ne voient pas la différence avec la pornographique ordinaire
Le 11/09/2024 à 09h52
Merci pour les infos de la source ! Assez ahuri des réponses...