Deepfakes pornographiques : quand l’intelligence artificielle sert à humilier

Pics that didn't happen

Deepfakes pornographiques : quand l’intelligence artificielle sert à humilier

Le 22 septembre 2023 à 06h30

Commentaires (42)

votre avatar

Comme très bien indiqué dans cet article, ce genre de montage à caractère sexuel/pornographique a toujours existé. Avant, ça se faisait avec Photoshop, maintenant avec de l’IA. Ce qui change, c’est qu’on peut faire ce genre de montage très rapidement et de manière beaucoup plus réaliste.
Maintenant, il faudrait voir comment sont diffusées ses images. Si c’est pour faire chanter une victime, le chantage laisse normalement des traces. Donc on en revient encore et toujours avec les moyens insuffisants de la justice.



En tout cas merci pour cet résumé fouillé de l’état de la situation.

votre avatar

Une des choses à noter c’est que c’est apparemment devenu trivial. L’article cite l’affaire en Espagne où ce sont des adolescentes qui sont victimes d’autres ado.




With the slogan “Undress anybody, undress girls for free”, the app allows users to take the clothes off from anyone who appears in their phone’s picture gallery. It costs €10 to create 25 naked images.


Je ne pense pas que ce sera quelque chose qui sera résolu uniquement par la répression, il va falloir éduquer les gens à “pourquoi c’est mal”.

votre avatar

Merci pour cet article, aussi instructif que glaçant.

votre avatar

Pour moi, le danger est réel, mais le principal problème tient à cette remarque, tirée de l’article :




demande des moyens pour faire appliquer les cadres déjà existants.


On n’a peut-être pas besoin d’une ènième loi qui se contentera de répéter ce qui existe, on a besoin d’avoir des moyens de remonter aux personnes qui font ce genre de choses, et de leur appliquer les sanctions déjà prévues par la loi.

votre avatar

Entièrement d’accord!
Faire de nouvelles lois pour des actes déjà punis avec le code pénal actuel… Alors que nous sommes le pays du monde avec le plus de lois, et aussi le plus de lois non appliquées en raison de leurs désuétudes.
On ne remplace pas des moyens humains par des lois que l’on n’a pas la capacité d’appliquer, des numéros verts ou des caméras.

votre avatar

Une image d’article réalisée par Flock ? C’est une première ou j’ai raté qqc ?
Bon, je vais lire l’article maintenant :transpi:



Edit: non c’est pas la première fois ! Mince, maintenant je vais devoir les chercher :D

votre avatar

Excellent article !
Je ne peux qu’être d’accord avec notamment cette conclusion :
le problème n’était pas tant celui de trouver ou pas les auteurs d’agressions numériques diverses que celle « du manque de moyens accordés à la justice donc aux services enquêteurs ». Comme lui, Féministes contre le cyberharcèlement critique divers pans du projet de loi et demande des moyens pour faire appliquer les cadres déjà existants.

votre avatar

C’est bien de mettre l’accent sur les femmes, mais il ne faut pas minimiser l’impact que ça a sur les hommes. Il suffit de demander à Benjamin Griveaux s’il pense que pour les hommes, la diffusion d’images pornographiques les concernant n’a aucun impact.

votre avatar

Tout à fait. Cela dit, pour M. Griveaux, ce n’était pas un deepfake.

votre avatar

À mon humble avis, le jour où on prendra en considération l’ampleur du phénomène touchant les femmes, on aura pris en compte de facto le phénomène concernant les hommes.



Par exemple, un phénomène qui touche les hommes et dont on parle de plus en plus : le catfishing



fr.wikipedia.org Wikipedia :




Un catfish (litt. poisson-chat) ou catfisher est une personne qui se fait passer pour quelqu’un d’autre, utilisant de fausses photos de profil, de faux noms et se faisant souvent passer pour une personne d’un autre sexe pour extorquer de l’argent à ses cibles


votre avatar

Franchement, on met ma tête sur un porno, j’en demande une copie FHD (Avis personnel). ( En tant qu’homme, pas trop gênant, mais doit être horrible pour la gente féminine ). :transpi: :craint:

votre avatar

ces progrès technologiques apportent aussi leurs lots d’usages négatifs



comme d’hab., quoi ! :fumer:
(à chaque fois les progrès sont détournés par ‘des-p’tits-malins’)

votre avatar

Merci pour l’article. C’est absolument terrifiant de voir ça, on aurait pu penser qu’il y aurait eu un minimum de prise de conscience, mais non, toujours et encore les mêmes choses avec des moyens de plus en plus puissants, et donc de plus en plus ignoble. C’est pas gagné… 😞

votre avatar

(quote:2154265:Jean de Tolbiac)
Tout à fait. Cela dit, pour M. Griveaux, ce n’était pas un deepfake.


(étant vendredi je peux me permettre :)
ce n’était pas un dickfake non plus.
déso. :D

votre avatar

Quelqu’un calé en droit pourrait m’éclairer là dessus :
« Manipulation de l’information et de l’opinion publique : publier un deepfake représentant les paroles ou l’image d’une personne sans son consentement, et sans qu’il soit clairement établi qu’il s’agit d’un faux sera puni jusqu’à 2 ans de prison et 45 000€ d’amende. »




Le “et” est pas impératif, à partir du moment où il n’y a pas de consentement, ça deviendrait illégale que l’image soit signalé comme fausse ou non ? Si ce n’est pas le cas il me semble y avoir un sérieux trou dans le raquette.

votre avatar

Le « et » n’est pas facultatif.
Si le diffuseur indique que c’est un deepfake, alors pas de souci pour le faire sans consentement (en tout cas ça ne sera pas de la « manipulation de l’information et de l’opinion publique »).

votre avatar

1- je trouve l’IA pas si Intelligente dans ce cas. Ça doit bien pouvoir ce mettre en place des limitations à ce niveau.



A quand des fakeporn avec les patrons de l’IA?



2- A quand une mise a jour de l’intelligence humaine? Parce que franchement c’est du grand n’importe quoi …

votre avatar

Non, car par exemple, avec Stable Diffusion, tout est en local, je ne vois pas comment tu pourrais mettre des limitations.



Je pense que des limitations existent déjà en revanche pour les outils comme Dall-E, Midjourney etc…

votre avatar

  • A quand des ‘Fakeporn’ avec les patrons de l’IA. ?



l’arroseur, arrosé ! :francais:

votre avatar

(reply:2154271:Ami-Kuns)


C’est parce que tu penses que l’on va mettre ton visage sur la personne active. Rien n’empêche n’ont plus de mettre ses visages sur des victimes qui subissent des actes dégradants.



Ce n’est plus du tout la même chose là.

votre avatar

Car nous sommes dans une société qui, même si elle tient des discours progressistes, estime toujours honteux qu’une femme ait une sexualité



Ces génies ont donc tous été conçus par fécondation in vitro. Bien bien.



:facepalm:

votre avatar

(reply:2154271:Ami-Kuns)


Si j’ai bien compris l’article la différence Homme / Femme viendrait de la vue de la société sur le sujet




c’est une pratique qui fait partie du slut-shaming, du fait de renvoyer très violemment une femme à sa sexualité. Car nous sommes dans une société qui, même si elle tient des discours progressistes, estime toujours honteux qu’une femme ait une sexualité


Comme dit plus haut, ta réaction serait elle la même si c’était une fausse vidéo de toi en train de te faire sodomiser ?

votre avatar

Étant oblige de subir une coloscopie annuel pourrait peut-être apprécier. L’avenir n’est pas fixe.

votre avatar


Ces génies ont donc tous été conçus par fécondation in vitro. Bien bien.



:facepalm:


C’est là où je me dis qu’un des autres axes d’amélioration de nos sociétés (qui n’arrivera pas demain), c’est notre rapport à la sexualité. Aussi longtemps qu’elle sera considérée comme taboue et honteuse, elle pourra être une source d’intimidation.



Peu importe le moyen avec lequel la source d’intimidation aura été produite.



C’est aussi la raison pour laquelle la vie privée est une chose importante à protéger : se protéger des jugements idiots qui peuvent nuire.

votre avatar

C’est un fait que le désir féminin est tabou. Pourtant on le voit partout, dans la pub commerciale… et même dans les magazines féminins où on voit l’injonction d’avoir une sexualité active et épanouie.



Il y avait une association féministe qui était très active il y a qques années, qui s’appelait «Ni putes, ni soumises» : la vision masculine de la femme soit active sexuellement, soit maman au foyer.

votre avatar

la vie privée est une chose importante à protéger



à l’heure des RS., c’est pas gagné !
là..où tt.-le-monde raconte sa vie en détails !



≠ partage, tu comprends ? :non:

votre avatar

+1
A une époque bien avant les deepfake et autres, dans la boite où je travaillais une femme vient postuler à une offre d’emploi.



CV normal mais le recruteur en faisant une recherche google avec son nom+prénom tombe sur des sites de porn. Bien entendu elle était pas dedans mais son ex l’avait référencé là-dessus.



Bref pas besoin d’images, de montages ou de vidéos, déja à l’époque le simple fait après une recherche d’être redirigé sur des sites de porn suffisait pour te pourrir la vie.
D’ailleurs elle n’a pas été prise à cause de ça.

votre avatar

C’est quand même hallucinant de voir qu’on puisse être encore aussi arriéré.



Mais bon, je me dis que les “deepfakes” et compagnie seront peut-être un déclencheur pour arrêter de se focaliser sur ce genre d’idiotie. Les images dans nos sociétés sont aux 34 (à la louche) des faux : les “idéaux” de beauté, la fiction, les médias sociaux qui ne sont que de la mise en scène, le porno aussi, la télé réalité est plus scénarisée qu’un film, le “storytelling” qui ne s’intéresse qu’à ce qui l’arrange, etc.



Peut-être qu’à un moment on finira par prendre conscience qu’à peu près tout ce qui nous entoure est artificiel et ne plus leur accorder une telle importance.



Mais au fond de moi, je n’y crois pas.

votre avatar

qu’à peu près tout ce qui nous entoure est artificiel et
ne plus leur accorder une telle importance.



on y-arrivera (à force de faux), mais ce sera très très lent !
dans …. ans !




  • c’est ce qu’aura réussie à faire ‘Internet’
    qui a ses BONS côtés (c’est indéniable), mais ça c’est le revers de la médaille
    son côté sombre !!! :mad:

votre avatar

eglyn a dit:


Je pense que des limitations existent déjà en revanche pour les outils comme Dall-E, Midjourney etc…


Oui, il y a des filtres. Même GitHub Copilot a un proxy qui filtre les requêtes avant de les soumettre au modèle et analyse le retour pour réduire le risque de produire du contenu dangereux.



Mais même sur StableDiffusion la plupart des fronts ont des options pour bloquer le NSFW. Mais comme tu dis, impossible de contrôler en local.

votre avatar

et puis y a une chaine twitch de “Clad3815” IA de Mélenchon et Macron qui répondent au chat H24”

votre avatar

merlin171 a dit:


1- je trouve l’IA pas si Intelligente dans ce cas. Ça doit bien pouvoir ce mettre en place des limitations à ce niveau.



A quand des fakeporn avec les patrons de l’IA?



2- A quand une mise a jour de l’intelligence humaine? Parce que franchement c’est du grand n’importe quoi …


Comme dit eglyn c’est utilisable en local, et tu peux sans soucis te créer un système spécialement fait pour faire un gros service en ligne que pour du NSFW.
Le soucis n’est pas l’outil ni les lois, mais de faire respecter celles existantes et de poursuivre réellement les auteurs.



Car aujourd’hui c’est sur le thème du NSFW mais quid dans quelques années avec d’autres situations. Le but est vraiment de pouvoir condamner les personnes utilisant un outil pour jeter un discrédit ou tromper une personne, quelque soit la raison. Car techniquement, ça fait des années que des personnes font des fakes de nudes, je pense depuis la création de paint. Et pourtant paint n’est pas interdit.

votre avatar

misocard a dit:


Une des choses à noter c’est que c’est apparemment devenu trivial. L’article cite l’affaire en Espagne où ce sont des adolescentes qui sont victimes d’autres ado.



Je ne pense pas que ce sera quelque chose qui sera résolu uniquement par la répression, il va falloir éduquer les gens à “pourquoi c’est mal”.


Merci de ce commentaire.
Car je pense exactement la même chose. Augmenter le nombre d’enquêteur n’aidera en rien l’explosion, et à part arriver à une situation où la moitié de la population travaillera à mettre en taule l’autre moitier, je vois pas trop d’issue.
A part l’éducation. Qui commence déjà par le simple “ne fait pas aux autre ce que tu ne veux pas qu’ils te fassent”, qui est valable pour le revenge porn, le harcèlement, le deep fake, …



L’autre solution c’est de diffuser tellement de deepfake de tout et n’importe quoi que plus rien n’aura de sens ni de crédibilité. Et à mon sens c’est presque possible de lancer des instances d’IA en boucle écumer les sites d’info & pornhub , créer des deepfake avec les 2, puis passer son temps à inonder insta, tiktop meta et autres , sans aucun filtre ni logique ni rien.



Car à un moment, la répression a ses limites aussi.
Si tout le monde se mettait à prendre des couteaux pour tuer tous les autres, finalement, on dirais quoi ? qu’on va mettre des flics dans chaque foyers ?

votre avatar

on commence déjà par le simple :
“ne fait pas aux autre ce que tu ne veux pas qu’ils te fassent”



qu’est-ce que tu veux que je te dise (soupir) ?
“MÊME ça..c’est déjà TROP, pourtant c’est pas trop difficile à comprendre, non” ? :fumer:

votre avatar

Je ne comprends pas vos 2 commentaires. Vous êtes en train de dire que la solution serait de considérer toute image comme du faux ?



Si oui, pas la peine de considérer fiables des sources, des images, des textes, etc. C’est d’ailleurs comme ça que fonctionne le complotisme (tout est manipulation).



Moi je dirais le contraire : sélectionner, préserver des images qu’on considère comme fiables, punir les manipulations, développer la déontologie, éduquer aux images. On a toujours fait comme ça, quelque soit le support de communication.

votre avatar

(quote:2154551:consommateurnumérique)
Je ne comprends pas vos 2 commentaires. Vous êtes en train de dire que la solution serait de considérer toute image comme du faux ?


Pas de manière aussi extrême, mais plutôt de s’éduquer à l’image comme tu le dis. Savoir développer son sens critique et apprendre à prendre du recul et étudier le contexte d’un document avant de s’enflammer dessus. En gros, dès qu’une image fait “le buzz”, ça doit déclencher une sonnette d’alarme : pourquoi elle le fait, pourquoi déclenche-t-elle une telle émotion, et dans quel but celle-ci a-t-elle été diffusée, etc.



Car c’est là une bonne partie de la source des “fake news” : une image (animée ou non) sortie de son contexte (plus vieille que les “faits” qu’elle accompagne, détournement, montage, habile recadrage, etc) et accompagnée d’une interprétation visant à tromper pour déclencher une réaction émotionnelle. Et pour le coup, les images fabriquées de toute pièce utilisées à des fins de désinformation ça ne date pas de l’IA générative : c’est arrivé avec des extraits de fiction comme des films ou séries télévisées.

votre avatar

Ça existe le même genre de trucs qui viserait les hommes (puisque d’après l’article la majorité/totalité des deepfakes pornos concernent des femmes) ?

votre avatar

Ce n’est pas un deepfake mais il y a l’affaire de la sextape et du chantage présumé du maire de St Étienne sur son 1er adjoint (catholique engagé).



votre avatar

pierreonthenet a dit:


Ça existe le même genre de trucs qui viserait les hommes (puisque d’après l’article la majorité/totalité des deepfakes pornos concernent des femmes) ?


Oui, des faux “nudes” de célébrités masculines existent aussi. Parfois sous forme de fantasme homosexuel même.

votre avatar

(reply:2154578:consommateurnumérique)


Merci, mais ce qui m’intéresse ici est de savoir si les hommes pourraient eux aussi être touchés par ce type de deepfake aujourd’hui.



OK, mais est-ce issu de deepfakes, et surtout ces outils sont-ils aussi accessibles que ceux “féminins” ?

votre avatar

J’ai pas la prétention d’avoir fait une étude comparative, mais des quelques éléments que j’ai pu voir c’est comme pour le féminin : ça va du montage grossier à l’intégration très propre, probablement issue de l’IA générative aussi.



Sur Civitai il y a beaucoup de LoRA entraînés avec des célébrités masculines au même titre que les célébrités féminines. Et comme il y a aussi pas mal de modèles capables de produire du NSFW photo-réaliste assistés de quelques LoRA pour les éléments plus spécialisés, et pour en avoir vu sur la plateforme (car je ne filtre pas le contenu adulte dessus, il ne me fait pas peur), je peux confirmer sur ce point qu’il y a de la production de fausses images de nus, voire à caractère pornographique, pour des hommes aussi.

votre avatar

Merci ! :inpactitude:

Deepfakes pornographiques : quand l’intelligence artificielle sert à humilier

  • L’arbre qui cache la forêt : les deepfakes de désinformation

  • L’IA générative : vers l’« uberisation » des deepfakes ?

  • Multiples conséquences pour les personnes visées

  • Impossible sécurité numérique

  • Évolution des cadres légaux

  • Chantiers de sensibilisation

Fermer