Alors que Meta vient d'annoncer l'ajout d' « étiquettes contextuelles » sur les contenus « Made in IA », des escrocs ont commencé à voler les vidéos d'influenceuses et travailleuses du sexe, pour les cloner en y rajoutant des visages générés par des IA.
404Media a découvert des comptes Instagram qui volent les vidéos d'influenceuses et travailleuses du sexe, avant de les cloner en substituant leurs visages par des deepfakes générés par des intelligences artificielles, afin de pouvoir monétiser les contenus dérobés.
Vrais corps et décors, faux visages
Certains comptes auraient ainsi accumulé « des centaines de milliers de followers et des millions de vues » en utilisant « presque exclusivement » du contenu volé, tout en renvoyant à des profils payants (de 5 à 20 dollars par mois). 404Media a aussi trouvé plusieurs tutos sur YouTube expliquant comment procéder.
De quoi pouvoir constituer, à peu de frais, un volume important de contenus d'autant plus « crédibles » que les corps sont humains, les décors réels, et que seuls les visages sont générés par IA. Et a priori plus difficiles à identifier comme ayant été générés par des IA, contrairement aux « influenceuses virtuelles » entièrement générées de façon « artificielle ».
- Des influenceuses virtuelles (IA) concurrencent leurs équivalents humains
- Deepfakes pornographiques : quand l’intelligence artificielle sert à humilier
Commentaires (10)
#1
potentiellementprobablement faux.Vive le progrès.
#1.1
#1.2
#1.5
#1.3
/Je suis déjà loiiiiin
#1.4
#1.6
#1.7
#2
Ils n'allaient pas voler les têtes, il n'y a rien dedans.
#3
Dans ce cas il y a en plus le vol d'image, certes mais quelqu'un qui utilise un filtre actif pour avoir l'air "manga-ifié" ou "maquillé" aura-t-il un tag "made by ia" ?