DeepNude (Deepfakes) : une « horrible » application pour déshabiller les femmes
Le 27 juin 2019 à 09h58
2 min
Logiciel
Logiciel
Motherboard s'est penché sur cette application qu'il qualifie d'horrible. Elle utilise l'intelligence artificielle afin de « déshabiller » les femmes. En l'occurrence, il s'agit surtout de créer une fausse image en gardant leur tête et la position de leur corps.
Pour rappel, des vidéos « deepfakes » avec des têtes de personnalités placées sur le corps d'autres personnes (notamment des acteurs/actrices pornos) existent depuis longtemps. Les femmes étaient principalement ciblées, avec DeepNude la situation ne fait que s'aggraver. Le logiciel est en vente pour 50 dollars avec « une offre promotionnelle ».
Les réactions ne se sont pas fait attendre : « C'est absolument terrifiant [...] Désormais, n'importe qui peut se trouver victime de revenge porn sans avoir jamais pris de photo nue. Cette technologie ne devrait pas être accessible au public », affirme Katelyn Bowden, fondatrice et dirigeante d'une association luttant contre le revenge porn. « C'est une atteinte à la vie privée sexuelle [...] Oui, ce n'est pas votre vagin, mais… d'autres pensent qu'ils vous voient nue », lâche une professeure de droit.
Interrogé par nos confrères, le créateur de l'application explique qu'elle se base sur pix2pix, un algorithme open source développé par des chercheurs en 2017. Plus de 10 000 photos de femmes nues ont été utilisées pour entraîner l'algorithme.
Il ajoute qu'il espère proposer prochainement une version pour les hommes. « Je pense que ce que vous pouvez faire avec DeepNude, vous pouvez très bien le réaliser avec Photoshop [...] si quelqu'un a de mauvaises intentions, DeepNude ne change pas grand-chose… Si je ne l'avais pas fait, quelqu'un d'autre l'aurait fait. », ajoute-t-il pour se dédouaner.
Le 27 juin 2019 à 09h58
Commentaires (51)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 27/06/2019 à 08h51
Si je ne l’avais fais pas, quelqu’un d’autre l’aurait fait.
meilleure justification du monde " />
Le 27/06/2019 à 08h56
Au contraire c’est une très bonne nouvelle pour les femmes. Si elles sont victimes de revenge porn, elles pourront toujours crier au fake
Le 27/06/2019 à 09h02
Les deepfakes savent parfois être très drôles
TheOffice US Jim/Dwight YouTube
Le 27/06/2019 à 09h02
« Je pense que ce que vous pouvez faire avec DeepNude, vous pouvez très bien le réaliser avec Photoshop […] si
quelqu’un a de mauvaises intentions, DeepNude ne change pas
grand-chose… Si je ne l’avais fais pas, quelqu’un d’autre l’aurait fait. », ajoute-t-il pour se dédouaner..
C’est tout pourri comme excuse, ça. Si tu penses que tu n’as rien fait d’immoral, alors tu défends directement tes actions.
Je vais prendre une opinion non-consensuelle, mais au fond, n’est-ce pas justement l’outil qui mettra fin au porno vengeur ? Par définition, toute photo de nue sera suspectée d’être une contrefaçon, et donc les salauds n’auront plus d’intérêt à diffuser les nus authentiques.
Quant à l’argument « Oui, ce n’est pas votre vagin, mais… d’autres pensent qu’ils vous voient nue », n’est-ce pas ce que fait l’humanité depuis fort longtemps, en usant de son imagination ?
« C’est une atteinte à la vie privée sexuelle » : je ne vois pas en quoi. Si la photo originale est obtenue légalement, il n’y a pas plus d’atteinte à la vie privée qu’en usant (encore une fois) de son imagination. Si le montage est diffusé, c’est un problème de droit à l’image, il y aura des recours possibles contre cela. Si la photo originale est obtenue illégalement, c’est évidemment une atteinte à la vie privée, mais pas sexuelle.
Le 27/06/2019 à 09h19
République Française
“Est puni d’un an d’emprisonnement et de 15 000 euros d’amende le fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention.“Et je pense qu’il y a au moins une dizaine de texte de loi justifiant que c’est illégale dans le droit francais. Droit à l’image, atteinte à la vie privée, diffamation, harcèlement, ….
Et p-e parce que t’as pas envie que ton employeur, tes enfants, tes parents ou grands parents, tes clients,… tombent sur ces images en 3 clics sur google.
Et même si c’est un fake j’aimerais pas avoir cette discussion avec mon patron ou mes grands parents que non le sexe qu’il voit sur mon corps n’est pas le mien.
Le 27/06/2019 à 09h21
On attend les applications en réalité augmenté maintenant !
Le 27/06/2019 à 09h23
“Désormais, n’importe qui peut se trouver victime de revenge porn sans avoir jamais pris de photo nue.” Une autre façon de voir les choses c’est qu’une femme victime de revenge porn réel pourra toujours dire que c’est un fake…
Le 27/06/2019 à 09h26
Y’a vraiment de bons tarés sur cette terre.
J’ai vomi à la lecture de sa justification. Comme dirait Sadin : “Honte sur vous (pov’ blaireau)”
Le 27/06/2019 à 09h27
Il ne faut pas 3 clics pour tomber sur ces images.
Tes enfants, ton patron devront expliquer pourquoi ils étaient sur de tels site.
Si c’est vraiment très répandu les personnes y prêteront de moins en moins d’intérêt…
Ca va être plus délicat de justifier la présence sur des sites cochons, de justifier qu’on ai pu penser voir telle personne respectable s’afficher…
Le 27/06/2019 à 09h27
Je crois que la seule issue, c’est de tous publier une photo de soi à poil sur Internet. D’ailleurs, c’est l’été, il fait chaud, alors profitons-en : tous à poil sur Internet " />
Le 27/06/2019 à 09h28
C’est bien de commenter, c’est mieux de lire avant. Je me cite :
Le 27/06/2019 à 09h28
Je suis d’accord. Mais actuellement, j’ai aussi l’impression que l’on vit dans une société d’oppression et de mulets qui ne réfléchissent pas.
Le 27/06/2019 à 09h33
Le “deep-fake” reste effectivement un photoshopage (plus ou moins bien réussi) automatisé à la porté de tous.
Maitenant, légalement, si ce qui est possible de faire avec l’un est interdit, il doit l’être avec l’autre.
Le fait de truquer des photos pour coller le visage de quelqu’un sur un corps nu n’est pas nouveau (déjà dans GTO datant de 1997, après le photomontage où Onizuka se retrouve dans des positions SM, il demande à l’auteur de lui truquer des photos de femme dont Fuyutsuki). Il y a donc eu sûrement des affaire : quel sont les conclusions ?
Le 27/06/2019 à 09h34
Le droit à l’image fait partie de la vie privée.
https://www.juritravail.com/Actualite/vie-privee/Id/251841
Service PublicEt évidemment que ca s’accompagne pas à 100% de la diffusion mais rien n’empêche la diffusion.
Le 27/06/2019 à 09h44
[… lle […] Oui, ce n’est pas votre vagin, mais… d’autre …]
C’est quand même très intrusif, pour rappel le vagin est un organe interne …
Le 27/06/2019 à 09h46
Dès qu’on touche à la nudité tout le monde y va de son effroi. La main sur le thorax, la bouche bée, en poussant un “han” qui ferai presque penser à un orgasme (étonnant non?). La morale est atteinte tout le monde est choqué (enfin le prétend). Pas tant par le problème en lui même mais plutôt par le fait qu’il représente un danger pour eux.
Ce fut pareil pour le porno à une époque. La morale, les bonnes mœurs, etc. Toujours est-il que le porno représente une part clairement non négligeable du trafic web dans le monde…
Mais ce que je trouve encore plus choquant c’est quand on entent parler :
Y’a des points de vue qui me seront décidément toujours étrangers.
Le 27/06/2019 à 09h55
même réaction en lisant la news " />
on peut tout filmer et prétendre au fake ensuite, tranquille " />
Le 27/06/2019 à 09h58
Le 27/06/2019 à 09h59
Même si je te suis sur une partie, il y a un point que tu oublies largement.
Le problème de harcèlement Moral.
Même si c’est faux, le fait que les autres pensent que ça soit vrais suffit à ce que ta vie devienne un enfer.
Une réputation ça se détruit très rapidement, alors que pour la reconstruire, même si le point qui l’a détruit est faux, c’est bien plus compliqué.
Et c’est bien là tout le problème.
Et clairement, les dérives qui risquent d’arriver peuvent justement ressortir au niveau des jeunes…
Bah oui je clique sur un bouton et j’ai une image “fausse” mais très plausible. C’est à la portée de tout le monde en somme. C’est donc un point de pression supplémentaire.
APrès même si l’excuse du gars est bidon, il est clair que si ce n’est pas lui ça sortira bien un jour malheureusement…
Après oui il y a des choses aussi importantes dans le monde mais ce n’est pas pour ça qu’il faut sous estimer le problème adjacent. ;) Ce n’est pas qu’une question de morale en fait, mais bien plus complexe que ça. Notre société/monde passe son temps à juger, et pour beaucoup c’est un enfer si tu es du mauvais côté et que tu ne suis pas les standards.
Le 27/06/2019 à 10h05
Le 27/06/2019 à 10h11
Un abruti de plus… Encore un qui croit qu’être derrière un ordinateur et loin de ses victimes dédouane de tout.
Après il va pleurer comme un bébé le jour de son procès en affirmant n’avoir développer qu’un “outil innocent”.
Le 27/06/2019 à 10h12
Le 27/06/2019 à 10h37
C’est absolument terrifiant […] Désormais, n’importe qui peut se trouver victime de revenge porn sans avoir jamais pris de photo nue.
" /> C’est très facile à débunker en diffusant une photo/video originale. " /> " />
Le 27/06/2019 à 11h31
Ok. En fait je crois que nous sommes d’accord, mais juste pas sur la même longueur d’onde.
Ce que tu as en tête, c’est par exemple la situation d’un homme qui utiliserait ce logiciel avec des photos de vacances de son ancienne petite amie, puis qui diffuserait le résultat.
Moi, ce que j’ai en tête, c’est une personne qui utilise ce logiciel avec des photos accessible à tous (par exemple sur Instagram), et qui ne conserverait le résultat qu’à titre purement privé (aucune diffusion donc) ; personne d’autre ne connaîtrait l’existence-même de ces montages.
Dans le premier cas, il y a effectivement non-respect de la vie privée (dès lors que la photo diffusée est issue d’un contexte privé et même en l’absence de montage, d’ailleurs), et une atteinte à la représentation de la personne (dès lors qu’il y a diffusion du montage et même si la photo originale est publique, d’ailleurs).
Mais dans le second cas, qu’y a-t-il d’illégal ? de problématique ?
Le 27/06/2019 à 11h45
Tiens, puisqu’on parle de photo montages, quelqu’un sait ce qu’il est arrivé de la plainte de Quantic Dream ?
Le 27/06/2019 à 11h47
" />
Le 27/06/2019 à 12h00
Le 27/06/2019 à 12h05
Beaucoup de flous et autres artefacts sur les quelques exemples sur Motherboard… pas de quoi y croire…
Peut mieux faire " />
Le 27/06/2019 à 12h10
Le 27/06/2019 à 12h13
Ils ont entraîné l’app sur du porno japonais, du coup on voit que des pixels.
Le 27/06/2019 à 12h20
" />" />
Le 27/06/2019 à 12h35
Boarf, une fois qu’on sera tous à poil (fake ou non), plus personne ne sera choqué par la simple nudité…
Le 27/06/2019 à 13h09
Le 27/06/2019 à 13h12
Il est effectivement possible de faire ce genre de montage sur photoshop mais pour parvenir à un résultat réaliste ça peut prendre beaucoup de temps, car photoshop c’est de la marde ! Deep Fake est un logiciel très évolué et les studio de cinémas commencent à ce pencher dessus çar potentiellement ça peut leur faire économiser des millions de dollars.
Le pire c’est de vouloir faire du blé avec ça, “heureusement” que dans quelques jours ce logiciel sera disponible gratuitement sur le web. Mais d’un autre côté l’auteur n’a pas tord, un programme du même type sera forcément disponible un jour ou l’autre au moins pour des gens habillés car c’est vraiment très pratique.
Le 27/06/2019 à 13h22
Le 27/06/2019 à 13h27
Le 27/06/2019 à 13h35
Deep Fake n’est pas un logiciel, mais une méthode. C’est l’utilisation de l’apprentissage profond (deep learning/réseau de neurone profond) pour créer un faux, souvent une image ou une vidéo de quelqu’un.
En soit, on arrive même à faire des trucs presque convaincant (this person does not exist) mais on voit aussi que l’outil n’est pas trop mauvais pour les visage (les “textures” sont quand même dégueux), mais pour les fonds et les vêtement, c’est n’importe quoi.
En soit, ça peut permettre de faire le gros boulots, mais les détails vont toujours nécessité de passer par des mains humaines. Ca peut effectivement avoir son utilité pour faire des effet peut détaillé à moindre coût (genre une foule de M. Smith), mais lorsqu’il faudra quelque chose de détaillé, la 3D est bien plus efficace pour l’instant, ça nécessite un gros boulot en amont pour la modélisation, le reste ne demande pas plus de boulot que le deepfake, mais le résultat est aujourd’hui bien meilleur (et je pense qu’il le restera bien longtemps).
Le 27/06/2019 à 14h00
Plus personne ne modélise un visage à la mano si l’acteur est vivant, il y à des scanner haute résolution pour ça. Et tu peut très bien par la suite utiliser des rendus pour nourrir le réseaux. Et dans la vidéo à remplacer tu peut faire un maquillage spécial qui sera optimisé pour le réseau.
Le 27/06/2019 à 14h22
ou des bourreaux/militaires qui obéissent à un mauvais ordre.
Le 27/06/2019 à 14h25
ou un professeur…
Le 27/06/2019 à 14h27
Wait… juste une image? effectivement, pas de quoi crier au scandale, on peut faire aussi bien en s’appliquant sur un logiciel de photo.
Par contre, il y a foule dès qu’une brève parle pron ^^
Le 27/06/2019 à 14h40
Si tu as le modèle haute fidélité, surtout pour un truc qui va être au premier plan, autant faire de l’incrustation 3D. Tu es sûr du coût et de la qualité du résultat : tu n’as pas à gérer les artefact et les “cas difficile” (vu que le Deep Learning est basé sur des statistiques, quelque chose qui sort de l’ordinaire devient plus difficile).
Après, le DL peut avoir sont intérêt lorsque tu veux générer un truc au second plan. Tu n’as pas forcément besoin de quelque chose de détaillé. Là le DL peut être rapide et pas cher.
Le DL apporte sont lots de limites et de problème. Ce n’est pas magique.
Le 27/06/2019 à 15h06
Le 27/06/2019 à 17h29
« C’est absolument terrifiant […] Désormais, n’importe qui peut se trouver victime de revenge porn sans avoir jamais pris de photo nue. Cette technologie ne devrait pas être accessible au public »
et donc… qui devrait y avoir accès ? L’armée ? " />
Le 27/06/2019 à 17h33
Le 27/06/2019 à 18h51
Pour la question de la légalité, si le seul paramètre qui compte est la mention d’un montage, le concepteur peut rajouter par défaut l’ajout de cette dernière et ça devient légal à défaut d’être moral.
Et justement, au delà de l’aspect moral de la chose, cela montre à quel point l’usage des « IA » pour à peu près tout peut être ravageur. D’un côté on fait de la nudité, de l’autre on peut faire un faux mettant une personne dans une situation légalement intolérable. On savait déjà truquer de vieilles photographies avant Photoshop de toute façon, mais ce n’était pas à la portée de tous… Et oui on a déjà des applications qui font un peu cela mais en mauvaise qualité. A mesure que la qualité va augmenter, il sera difficile de discerner la vérité et à la victime de prouver que le contenu du fake n’est jamais arrivé.
Le problème est qu’il a raison, si ce n’était pas lui cette fois, quelqu’un d’autre l’aurait fait de toute façon. On pourrait empêcher la diffusion de ces outils au grand public mais ça n’empêchera pas leur diffusion illégale ou la conception privée.
Il va falloir s’habituer à vivre dans une ère où tout est faux.
Le 27/06/2019 à 21h45
" /> Je disais “une photo/video originale” pas “la photo/video originale” et le " /> laissait entendre quel type d’originalité. " />
Le 27/06/2019 à 21h55
C’est absolument terrifiant […] Désormais, n’importe qui peut se trouver victime de revenge porn sans avoir jamais pris de photo nue.
Les femmes devraient se regrouper pour hacker ce programme en détournant son usage contre les hommes en les montrant avec une petite bite.
" /> 10 000 photos de petits sexes doit pouvoir se trouver en écumant le porn asiatique. " />
Le 27/06/2019 à 22h41
48 commentaires contre 3⁄4 pour les autres brèves, ce serait une fakenews cette app ? " />
Le 28/06/2019 à 07h34
Ça va, pas de quoi flipper…
La prochaine version disposera d’un accès aux bases d’ADN et des historiques des opérations médicales (via Google Health) pour reproduire les cicatrices de césarienne et placer correctement les taches de rousseurs.
Merde j’ai trop d’idée ! Il faut que je monte une startup…
…ou pas.
Le 28/06/2019 à 10h32
Calomniez, calomniez, il en restera toujours quelque chose !