DeepNude (Deepfakes) : une « horrible » application pour déshabiller les femmes

DeepNude (Deepfakes) : une « horrible » application pour déshabiller les femmes

DeepNude (Deepfakes) : une « horrible » application pour déshabiller les femmes

Motherboard s'est penché sur cette application qu'il qualifie d'horrible. Elle utilise l'intelligence artificielle afin de « déshabiller » les femmes. En l'occurrence, il s'agit surtout de créer une fausse image en gardant leur tête et la position de leur corps.

Pour rappel, des vidéos « deepfakes » avec des têtes de personnalités placées sur le corps d'autres personnes (notamment des acteurs/actrices pornos) existent depuis longtemps. Les femmes étaient principalement ciblées, avec DeepNude la situation ne fait que s'aggraver. Le logiciel est en vente pour 50 dollars avec « une offre promotionnelle ». 

Les réactions ne se sont pas fait attendre : « C'est absolument terrifiant [...] Désormais, n'importe qui peut se trouver victime de revenge porn sans avoir jamais pris de photo nue. Cette technologie ne devrait pas être accessible au public », affirme Katelyn Bowden, fondatrice et dirigeante d'une association luttant contre le revenge porn. « C'est une atteinte à la vie privée sexuelle [...] Oui, ce n'est pas votre vagin, mais… d'autres pensent qu'ils vous voient nue », lâche une professeure de droit.

Interrogé par nos confrères, le créateur de l'application explique qu'elle se base sur pix2pix, un algorithme open source développé par des chercheurs en 2017. Plus de 10 000 photos de femmes nues ont été utilisées pour entraîner l'algorithme. 

Il ajoute qu'il espère proposer prochainement une version pour les hommes. « Je pense que ce que vous pouvez faire avec DeepNude, vous pouvez très bien le réaliser avec Photoshop [...] si quelqu'un a de mauvaises intentions, DeepNude ne change pas grand-chose… Si je ne l'avais pas fait, quelqu'un d'autre l'aurait fait. », ajoute-t-il pour se dédouaner. 

Commentaires (51)




Si je ne l’avais fais pas, quelqu’un d’autre l’aurait fait.



meilleure justification du monde <img data-src=" />


Au contraire c’est une très bonne nouvelle pour les femmes. Si elles sont victimes de revenge porn, elles pourront toujours crier au fake


Les deepfakes savent parfois être très drôles

&nbsp;TheOffice US Jim/Dwighthttps://www.youtube.com/watch?v=2H8ZAIxuyaw




« Je pense que ce que vous pouvez faire avec DeepNude, vous pouvez très bien le réaliser avec Photoshop […] si

quelqu’un a de mauvaises intentions, DeepNude ne change pas

grand-chose… Si je ne l’avais fais pas, quelqu’un d’autre l’aurait fait. », ajoute-t-il pour se dédouaner..



C’est tout pourri comme excuse, ça. Si tu penses que tu n’as rien fait d’immoral, alors tu défends directement tes actions.



Je vais prendre une opinion non-consensuelle, mais au fond, n’est-ce pas justement l’outil qui mettra fin au porno vengeur ? Par définition, toute photo de nue sera suspectée d’être une contrefaçon, et donc les salauds n’auront plus d’intérêt à diffuser les nus authentiques.



Quant à l’argument&nbsp; « Oui, ce n’est pas votre vagin, mais… d’autres pensent qu’ils vous voient nue », n’est-ce pas ce que fait l’humanité depuis fort longtemps, en usant de son imagination ?



&nbsp;« C’est une atteinte à la vie privée sexuelle » : je ne vois pas en quoi. Si la photo originale est obtenue légalement, il n’y a pas plus d’atteinte à la vie privée qu’en usant (encore une fois) de son imagination. Si le montage est diffusé, c’est un problème de droit à l’image, il y aura des recours possibles contre cela. Si la photo originale est obtenue illégalement, c’est évidemment une atteinte à la vie privée, mais pas sexuelle.

&nbsp;


https://www.legifrance.gouv.fr/affichCodeArticle.do?cidTexte=LEGITEXT000006070719&amp;idArticle=LEGIARTI000006417938



“Est puni d’un an d’emprisonnement et de 15 000 euros d’amende le fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention.“Et je pense qu’il y a au moins une dizaine de texte de loi justifiant que c’est illégale dans le droit francais. Droit à l’image, atteinte à la vie privée, diffamation, harcèlement, ….

&nbsp;

Et p-e parce que t’as pas envie que ton employeur, tes enfants, tes parents ou grands parents, tes clients,… tombent sur ces images en 3 clics sur google.



Et même si c’est un fake j’aimerais pas avoir cette discussion avec mon patron ou mes grands parents que non le sexe qu’il voit sur mon corps n’est pas le mien.


On attend les applications en réalité augmenté maintenant !


“Désormais, n’importe qui peut se trouver victime de revenge porn sans avoir jamais pris de photo nue.” Une autre façon de voir les choses c’est qu’une femme victime de revenge porn réel pourra toujours dire que c’est un fake…


Y’a vraiment de bons tarés sur cette terre.

J’ai vomi à la lecture de sa justification. Comme dirait Sadin : “Honte sur vous (pov’ blaireau)”


Il ne faut pas 3 clics pour tomber sur ces images.

Tes enfants, ton patron devront expliquer pourquoi ils étaient sur de tels site.

Si c’est vraiment très répandu les personnes y prêteront de moins en moins d’intérêt…



Ca va être plus délicat de justifier la présence sur des sites cochons, de justifier qu’on ai pu penser voir telle personne respectable s’afficher…


Je crois que la seule issue, c’est de tous publier une photo de soi à poil sur Internet. D’ailleurs, c’est l’été, il fait chaud, alors profitons-en : tous à poil sur Internet <img data-src=" />


C’est bien de commenter, c’est mieux de lire avant. Je me cite :









tnetennba a écrit :



Si le

montage est diffusé, c’est un problème de droit à l’image, il y aura des



recours possibles contre cela.







Je n’ai jamais dit que ce n’était pas illégal, j’ai dit que ce n’était pas une atteinte à la vie privée. L’article du code pénal que tu cites ne me contredit pas, et même il va dans mon sens, puisqu’il est rangé dans la section « De l’atteinte à la représentation de la personne », ce qui probablement la bonne terminaison pour « droit à l’image » (du moins tel que je me figurais cette notion ; il est possible que cette notion existe et n’ait rien à voir, je ne suis pas juriste).



Ensuite, l’usage d’un tel logiciel ne s’accompagnera pas forcément de la diffusion des montages obtenus (ce que tu sembles supposer, je me trompe peut-être).



Je suis d’accord. Mais actuellement, j’ai aussi l’impression que l’on vit dans une société d’oppression et de mulets qui ne réfléchissent pas.


Le “deep-fake” reste effectivement un photoshopage (plus ou moins bien réussi) automatisé à la porté de tous.



Maitenant, légalement, si ce qui est possible de faire avec l’un est interdit, il doit l’être avec l’autre.



Le fait de truquer des photos pour coller le visage de quelqu’un sur un corps nu n’est pas nouveau (déjà dans GTO datant de 1997, après le photomontage où Onizuka se retrouve dans des positions SM, il demande à l’auteur de lui truquer des photos de femme dont Fuyutsuki). Il y a donc eu sûrement des affaire : quel sont les conclusions ?


Le droit à l’image fait partie de la vie privée.

https://www.juritravail.com/Actualite/vie-privee/Id/251841

https://www.service-public.fr/particuliers/vosdroits/F32103



Et évidemment que ca s’accompagne pas à 100% de la diffusion mais rien n’empêche la diffusion.


[…&nbsp; lle […] Oui, ce n’est pas votre vagin, mais… d’autre …]



C’est quand même très intrusif, pour rappel le vagin est un organe interne …


&nbsp;Dès qu’on touche à la nudité tout le monde y va de son effroi. La main sur le thorax, la bouche bée, en poussant un “han” qui ferai presque penser à un orgasme (étonnant non?). La morale est atteinte tout le monde est choqué (enfin le prétend). Pas tant par le problème en lui même mais plutôt par le fait qu’il représente un danger pour eux.



Ce fut pareil pour le porno à une époque. La morale, les bonnes mœurs, etc. Toujours est-il que le porno représente une part clairement non négligeable du trafic web dans le monde…

&nbsp;

Mais ce que je trouve encore plus choquant c’est quand on entent parler :





  • de employés chinois qui se suicident dans l’usine Apple, on met des grillages sans plus de commentaires…

  • d’une grosse inondation en Malaisie qui emporte des quartiers/villes entier(es), on se dit qu’il faudra attendre encore un peu le dernier boîtier Nikon et que le prix de la RAM va grimper.

  • de rotten.com (fermé aujourd’hui après 10 ans de bon et loyaux services), 4chan ou autre sites web limite et consort… “Nan; ça va” dit-on…

  • d’une usine française qui rejette 100 plus de Bore qu’elle ne devrait. “Nan mais c’est des copains”, peut-on entendre.



    Y’a des points de vue qui me seront décidément toujours étrangers.



    &nbsp;

    &nbsp;


même réaction en lisant la news <img data-src=" />



on peut tout filmer et prétendre au fake ensuite, tranquille <img data-src=" />








le podoclaste a écrit :



Je crois que la seule issue, c’est de tous publier une photo de soi à poil sur Internet. D’ailleurs, c’est l’été, il fait chaud, alors profitons-en : tous à poil sur Internet <img data-src=" />





“non mais il fait froid dans la fibre optique, tu comprends..” <img data-src=" />



Même si je te suis sur une partie, il y a un point que tu oublies largement.

Le problème de harcèlement Moral.

Même si c’est faux, le fait que les autres pensent que ça soit vrais suffit à ce que ta vie devienne un enfer.



Une réputation ça se détruit très rapidement, alors que pour la reconstruire, même si le point qui l’a détruit est faux, c’est bien plus compliqué.

Et c’est bien là tout le problème.





Et clairement, les dérives qui risquent d’arriver peuvent justement ressortir au niveau des jeunes…

Bah oui je clique sur un bouton et j’ai une image “fausse” mais très plausible. C’est à la portée de tout le monde en somme. C’est donc un point de pression supplémentaire.





APrès même si l’excuse du gars est bidon, il est clair que si ce n’est pas lui ça sortira bien un jour malheureusement…





Après oui il y a des choses aussi importantes dans le monde mais ce n’est pas pour ça qu’il faut sous estimer le problème adjacent. ;) Ce n’est pas qu’une question de morale en fait, mais bien plus complexe que ça. Notre société/monde passe son temps à juger, et pour beaucoup c’est un enfer si tu es du mauvais côté et que tu ne suis pas les standards.








WereWindle a écrit :



meilleure justification du monde <img data-src=" />





C’est clair, grâce à cette justification, on peut coucher avec sa soeur/frère/fils/fille !



Un abruti de plus… Encore un qui croit qu’être derrière un ordinateur et loin de ses victimes dédouane de tout.



Après il va pleurer comme un bébé le jour de son procès en affirmant n’avoir développer qu’un “outil innocent”.








Marc4444 a écrit :



[…  lle […] Oui, ce n’est pas votre vagin, mais… d’autre …]



C’est quand même très intrusif, pour rappel le vagin est un organe interne …





C’est un problème de traduction et d’utilisation du mot par les Américains.

“Vagina” est la traduction de “Vagin”, et désigne exactement la même chose, effectivement l’organe.

Mais les américains dans le langage “courant” utilisent aussi le mot “Vagina” pour désigner le sexe d’une femme dans son ensemble.





C’est absolument terrifiant […] Désormais, n’importe qui peut se trouver victime de revenge porn sans avoir jamais pris de photo nue.



<img data-src=" /> C’est très facile à débunker en diffusant une photo/video originale. <img data-src=" /> <img data-src=" />


Ok. En fait je crois que nous sommes d’accord, mais juste pas sur la même longueur d’onde.



Ce que tu as en tête, c’est par exemple la situation d’un homme qui utiliserait ce logiciel avec des photos de vacances de son ancienne petite amie, puis qui diffuserait le résultat.



Moi, ce que j’ai en tête, c’est une personne qui utilise ce logiciel avec des photos accessible à tous (par exemple sur Instagram), et qui ne conserverait le résultat qu’à titre purement privé (aucune diffusion donc) ; personne d’autre ne connaîtrait l’existence-même de ces montages.



Dans le premier cas, il y a effectivement non-respect de la vie privée (dès lors que la photo diffusée est issue d’un contexte privé et même en l’absence de montage, d’ailleurs), et une atteinte à la représentation de la personne (dès lors qu’il y a diffusion du montage et même si la photo originale est publique, d’ailleurs).



Mais dans le second cas, qu’y a-t-il d’illégal ? de problématique ?


Tiens, puisqu’on parle de photo montages, quelqu’un sait ce qu’il est arrivé de la plainte de Quantic Dream ?


<img data-src=" />








WereWindle a écrit :



meilleure justification du monde <img data-src=" />







[mode godwin]c’est ce qu’on dit les nazis[/mode godwin]



Beaucoup de flous et autres artefacts sur les quelques exemples sur Motherboard… pas de quoi y croire…

Peut mieux faire <img data-src=" />








Marc4444 a écrit :



[…  lle […] Oui, ce n’est pas votre vagin, mais… d’autre …]



C’est quand même très intrusif, pour rappel le vagin est un organe interne …







C’est le coté Deep du Deep fake.







esver a écrit :



C’est clair, grâce à cette justification, on peut coucher avec sa soeur/frère/fils/fille !





Pour la sœur/frère, je ne vois rien qui l’interdirait. Pour la fille/fils, il faut faire attention, ça pourrait tomber sur les cas similaire que prof/élève avec le problème d’abus de position (ça porte un nom que j’ai oublié). Mais en soit, ce n’est que très récemment que l’on considère l’inceste comme immorale. Beaucoup de personnes célèbres, même de ce siècle, était marié à leur cousin/cousine. Par exemple je pense à Albert Einstein qui a épouse en second épouse sa cousine Elsa (et pas qu’une fois, elle était doublement sa cousine : tout une histoire de famille).



Ils ont entraîné l’app sur du porno japonais, du coup on voit que des pixels.


<img data-src=" /><img data-src=" />


Boarf, une fois qu’on sera tous à poil (fake ou non), plus personne ne sera choqué par la simple nudité…








choukky a écrit :



<img data-src=" /> C’est très facile à débunker en diffusant une photo/video originale. <img data-src=" /> <img data-src=" />





Mais les gens diront que la victime a utilisé l’appli « DeepDressed » qui permet de rhabiller une photo de nu.



Il est effectivement possible de faire ce genre de montage sur photoshop mais pour parvenir à un résultat réaliste ça peut prendre beaucoup de temps, car photoshop c’est de la marde ! Deep Fake est un logiciel très évolué et les studio de cinémas commencent à ce pencher dessus çar potentiellement ça peut leur faire économiser des millions de dollars.



Le pire c’est de vouloir faire du blé avec ça, “heureusement” que dans quelques jours ce logiciel sera disponible gratuitement sur le web. Mais d’un autre côté l’auteur n’a pas tord, un programme du même type sera forcément disponible un jour ou l’autre au moins pour des gens habillés car c’est vraiment très pratique.








WereWindle a écrit :



meilleure justification du monde <img data-src=" />





C’est surtout celle de tous les vendeurs d’armes et autres trucs du genre dans nos beaux pays “civilisés”









Toorist a écrit :



C’est un problème de traduction et d’utilisation du mot par les Américains.

“Vagina” est la traduction de “Vagin”, et désigne exactement la même chose, effectivement l’organe.

Mais les américains dans le langage “courant” utilisent aussi le mot “Vagina” pour désigner le sexe d’une femme dans son ensemble.





<img data-src=" /> Ou même pour désigner une femme non? <img data-src=" />



Deep Fake n’est pas un logiciel, mais une méthode. C’est l’utilisation de l’apprentissage profond (deep learning/réseau de neurone profond) pour créer un faux, souvent une image ou une vidéo de quelqu’un.



En soit, on arrive même à faire des trucs presque convaincant (this person does not exist) mais on voit aussi que l’outil n’est pas trop mauvais pour les visage (les “textures” sont quand même dégueux), mais pour les fonds et les vêtement, c’est n’importe quoi.

En soit, ça peut permettre de faire le gros boulots, mais les détails vont toujours nécessité de passer par des mains humaines. Ca peut effectivement avoir son utilité pour faire des effet peut détaillé à moindre coût (genre une foule de M. Smith), mais lorsqu’il faudra quelque chose de détaillé, la 3D est bien plus efficace pour l’instant, ça nécessite un gros boulot en amont pour la modélisation, le reste ne demande pas plus de boulot que le deepfake, mais le résultat est aujourd’hui bien meilleur (et je pense qu’il le restera bien longtemps).


Plus personne ne modélise un visage à la mano si l’acteur est vivant, il y à des scanner haute résolution pour ça. Et tu peut très bien par la suite utiliser des rendus pour nourrir le réseaux. Et dans la vidéo à remplacer tu peut faire un maquillage spécial qui sera optimisé pour le réseau.


ou des bourreaux/militaires qui obéissent à un mauvais ordre.


ou un professeur…


Wait… juste une image? effectivement, pas de quoi crier au scandale, on peut faire aussi bien en s’appliquant sur un logiciel de photo.



Par contre, il y a foule dès qu’une brève parle pron ^^


Si tu as le modèle haute fidélité, surtout pour un truc qui va être au premier plan, autant faire de l’incrustation 3D. Tu es sûr du coût et de la qualité du résultat : tu n’as pas à gérer les artefact et les “cas difficile” (vu que le Deep Learning est basé sur des statistiques, quelque chose qui sort de l’ordinaire devient plus difficile).

Après, le DL peut avoir sont intérêt lorsque tu veux générer un truc au second plan. Tu n’as pas forcément besoin de quelque chose de détaillé. Là le DL peut être rapide et pas cher.



Le DL apporte sont lots de limites et de problème. Ce n’est pas magique.








TexMex a écrit :



Dès qu’on touche à la nudité tout le monde y va de son effroi. La main sur le thorax, la bouche bée, en poussant un “han” qui ferai presque penser à un orgasme (étonnant non?). La morale est atteinte tout le monde est choqué (enfin le prétend). Pas tant par le problème en lui même mais plutôt par le fait qu’il représente un danger pour eux.



Ce fut pareil pour le porno à une époque. La morale, les bonnes mœurs, etc. Toujours est-il que le porno représente une part clairement non négligeable du trafic web dans le monde…

 

Mais ce que je trouve encore plus choquant c’est quand on entent parler :





  • de employés chinois qui se suicident dans l’usine Apple, on met des grillages sans plus de commentaires…

  • d’une grosse inondation en Malaisie qui emporte des quartiers/villes entier(es), on se dit qu’il faudra attendre encore un peu le dernier boîtier Nikon et que le prix de la RAM va grimper.

  • de rotten.com (fermé aujourd’hui après 10 ans de bon et loyaux services), 4chan ou autre sites web limite et consort… “Nan; ça va” dit-on…

  • d’une usine française qui rejette 100 plus de Bore qu’elle ne devrait. “Nan mais c’est des copains”, peut-on entendre.



    Y’a des points de vue qui me seront décidément toujours étrangers.







    Ha merci. Tu me redonnes (un peu) foi en l’humanité.<img data-src=" />





« C’est absolument terrifiant […] Désormais, n’importe qui peut se trouver victime de revenge porn sans avoir jamais pris de photo nue. Cette technologie ne devrait pas être accessible au public »





et donc… qui devrait y avoir accès ? L’armée ? <img data-src=" />








tazvld a écrit :



…les cas similaire que prof/élève avec le problème d’abus de position (ça porte un nom que j’ai oublié)…







Demande à Brigitte Macron, elle a du étudier le dossier si elle a réussi à éviter les 3 ans de prison prévus <img data-src=" />



Pour la question de la légalité, si le seul paramètre qui compte est la mention d’un montage, le concepteur peut rajouter par défaut l’ajout de cette dernière et ça devient légal à défaut d’être moral.



Et justement, au delà de l’aspect moral de la chose, cela montre à quel point l’usage des « IA » pour à peu près tout peut être ravageur. D’un côté on fait de la nudité, de l’autre on peut faire un faux mettant une personne dans une situation légalement intolérable. On savait déjà truquer de vieilles photographies avant Photoshop de toute façon, mais ce n’était pas à la portée de tous… Et oui on a déjà des applications qui font un peu cela mais en mauvaise qualité. A mesure que la qualité va augmenter, il sera difficile de discerner la vérité et à la victime de prouver que le contenu du fake n’est jamais arrivé.



Le problème est qu’il a raison, si ce n’était pas lui cette fois, quelqu’un d’autre l’aurait fait de toute façon. On pourrait empêcher la diffusion de ces outils au grand public mais ça n’empêchera pas leur diffusion illégale ou la conception privée.

&nbsp;

Il va falloir s’habituer à vivre dans une ère où tout est faux.


<img data-src=" /> Je disais “une photo/video originale” pas “la photo/video originale” et le <img data-src=" /> laissait entendre quel type d’originalité. <img data-src=" />




C’est absolument terrifiant […] Désormais, n’importe qui peut se trouver victime de revenge porn sans avoir jamais pris de photo nue.

Les femmes devraient se regrouper pour hacker ce programme en détournant son usage contre les hommes en les montrant avec une petite bite.

<img data-src=" /> 10 000 photos de petits sexes doit pouvoir se trouver en écumant le porn asiatique. <img data-src=" />


48 commentaires contre 34 pour les autres brèves, ce serait une fakenews cette app ? <img data-src=" />


Ça va, pas de quoi flipper…

La prochaine version disposera d’un accès aux bases d’ADN et des historiques des opérations médicales (via Google Health) pour reproduire les cicatrices de césarienne et placer correctement les taches de rousseurs.



Merde j’ai trop d’idée&nbsp;! Il faut que je monte une startup…



&nbsp;…ou pas.


Calomniez, calomniez, il en restera toujours quelque chose !


Fermer