Le FBI observe une augmentation des tentatives de sextorsions au moyen de deepfakes

Le FBI observe une augmentation des tentatives de sextorsions au moyen de deepfakes

Le FBI observe une augmentation des tentatives de sextorsions au moyen de deepfakes

Le FBI observe une augmentation des plaintes de victimes de sextorsion, y compris d'enfants mineurs, dont les photos ou vidéos ont été transformées en contenus explicites synthétiques (ou « deepfakes »).

Les photos et vidéos, récupérées notamment sur les réseaux sociaux, ou demandées aux victimes, sont manipulées de sorte de faire apparaître leurs visages sur des contenus à caractère explicites, qui sont ensuite publiées sur des réseaux sociaux, forums publics ou sites pornographiques :

« De nombreuses victimes, dont des mineurs, ignorent que leurs images ont été copiées, manipulées et diffusées jusqu'à ce qu'elles soient portées à leur attention par quelqu'un d'autre. Les photos sont ensuite envoyées directement aux victimes par des acteurs malveillants pour sextorsion ou harcèlement, ou jusqu'à ce qu'elles soient autodécouvertes sur Internet. »

Les acteurs malveillants exigeaient généralement soit le paiement de rançons en menaçant les victimes de partager les images ou vidéos avec des membres de la famille ou des amis, ou encore pour retirer les vidéos des sites où elles ont été partagées, soit que la victime envoie de vraies images ou vidéos à caractère sexuel.

Le FBI invite les parents à en parler à leurs enfants, afin de les sensibiliser à ce type de sextorsions. D'après Decrypt, le FBI et ses partenaires avaient recensé 7 000 tentatives de sextorsions visant « au moins 3 000 mineurs » l'an passé, dont plus de 12 se seraient suicidés.

Commentaires (12)


Voilà qui rappelle l’importance de la vie privée et qu’il faut faire attention à la portée de ce qu’on publie sur ces médias sociaux. Même si la victime n’est pas à blâmer, ça peut faire prendre conscience que ce qui est public est, par définition, accessible à tous (merci Captain Obvious, mais ça l’est pas forcément pour tout le monde) y compris aux plus tordus. Au même titre où à l’époque (je ne sais pas si c’est toujours en vigueur) les éditeurs des services en lignes de médias sociaux s’octroyaient une license d’exploitation des contenus publiés par les utilisateurs.



Cela dit, dans le cas du “soit que la victime envoie de vraies images ou vidéos à caractère sexuel”, là pour le coup la victime on peut plus rien pour elle.



Un autre élément que je vois, et ici on est aux USA donc encore plus fort, c’est tout simplement le rapport à la sexualité. Le fait qu’elle soit considérée comme honteuse par beaucoup alimente aussi ce genre d’arnaque à cause de la peur des conséquences.


J’ai quand même un peu de mal à comprendre en quoi le deepfake est un gros problème.



La victime sait que c’est faux, donc la menace c’est “juste” de diffuser un mensonge.



Je ne veux pas dire que ce n’est pas problématique (illégal et immoral), mais à partir du moment où ce n’est pas vrai j’ai du mal à comprendre en quoi c’est un drame.



Honnêtement, je pensais que le deefake aurait l’effet inverse, à partir du moment où c’est simple de créer un faux, les vrai images ont moins de valeur (une victime pourrait prétendre que c’est un fake et passer à autre chose).



Je précise que je ne comprends pas le problème, pas qu’il n’y en a pas.


Parce que beaucoup ne vivent que par et pour les réseaux sociaux, et qu’une vidéo, même fausse, va tout détruire.



Tu auras beau dire que la vidéo est fausse, la plupart des gens ne croiront que ce qu’ils voient.


Gamble

Parce que beaucoup ne vivent que par et pour les réseaux sociaux, et qu’une vidéo, même fausse, va tout détruire.



Tu auras beau dire que la vidéo est fausse, la plupart des gens ne croiront que ce qu’ils voient.


Ok, l’enfer c’est les autres. Je comprends un peu mieux le problème.


Gamble

Parce que beaucoup ne vivent que par et pour les réseaux sociaux, et qu’une vidéo, même fausse, va tout détruire.



Tu auras beau dire que la vidéo est fausse, la plupart des gens ne croiront que ce qu’ils voient.


Aucun rapport avec ça. Les enfants expérimentent ça bien avant les réseaux et les ado aussi avant cette ère.


C’est comme la différence entre accusation et condamnation.



D’un côté, une personne accusée de quelque chose de très mal vu par la société (viol, etc) est condamnée à l’avance avec des répercutions parfois immédiates sur sa vie (perte d’emploi, bannissement social, etc).



Puis, vient l’étape où la justice, la vraie, pas la vindicte populaire, a tranché et a blanchi la personne accusée. Ben trop tard, la vindicte populaire avait déjà choisi et condamné et la personne est marquée.



Ici c’est la même chose : quand bien même le contenu soit mensonger, que la victime en est parfaitement consciente, l’impact social autour de ce type de contenu a des effets sur la vie de ces personnes. Il suffit par exemple de voir comment on considère les travailleurs du sexe.


J’ai aussi du mal à comprendre comment on peut considérer qu’une fille qui s’est fait violée est une s… ou une p…, mais c’est malheureusement une opinion trop répandue. C’est le même phénomène ici, même si c’est du faux, ça a un impact sur ton image dans le regard de beaucoup.



misocard a dit:


J’ai quand même un peu de mal à comprendre en quoi le deepfake est un gros problème.



La victime sait que c’est faux, donc la menace c’est “juste” de diffuser un mensonge.



Je ne veux pas dire que ce n’est pas problématique (illégal et immoral), mais à partir du moment où ce n’est pas vrai j’ai du mal à comprendre en quoi c’est un drame.



Honnêtement, je pensais que le deefake aurait l’effet inverse, à partir du moment où c’est simple de créer un faux, les vrai images ont moins de valeur (une victime pourrait prétendre que c’est un fake et passer à autre chose).




Pour moi le but de l’extorqueur n’est pas de “faire croire” à la victime quoique ce soit (elle, elle sait bien qu’elle n’a pas pris ces clichés).
La menace c’est d’insinuer le doute chez ses amis, famille, collègues.



On parle ici de sexe mais c’est à mon avis LARGEMENT plus problématique que ça:
On peux faire dire à quelqu’un des choses qu’il n’a pas dite.
On peux montrer des gens dans des situation ou à des endroits où ils n’étaient pas.



Imaginez ce que ça peux donner en politique, ou dans la diplomatie.
Ou dans les enquêtes policières, où les flics te montreront des photos de toi avec des gens que tu n’a jamais connu, ou des enregistrements avec ta voix, que ce soit pour prêcher le faux pour savoir le vrai ou “simplement” pour créer des preuves de toute pièces (cf la news d’hier sur les “écoterroristes”.



Dans l’autre sens, une personne publique pourra toujours se défendre de tout avec un argument type “mais qui vous dit que ce document n’est pas un deepfake” ?



Pour en revenir à ce que Cumbalero disais ici https://www.nextinpact.com/inpactien/255982 : Demain le problème ce sera pas de prendre une vidéo de toi tout nu sans la tête: Ce sera que ta tête sera mise sur une vidéo d’une autre personne et que l’informatique rendra ça si réaliste qu’il sera impossible de distinguer la supercherie.
Et les démentis seront inutiles, car le but est de créer le doute, pas de créer une vérité immuable.



A une époque pas si lointaine le doute était léthal : Dieu existait, dieu te disait comment vivre et la moindre remise en question de ce fait te valait le bucher pour faire peur aux autres.



Aujourd’hui on en arrive à l’inverse, où il va devenir pratiquement impossible de savoir si le moindre document écrit, audio ou vidéo représente un fait réel ou pas. Déjà que l’enseignement est un métier difficile…. ca va rien arranger.



C’est surtout ça qui me fait peur, à titre personnel.


J’entends ce que tu dis, mais à partir du moment où c’est simple de faire du faux, c’est idiot de croire que tout est vrai.



Je fais certainement l’erreur de me dire que les gens pensent comme moi. Mais ce qu’apportent les deep fake et autres c’est un doute sur le vrai, pas une véracité du faux.



Mais j’ai bien compris des interventions précédentes que pour une part de la population ça peut avoir un impact sur la réputation par ce qu’une autre part de la population juge le sexe et la nudité immoral.
(l’exemple des victimes de viol est très parlant).



misocard a dit:


J’entends ce que tu dis, mais à partir du moment où c’est simple de faire du faux, c’est idiot de croire que tout est vrai.




Tu as un raisonnement très mature et pertinent (que je partage), mais hélas la profusion de mensonges postés sur les médias sociaux qui sont montés en épingle grâce à l’aspect viral de l’information sur ces plateformes démontre que la société représentée par eux en pense l’inverse.



Perso j’écoute quasi quotidiennement la rubrique “vrai ou fake” de FranceInfo et on ne peut que constater l’absence de regard critique sur les contenus partagés (y compris par les personnalités politique). Cela avait d’ailleurs été démontré il me semble : les contenus repartagés ne sont quasi jamais lus. Du moment que ça fait le buzz et monter le compteur de “like”.



misocard a dit:


J’ai quand même un peu de mal à comprendre en quoi le deepfake est un gros problème.
La victime sait que c’est faux, donc la menace c’est “juste” de diffuser un mensonge.




la victime a un peu de mal à imaginer ce que vont penser les gens à qui elle est sensée être envoyée.



Sincèrement, si vous recevez de telles images de vous, est-ce que vous les enverriez à vos connaissances avec en titre “regarder le gros deepfake ridicule que j’ai reçu” ?


Sans aller jusque là, la question que je me suis posé c’est “et si ça m’arrivait”.



Globalement, ça m’ennuierait, mais sans plus.



Je ne la diffuserait pas à mes connaissances vu que je n’ai pas tendance à partager du contenu pornographique.
Mais si ça devait arriver ils auront plus tendance à me soutenir qu’autre chose (même si c’était du vrai contenu privé)


Fermer