Connexion
Abonnez-vous

Deepfake audio : des voleurs se font passer pour un dirigeant et demandent le virement de 243 000 dollars

Deepfake audio : des voleurs se font passer pour un dirigeant et demandent le virement de 243 000 dollars

Le 03 septembre 2019 à 09h48

Si l'on connaît depuis longtemps des vidéos modifiées par une intelligence artificielle pour changer la tête et/ou le discours d'une personne, il en est de même pour l'audio uniquement.

L'année dernière, une étude du Future of Humanity Institute pointait les possibles effets pervers de l'intelligence artificielle (notamment les deepfakes). Cette année, Google a lancé un concours pour trouver des contre-mesures aux deepfakes audio.

Le risque est bien présent puisqu'une société allemande en a fait les frais, comme le rapporte The Next Web. Des voleurs ont imité la voix du patron de l'entreprise pour appeler le directeur d'une filiale et lui demander le virement en urgence de 243 000 dollars à un fournisseur hongrois. 

Le dirigeant n'y a vu que du feu et pensait être en train de discuter avec son patron. Les voleurs ont tenté de demander un second virement, sans succès cette fois-ci. Les fonds ont ensuite été virés au Mexique et dans d'autres pays. Le nom de la société n'est pas précisé.

Un parfait exemple des risques liés aux deepfakes audio.

Le 03 septembre 2019 à 09h48

Commentaires (15)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

C’est fascinant les arnaques au président. Il est à la fois si facile de tomber dedans et si facile de s’en protéger.

votre avatar

C’est réellement un danger des “deepfakes” ou simplement des procédures permettant de virer 243000$ vers un compte lambda sans vérification?

votre avatar

Adobe avait la techno mais se sont retrouvé dans une impasse éthique



youtube.com YouTube

votre avatar

Didier Gustin ? Laurent Gerra ? Canteloup ? 

votre avatar

C’est du social engineering.

votre avatar







v1nce a écrit :



Didier Gustin ? Laurent Gerra ? Canteloup ? 







Un imitateur belge avait testé la reconnaissance d’apple, il avait réussis a “déverrouiller” l’iphone du premier ministre de l’époque&nbsp; en le faisant appeler un autre homme politique (il avait d’abord essayé de faire appeler Obama, mais pas présent dans le répertoire du PM&nbsp;<img data-src=" />&nbsp;&nbsp;)&nbsp; &nbsp; &nbsp;après ça avait fonctionné



facebook.com Facebookfacebook.com Facebook


votre avatar







Dj a écrit :



Un imitateur belge avait testé la reconnaissance d’apple, il avait réussis a “déverrouiller” l’iphone du premier ministre de l’époque  en le faisant appeler un autre homme politique (il avait d’abord essayé de faire appeler Obama, mais pas présent dans le répertoire du PM <img data-src=" />  )     après ça avait fonctionné



facebook.com Facebookil y a pleins de conneries là, car Siri ne déverrouille pas le tel, mais peut fonctionner le tel verrouiller si tu le spécifie dans les réglages, ce qui est fortement déconseillé pour le répertoire


votre avatar

Ca leur demande pas mal de temps de travail pour s’entrainer et c’est pas franchement toujours convaincant. Un ordinateur peut probablement faire mieux en ayant deux trois interviews sous la main pour s’entrainer, et surtout il s’entraîne en quelques heures max.

votre avatar







recoding a écrit :



C’est réellement un danger des “deepfakes” ou simplement des procédures permettant de virer 243000$ vers un compte lambda sans vérification?





Le véritable danger c’est que ce genre de somme pour eux équivaut à 1€ pour toi… La richesse devrait être limité pour permettre une redistribution. Je ne parlerais même pas du pouvoir que sa procure ni des cons que ça génère du type trump ou lepstein…


votre avatar

Là on est dans le cadre d’une entreprise, donc les virements de cet ordre ne sont sans doute pas exceptionnels (à partir du moment où tu as une filiale).

votre avatar

On est pas dans le deepfake, mais l’auteur aurait pu rappelerl’arnaque au faux Jean-Yves Le Drian qui est assez savoureuse. Et plus coûteuse (80 millions d’euros)

votre avatar

Il y a déjà avant le 21e siècle que la voix du président des États-Unis ne pouvait pas être utilisée pour valider un ordre de lancement de missile, car c’était déjà trop facile de la reproduire (avant même les “deep fakes”, aussi bien en prenant des mots dans des phrases et les recollant).

votre avatar







OlivierJ a écrit :



Il y a déjà avant le 21e siècle que la voix du président des États-Unis ne pouvait pas être utilisée pour valider un ordre de lancement de missile, car c’était déjà trop facile de la reproduire (avant même les “deep fakes”, aussi bien en prenant des mots dans des phrases et les recollant).





Alors qu’aujourd’hui, c’est plus simple à détecter : si leur président a plus de vocabulaire qu’un enfant de 3 ans et passe le test de Turing, on sait qu’on a affaire à un deep fake.


votre avatar

plus simple encore : s’il te donne l’ordre oralement, c’est un fake : tout le monde sait qu’il ne s’exprime que par Twitter <img data-src=" />

votre avatar







Ler van keeg a écrit :



Alors qu’aujourd’hui, c’est plus simple à détecter : si leur président a plus de vocabulaire qu’un enfant de 3 ans et passe le test de Turing, on sait qu’on a affaire à un deep fake.





Arf, tout de même.







WereWindle a écrit :



plus simple encore : s’il te donne l’ordre oralement, c’est un fake : tout le monde sait qu’il ne s’exprime que par Twitter <img data-src=" />





<img data-src=" />



(on hésite quand même entre rire et pleurer)


Deepfake audio : des voleurs se font passer pour un dirigeant et demandent le virement de 243 000 dollars

Fermer