Deepfake audio : des voleurs se font passer pour un dirigeant et demandent le virement de 243 000 dollars
Le 03 septembre 2019 à 09h48
1 min
Sciences et espace
Si l'on connaît depuis longtemps des vidéos modifiées par une intelligence artificielle pour changer la tête et/ou le discours d'une personne, il en est de même pour l'audio uniquement.
L'année dernière, une étude du Future of Humanity Institute pointait les possibles effets pervers de l'intelligence artificielle (notamment les deepfakes). Cette année, Google a lancé un concours pour trouver des contre-mesures aux deepfakes audio.
Le risque est bien présent puisqu'une société allemande en a fait les frais, comme le rapporte The Next Web. Des voleurs ont imité la voix du patron de l'entreprise pour appeler le directeur d'une filiale et lui demander le virement en urgence de 243 000 dollars à un fournisseur hongrois.
Le dirigeant n'y a vu que du feu et pensait être en train de discuter avec son patron. Les voleurs ont tenté de demander un second virement, sans succès cette fois-ci. Les fonds ont ensuite été virés au Mexique et dans d'autres pays. Le nom de la société n'est pas précisé.
Un parfait exemple des risques liés aux deepfakes audio.
Le 03 septembre 2019 à 09h48
Commentaires (15)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 03/09/2019 à 08h44
#1
C’est fascinant les arnaques au président. Il est à la fois si facile de tomber dedans et si facile de s’en protéger.
Le 03/09/2019 à 08h50
#2
C’est réellement un danger des “deepfakes” ou simplement des procédures permettant de virer 243000$ vers un compte lambda sans vérification?
Le 03/09/2019 à 09h06
#3
Adobe avait la techno mais se sont retrouvé dans une impasse éthique
https://www.youtube.com/watch?v=I3l4XLZ59iw
Le 03/09/2019 à 09h18
#4
Didier Gustin ? Laurent Gerra ? Canteloup ?
Le 03/09/2019 à 09h41
#5
C’est du social engineering.
Le 03/09/2019 à 10h53
#6
Le 03/09/2019 à 11h13
#7
Le 03/09/2019 à 11h52
#8
Ca leur demande pas mal de temps de travail pour s’entrainer et c’est pas franchement toujours convaincant. Un ordinateur peut probablement faire mieux en ayant deux trois interviews sous la main pour s’entrainer, et surtout il s’entraîne en quelques heures max.
Le 03/09/2019 à 12h58
#9
Le 03/09/2019 à 13h11
#10
Là on est dans le cadre d’une entreprise, donc les virements de cet ordre ne sont sans doute pas exceptionnels (à partir du moment où tu as une filiale).
Le 03/09/2019 à 13h15
#11
On est pas dans le deepfake, mais l’auteur aurait pu rappelerl’arnaque au faux Jean-Yves Le Drian qui est assez savoureuse. Et plus coûteuse (80 millions d’euros)
Le 03/09/2019 à 17h07
#12
Il y a déjà avant le 21e siècle que la voix du président des États-Unis ne pouvait pas être utilisée pour valider un ordre de lancement de missile, car c’était déjà trop facile de la reproduire (avant même les “deep fakes”, aussi bien en prenant des mots dans des phrases et les recollant).
Le 03/09/2019 à 22h52
#13
Le 04/09/2019 à 07h32
#14
plus simple encore : s’il te donne l’ordre oralement, c’est un fake : tout le monde sait qu’il ne s’exprime que par Twitter " />
Le 04/09/2019 à 08h39
#15