Les générateurs de voix par intelligence artificielle, nouveaux vecteurs d’arnaques

Les générateurs de voix par intelligence artificielle, nouveaux vecteurs d’arnaques

Les générateurs de voix par intelligence artificielle, nouveaux vecteurs d’arnaques

Après les textos frauduleux, les faux messages vocaux. En permettant d’imiter des voix et d’y faire passer toute une série d’émotions de manière crédible, les technologies de génération de voix basées sur des modèles algorithmiques rendent beaucoup plus simples les arnaques téléphoniques vocales, rapporte le Washington Post.

Pour les victimes, il est encore plus compliqué de s’y retrouver que face à une arnaque faite par SMS ou messageries.

Ars Technica résume par exemple l’histoire d’un couple qui a envoyé 15 000 dollars en bitcoin à un arnaqueur après que celui-ci s’est fait passer pour leur fils. La voix synthétique leur avait expliqué qu’il avait besoin de cet argent pour obtenir une aide juridique, après avoir tué un diplomate américain dans un accident de voiture.

En 2022, rien qu’aux États-Unis, ce type d’arnaques téléphoniques a représenté le nombre le plus élevé de fraudes relevées par la Federal Trade Commission, pour un total de 11 millions de dollars subtilisés.

Commentaires (12)


Il n’y aurait alors que la prise d’empreintes vocales « offcielles » afin de vérifier la licéité d’opérations douteuses…



Quel monde merveilleux dans lequel les doubles « pensent » plus vite que leur ombre biologique sans qu’aucune ne puisse gouverner qui détient quoi et à quel dessein.



« La resistance à l’oppression devrait être interdite » - à en croire les financeurs de ces technologies aux multiples atteintes potentielles (et finalement certaines) aux êtres humains.


“Oui mon chéri, je vais t’envoyer de l’argent, mais d’abord, répond à la question de sécurité: quel est le nom de ton premier animal de compagnie ?”


Bonne chance à la jeune génération qui a posté des messages/photos/vidéos face caméra sur les réseaux sociaux.



La génération de deepfake sera d’autant plus simple que le matériel de base est aisément accessible.



(quote:2123029:127.0.0.1)
Bonne chance à la jeune génération qui a posté des messages/photos/vidéos face caméra sur les réseaux sociaux.



La génération de deepfake sera d’autant plus simple que le matériel de base est aisément accessible.




Mais tellement !


Le bitcoin est si répandu qu’un père paye l’équivalent de 15 000 dollars sans tiquer ?



« Tout ce que vous direz pourra être retenu et réutilisé contre vous »


Ars Technica tiens ça du Washington Post : https://www.washingtonpost.com/technology/2023/03/05/ai-voice-scam/
Apparemment le scammer c’est fait passer pour l’avocat du couple.



(reply:2123081:Mem’s)




…enfin l’avocat du fils. Le leur passe. Puis les rappelle pour demander de l’argent.
Le fils en question a une chaîne YouTube



(reply:2123081:Mem’s)




Et en lisant l’article en lien, on apprend qu’heureusement, ils n’ont pas payés, avertis par un gestionnaire de compte après avoir retiré 3 000 dollars canadien une première fois.



Et c’était bien leur petit-fils qu’ils croyaient avoir eu au téléphone.



Ou alors mon anglais est vraiment mauvais …



correction : il y a 2 histoires dans l’article. La seconde (en toute fin) est celle avec le faux avocat …


L’arnaque au Président 2.0


“l’histoire d’un couple”
Ça vaut presque les e-mails africains.



bandino a dit:


“Oui mon chéri, je vais t’envoyer de l’argent, mais d’abord, répond à la question de sécurité: quel est le nom de ton premier animal de compagnie ?”




Le meme Terminator 2 “tes parents adoptifs sont morts” va prendre une autre dimension :D


A quel sens peut-on encore se fier ? A travers le numérique, plus aucun on dirait, en tout cas pour bientôt.



Ceci dit d’énormes escroqueries par ingénierie sociale ont été montées sans recours à des imitations synthétiques donc bon, est-ce que ça ajoute vraiment quelque chose…


Fermer