Les générateurs de voix par intelligence artificielle, nouveaux vecteurs d’arnaques
Le 08 mars 2023 à 06h16
1 min
Sciences et espace
Sciences
Après les textos frauduleux, les faux messages vocaux. En permettant d’imiter des voix et d’y faire passer toute une série d’émotions de manière crédible, les technologies de génération de voix basées sur des modèles algorithmiques rendent beaucoup plus simples les arnaques téléphoniques vocales, rapporte le Washington Post.
Pour les victimes, il est encore plus compliqué de s’y retrouver que face à une arnaque faite par SMS ou messageries.
Ars Technica résume par exemple l’histoire d’un couple qui a envoyé 15 000 dollars en bitcoin à un arnaqueur après que celui-ci s’est fait passer pour leur fils. La voix synthétique leur avait expliqué qu’il avait besoin de cet argent pour obtenir une aide juridique, après avoir tué un diplomate américain dans un accident de voiture.
En 2022, rien qu’aux États-Unis, ce type d’arnaques téléphoniques a représenté le nombre le plus élevé de fraudes relevées par la Federal Trade Commission, pour un total de 11 millions de dollars subtilisés.
Le 08 mars 2023 à 06h16
Commentaires (12)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 08/03/2023 à 07h57
Il n’y aurait alors que la prise d’empreintes vocales « offcielles » afin de vérifier la licéité d’opérations douteuses…
Quel monde merveilleux dans lequel les doubles « pensent » plus vite que leur ombre biologique sans qu’aucune ne puisse gouverner qui détient quoi et à quel dessein.
« La resistance à l’oppression devrait être interdite » - à en croire les financeurs de ces technologies aux multiples atteintes potentielles (et finalement certaines) aux êtres humains.
Le 08/03/2023 à 08h07
“Oui mon chéri, je vais t’envoyer de l’argent, mais d’abord, répond à la question de sécurité: quel est le nom de ton premier animal de compagnie ?”
Le 08/03/2023 à 08h21
Bonne chance à la jeune génération qui a posté des messages/photos/vidéos face caméra sur les réseaux sociaux.
La génération de deepfake sera d’autant plus simple que le matériel de base est aisément accessible.
Le 08/03/2023 à 09h01
Mais tellement !
Le 08/03/2023 à 10h02
Le bitcoin est si répandu qu’un père paye l’équivalent de 15 000 dollars sans tiquer ?
« Tout ce que vous direz pourra être retenu et réutilisé contre vous »
Le 08/03/2023 à 10h14
Ars Technica tiens ça du Washington Post : https://www.washingtonpost.com/technology/2023/03/05/ai-voice-scam/
Apparemment le scammer c’est fait passer pour l’avocat du couple.
Le 08/03/2023 à 10h21
…enfin l’avocat du fils. Le leur passe. Puis les rappelle pour demander de l’argent.
Le fils en question a une chaîne YouTube
Le 08/03/2023 à 11h03
Et en lisant l’article en lien, on apprend qu’heureusement, ils n’ont pas payés, avertis par un gestionnaire de compte après avoir retiré 3 000 dollars canadien une première fois.
Et c’était bien leur petit-fils qu’ils croyaient avoir eu au téléphone.
Ou alors mon anglais est vraiment mauvais …
correction : il y a 2 histoires dans l’article. La seconde (en toute fin) est celle avec le faux avocat …
Le 08/03/2023 à 11h30
L’arnaque au Président 2.0
Le 08/03/2023 à 16h46
“l’histoire d’un couple”
Ça vaut presque les e-mails africains.
Le 08/03/2023 à 17h45
Le meme Terminator 2 “tes parents adoptifs sont morts” va prendre une autre dimension
Le 09/03/2023 à 00h15
A quel sens peut-on encore se fier ? A travers le numérique, plus aucun on dirait, en tout cas pour bientôt.
Ceci dit d’énormes escroqueries par ingénierie sociale ont été montées sans recours à des imitations synthétiques donc bon, est-ce que ça ajoute vraiment quelque chose…