Connexion Premium

« Un enfer » : les deepfakes sont déjà très difficiles à détecter, reconnait l’ANSSI

AINSSI font font les marIAonettes

« Un enfer » : les deepfakes sont déjà très difficiles à détecter, reconnait l’ANSSI

Les deepfakes ne sont pas nouveaux, loin de là. Nous en parlions déjà en 2018. Avec le temps, la qualité des rendus s‘est largement améliorée. Un palier a été franchi fin 2025, c’est indéniable, et il est désormais « très difficile » de détecter les faux contenus multimédias. Les réseaux sociaux sont en ordre dispersé face à ce qui est déjà « un enfer », pour reprendre des mots de l’ANSSI.

Le 20 janvier à 11h27

Les deepfakes sont des contenus multimédias – aussi bien des images, des vidéos que de l’audio – qui sont générés ou modifiés grâce à des algorithmes et/ou de l’intelligence artificielle (générative). Plus les moyens et les modèles évoluent, plus les résultats sont saisissants de réalisme.

Avec l’arrivée des nouveaux outils, nous avons eu droit à toute une série de photos regroupant le « who’s who » de la tech : Sam Altman, Jeff Bezos, Tim Cook, Jensen Huang, Elon Musk, Sundar Pichai, Mark Zuckerberg… Des bugs persistent sur les détails, mais de moins en moins, et la cohérence générale de l’image est impressionnante. S’il reste des imperfections, nul doute que cela ne va aller qu’en s’améliorant au fil du temps.

Des « superdiffuseurs de désinformation »

Avec la publication de Sora 2 par OpenAI et surtout avec les nouvelles versions de Nano Banana par Google, plusieurs spécialistes ont noté une véritable avancée dans la création de deepfake d’images et de vidéos. S’ajoutent à cela des techniques de contrôle du mouvement (motion control) et de synchronisation labiale (lipsync) ; vous avez un combo explosif entre les mains. Kling AI s’est fait une certaine réputation dans ce domaine. Les exemples sont nombreux, ici et par exemple.

Il reste 77% de l'article à découvrir.

Cadenas en colère - Contenu premium

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.

Accédez en illimité aux articles

Profitez d'un média expert et unique

Intégrez la communauté et prenez part aux débats

Partagez des articles premium à vos contacts

Commentaires (5)

votre avatar
C'est rassurant...

Il faut peut-être se créer une liste blanche de médias et de posteurs de confiance, et ignorer le reste. Ça évite de se faire pourrir le cervelet et c'est un gain de temps en fact checking.
Sans pour autant débrancher son sens critique bien entendu.
votre avatar
Il serait dors et déjà plus simple de taguer le contenu généré par un humain plutôt que de taguer le contenu généré par une IA.
votre avatar
Ben pourquoi je ne vois pas ces daubes ?
Ah ben oui, j'ai oublié, je ne suis pas sur les réseaux sociaux (et j'utilise l'extension de Next) !
votre avatar

  1. Partir du principe que tout est faux, partout, tout le temps. Les articles, les vidéos, tout. De la même façon qu'on se dit que tout email/SMS/courrier/etc reçu est malhonnête et cherche à nous nuire.




  1. Whitelister prudemment, parcimonieusement, méticuleusement, chaque source d'info estimée fiable.




  1. Ne jamais oublier de quand même douter de ces dernières.



Pour vivre heureux, vivons cachés (avec toutes les fuites ce n'est plus possible).
Pour vivre heureux, vivons paranos (hélas, il ne reste que ça).
votre avatar
Réaliste mais quelle tristesse !
Dans ces conditions, l'avènement de "l'IA" peut-il être considéré comme un facteur de progrès ?

« Un enfer » : les deepfakes sont déjà très difficiles à détecter, reconnait l’ANSSI

  • Des « superdiffuseurs de désinformation »

  • Il est désormais « très difficile » de trier le vrai du faux

  • Macron, et la fausse vidéo d’un coup d'État : « C’était vraiment un enfer »

  • Étiqueter les contenus Gen AI : la théorie vs la pratique

  • L’AI Act aura certainement du retard, rendez-vous… fin 2027