Deepfakes : Sora 2 sert déjà à harceler des utilisatrices
Le 07 octobre à 10h15
2 min
Société numérique
Next
À peine sorti, le modèle Sora 2 de génération de contenus audio et vidéo d’OpenAI a été utilisé pour générer de faux clips représentant Sam Altman, le patron de la société d’IA.
Pour le moment accessible uniquement aux usagers d’iPhone, et sur invitation, la nouvelle application de doomscroll liée au moteur de génération de contenu est déjà utilisée pour harceler certaines utilisatrices.
La journaliste Taylor Lorenz témoigne ainsi qu’une personne habituée à la surveiller et à générer des centaines de comptes à son effigie recourt déjà à Sora 2 pour générer des vidéos d’elle.

En l’état, l’application fournit les outils pour effacer les images non acceptées par celles et ceux à qui elles sont censées ressembler.
Mais plusieurs garde-fous mis en place sur l'application ont déjà été outrepassés par des internautes, souligne Futurism, certains générant des vidéos à caractère sexuel.
Dans la documentation de Sora 2, OpenAI admet directement que l’application pourrait avoir du mal à bloquer le contenu représentant une personne réelle dénudée ou dans une position suggestive dans 1,6 % des cas.
Rapporté aux millions de prompts générés par jour, ce pourcentage peut se traduire par d’importants volumes de deepfakes pornographiques non consentis, à l’heure où ce type de contenu est régulièrement utilisé pour harceler. Avec 99 % des images pornographiques générées par IA en 2023 représentant des femmes, ces dernières sont les premières victimes de ce type de contenu.
Le 07 octobre à 10h15
Commentaires (4)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousModifié le 07/10/2025 à 10h42
Est ce que les grandes sociétés de ce type ne pourraient pas faire le ménage dans leur dataset avant d'entraîner la nouvelle version de leur modèle ? ( quite à utiliser la dernière version en date de leur modèle pour faire le trie)
Ça réglera pas le problème de fond mais ça sera déjà ça de gagner.
Modifié le 07/10/2025 à 10h48
Oh wait
Le 07/10/2025 à 11h00
clientsutilisateurs de signaler les images problématique gratuitement pour améliorer ton algo de détection....Oh wait.....Modifié le 07/10/2025 à 14h37
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?