Deepfakes : Sora 2 sert déjà à harceler des utilisatrices

Le 07 octobre à 10h15

Le 07 octobre à 10h15

Commentaires (4)

votre avatar
OpenAI admet directement que l’application pourrait avoir du mal à bloquer le contenu représentant une personne réelle dénudée ou dans une position suggestive dans 1,6 % des cas.
Question conne ( qui a déjà dû sortir quelque part), si Sora 2 sais générer des personnes dans position suggestive c'est qu'on à bien dû lui apprendre, et donc lui montrer des photos et vidéos de ce type de contenu à un moment donner non ?
Est ce que les grandes sociétés de ce type ne pourraient pas faire le ménage dans leur dataset avant d'entraîner la nouvelle version de leur modèle ? ( quite à utiliser la dernière version en date de leur modèle pour faire le trie)

Ça réglera pas le problème de fond mais ça sera déjà ça de gagner.
votre avatar
Pour faire le ménage dans ces milliards de données gobées, il faudrait construire un modèle capable de les reconnaître pour faire le tri, en les alimentant avec ces données problématiques.
Oh wait
votre avatar
Ou alors tu donne à "manger à l'IA" parce que ton modèle economique est uniquement basé sur ça. Et tu demande aux clients utilisateurs de signaler les images problématique gratuitement pour améliorer ton algo de détection....Oh wait.....
votre avatar
Une idée pour les prochains captchas, pour aider à entrainer les IAs: "laquelle de ces images est NSFW ?"
:D:bocul:

Deepfakes : Sora 2 sert déjà à harceler des utilisatrices

Fermer