Un pionnier du deepfake accusé de méconduite scientifique

Un pionnier du deepfake accusé de méconduite scientifique

Fake science du deepfaker

Avatar de l'auteur

Martin Clavey

Publié dansLogiciel

03/02/2023
16
Un pionnier du deepfake accusé de méconduite scientifique

Le chercheur Hao Li, l'un des pionniers du deepfake, est accusé de manipulation de données et deux de ses articles scientifiques vont être rétractés, selon le site spécialisé dans la surveillance de ce genre de cas, Retraction Watch.

Le chercheur allemand en intelligence artificielle Hao Li a été crédité aux génériques de nombreux films comme Fast & Furious 7, Le Hobbit: La Bataille des Cinq Armées ou encore Blade Runner 2049 pour avoir effectué leurs effets visuels. Mais ce chercheur et entrepreneur a, parfois, falsifié les données utilisées dans des articles scientifiques, selon le site Retraction Watch qui recense les rétractations d'articles scientifiques.

Après avoir travaillé pour des studios d'effets spéciaux comme ILM/Lucas Film, il a cofondé en 2015 la startup Pinscreen pour vendre ses solutions d'effets visuels créés par ordinateur, dont une solution de création de deepfake permettant de remplacer dans une vidéo le visage d'une personne par celui d'une autre.

En parallèle de cette carrière dans l'industrie, Hao Li en mène une dans le milieu de la recherche, dont 7 ans à l'Université de Californie du Sud (University of Southern California en anglais, USC) de 2013 à 2020. Selon son profil Linkedin, il est actuellement en poste à l'Université d'Intelligence artificielle Mohamed bin Zayed, aux Émirats Arabes Unis, une université officiellement créée en 2019, mais dont les cours n'ont commencé qu'en 2021.

L'ancien vice-président de Pinscreen en lanceur d'alerte

Si les compétences de Hao Li pour créer ce genre d'effets ne sont pas remises en question, son ancien collègue et vice-président de Pinscreen, Iman Sadeghi, dénonce des manipulations de données et une présentation trompeuse de ce que pouvait faire leur logiciel, notamment lors du séminaire SIGGRAPH de 2017, l'un des événements les plus importants dans la communauté scientifique et industrielle de la conception d'images assistée par ordinateur.

À l'époque, Sadeghi (lui aussi chercheur en informatique) et Hao Li signent avec leurs collègues un article scientifique paru dans la revue ACM Transactions on Graphics ainsi que la publication de leur présentation dans les actes du séminaire SIGGRAPH (visible aussi sur YouTube).

avatar en faux temps réel 1avatar en faux temps réel 2

Dans cette vidéo, Hao Li présente de façon générale leur logiciel et Iman Sadeghi en fait la démonstration en direct. Celle-ci consiste à prendre une photo avec une webcam puis à attendre pendant quelques secondes pour obtenir un rendu 3D de la tête de Sadeghi et créer un avatar numérique à son image. Dans la démo, celui qui était alors vice-président de Pinscreen fait de même avec une simple photo d'un autre de ses collègues. Et il faut avouer que le rendu et notamment celui des cheveux est assez impressionnant.

Sauf que, selon Sadeghi lui-même, leur logiciel ne pouvait pas, à ce moment-là, créer ce rendu 3D en temps réel et en quelques secondes.

Sadeghi, rapportait le Los Angeles Times en 2018, a été licencié par l'entreprise en août 2017 parce qu'il avait, selon lui, justement pointé du doigt ces manipulations. Le procès est toujours en cours.

L'Université de Californie du Sud, en tant qu'employeur de Hao Li à ce moment-là, et l'Association for Computing Machinery (ACM), organisatrice de SIGGRAPH et éditrice des articles visés, ont chacun mené leur enquête pour statuer un éventuel manquement à l'intégrité scientifique.

En différé et pas en temps réel

Iman Sadeghi, qui apparemment ne lâche pas le morceau, publie régulièrement sur son site web des documents montrant l'avancée de ces enquêtes. Retraction Watch relève, dans son article, que Sadeghi a mis en ligne en septembre dernier la lettre de l'ACM [PDF] prévenant tous les auteurs qu'elle allait rétracter les deux articles. La société savante explique que son comité d'éthique les considère coupables de violation de ses règles de déontologie. La lettre appuie :

« Plus précisément, le Comité a constaté que la présentation au SIGGRAPH 2017 Real Time Live ! a faussement présenté des images pré-générées comme étant créées de façon dynamique. Ce fait aurait dû être divulgué à l'audience, mais ça n'a pas été le cas. Cette falsification de données s'est étendue à l'article de l'ACM Transaction on Graphics. ».

L'ACM explique aussi aux auteurs qu'elle les bannit de ses publications pendant cinq ans et leur demande d'écrire une lettre d'excuse auprès de ses deux membres responsables de l'organisation du séminaire. Sadeghi a fait appel pour son cas personnel, arguant avoir lui-même été le lanceur d'alerte et avoir collaboré avec l'organisation.

Un rapport détaillé sur la démo

Du côté universitaire, Iman Sadeghi a mis en ligne une version du compte-rendu d'enquête de 490 pages lancée par l'Université de Californie du Sud, incluant un rapport d'un consultant indépendant. Celui-ci résume ce qu'il a trouvé en cinq points :

  1. « Le logiciel de démo de Pinscreen n'inclut pas de fonctionnalité permettant de créer un avatar 3D à partir d'une image, que ce soit de manière entièrement automatique ou non. »
  2. « Le logiciel de démo de Pinscreen comprend au moins onze avatars pré-calculés et pré-enregistrés. Quatre de ces avatars - "Iman", "Hao", "JohnRoot" et "Christobal" - ont été affichés par le Dr Sadeghi pendant la démo de Pinscreen. »
  3. « Le logiciel de démo de Pinscreen permet à l'utilisateur de prendre une photo à l'aide d'une webcam connectée. Quelle que soit la photo prise avec la webcam, le logiciel rtl-app [le nom du logiciel de démo, ndlr] affichera l'avatar "Iman" précalculé. »
  4. « Le logiciel de démo de Pinscreen permet également à l'utilisateur de sélectionner un fichier image précédemment capturé. Si le nom du fichier image correspond à l'un des avatars précalculés (par exemple, "JohnRoot.jpeg"), l'application affiche l'avatar précalculé correspondant. Si le nom du fichier image ne correspond pas à l'un des avatars prédéfinis (par exemple, "GeorgeEdwards.jpg"), aucun avatar ne s'affiche. »
  5. « Le logiciel de démo de Pinscreen est conçu pour induire le spectateur en erreur. Par exemple, le logiciel de démo de Pinscreen comprend une "barre de progression" qui semble montrer la progression d'un calcul sous-jacent pour générer un avatar, alors qu'en fait la barre de progression se remplit simplement en fonction d'une minuterie. »

Dans le détail, le consultant explique notamment que le code source en C# du logiciel ne contient pas la fonctionnalité de génération d'avatar à partir d'une image de webcam : à la place, il a trouvé une fonction où les paramètres sont écrits en dur dans le code :

paramètres en dur

Dans une réponse à ce rapport (toujours mise en ligne par Iman Sadeghi), Hao Li nie toute falsification ou manipulation de l'équipe de Pinscreen. Contacté par NextINpact comme par Retraction Watch pour recueillir son commentaire, Hao Li n'a pas répondu.

À l'Université d'Intelligence artificielle Mohamed bin Zayed qui a accueilli Hao Li comme enseignant-chercheur, c'est silence radio. L'université, qui vient de fêter sa première remise de diplômes en présence du très critiqué président de la COP28 des Émirats arabes unis et du ministre de l'Économie français Bruno Le Maire, n'a pour l'instant pas réagi aux signalements de Sadeghi. Celui-ci a même souligné que l'université émirienne a supprimé sur LinkedIn les commentaires soulignant la méconduite scientifique de Hao Li.

On pourrait penser que, au vu du sujet de recherche, le problème ne concerne que les chercheurs et industriels du domaine. Mais Retraction Watch fait remarquer que les recherches d'Hao Li ont été financées par deux bourses publiques, dont une du Bureau de recherche de la Marine américain (Office of Naval Research en anglais) d'un montant de 600 000 dollars sur trois ans, afin de créer des avatars numériques dans le système d'entrainement de la marine armée des États-Unis.

16
Avatar de l'auteur

Écrit par Martin Clavey

Tiens, en parlant de ça :

#Flock a sa propre vision de l’inclusion

Retour à l’envoyeur

13:39 Flock 17
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #10 : nous contacter et résumé de la semaine

On est déjà à la V2 de Next ?

11:55 35
Autoportrait Sébastien

[Autoportrait] Sébastien Gavois : tribulations d’un pigiste devenu rédac’ chef

Me voilà à poil sur Internet

17:18 Next 16

Sommaire de l'article

Introduction

L'ancien vice-président de Pinscreen en lanceur d'alerte

En différé et pas en temps réel

Un rapport détaillé sur la démo

#Flock a sa propre vision de l’inclusion

Flock 17
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #10 : nous contacter et résumé de la semaine

35
Autoportrait Sébastien

[Autoportrait] Sébastien Gavois : tribulations d’un pigiste devenu rédac’ chef

Next 16
Logo de StreetPress

Pourquoi le site du média StreetPress a été momentanément inaccessible

Droit 18
Amazon re:Invent

re:Invent 2023 : Amazon lance son assistant Q et plusieurs services IA, dont la génération d’images

IA 10
Un œil symbolisant l'Union européenne, et les dissensions et problèmes afférents

Le Conseil de l’UE tire un bilan du RGPD, les États membres réclament des « outils pratiques »

Droit 4

19 associations européennes de consommateurs portent plainte contre Meta

DroitSocials 16

#LeBrief : Ariane 6 l’été prochain, Nextcloud rachète Roundcube, désinformation via la pub

Chiffre et formules mathématiques sur un tableau

CVSS 4.0 : dur, dur, d’être un expert !

Sécu 16
Une tête de fusée siglée Starlink.

Starlink accessible à Gaza sous contrôle de l’administration israélienne

Web 35
Fibre optique

G-PON, XGS-PON et 50G-PON : jusqu’à 50 Gb/s en fibre optique

HardWeb 52
Photo d'un immeuble troué de part en part

Règlement sur la cyber-résilience : les instances européennes en passe de conclure un accord

DroitSécu 10
lexique IA parodie

AGI, GPAI, modèles de fondation… de quoi on parle ?

IA 10

#LeBrief : logiciels libres scientifiques, fermeture de compte Google, « fabriquer » des femmes pour l’inclusion

livre dématérialisé

Des chercheurs ont élaboré une technique d’extraction des données d’entrainement de ChatGPT

IAScience 3
Un chien avec des lunettes apprend sur une tablette

Devenir expert en sécurité informatique en 3 clics

Sécu 11
Logo ownCloud

ownCloud : faille béante dans les déploiements conteneurisés utilisant graphapi

Sécu 16
Le SoC Graviton4 d’Amazon AWS posé sur une table

Amazon re:invent : SoC Graviton4 (Arm), instance R8g et Trainium2 pour l’IA

Hard 12
Logo Comcybergend

Guéguerre des polices dans le cyber (OFAC et ComCyberMi)

Sécu 10

#LeBrief : faille 0-day dans Chrome, smartphones à Hong Kong, 25 ans de la Dreamcast

Mur d’OVHcloud à Roubaix, avec le logo OVHcloud

OVHcloud Summit 2023 : SecNumCloud, IA et Local Zones

HardWeb 2
algorithmes de la CAF

Transparence, discriminations : les questions soulevées par l’algorithme de la CAF

IASociété 62

Plainte contre l’alternative paiement ou publicité comportementale de Meta

DroitIA 39
Nuage (pour le cloud) avec de la foudre

Économie de la donnée et services de cloud : l’Arcep renforce ses troupes

DroitWeb 0
De vieux ciseaux posés sur une surface en bois

Plus de 60 % des demandes de suppression reçues par Google émanent de Russie

Société 7
Une vieille boussole posée sur un plan en bois

La Commission européenne et Google proposent deux bases de données de fact-checks

DroitWeb 3

#LeBrief : des fichiers Google Drive disparaissent, FreeBSD 14, caméras camouflées, OnePlus 12

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Commentaires (16)


eglyn Abonné
Il y a 10 mois

On va apprendre qu’en plus le code a été généré par ChatGPT ? :transpi:



Ils auraient du utiliser l’Unreal Engine 5, comme tout le monde :transpi:


pamputt Abonné
Il y a 10 mois

Impressionnant ! Le deep fake s’applique également à la génération d’article scientifique ; ça a l’air tellement réel qu’on se fait berner :keskidit:


xlp Abonné
Il y a 10 mois

Ça n’est pas du deepfake utilisé pour générer un article. Mais si le sujet t’intéresse tu peux jeter un œil à SciGen, pour le plus ancien cas de générateur d’article que je connaisse. Et je crois qu’il y a eu des cas avec GPT3 plus récemment.


Mihashi Abonné
Il y a 10 mois

xlp

Ça n’est pas du deepfake utilisé pour générer un article. Mais si le sujet t’intéresse tu peux jeter un œil à SciGen, pour le plus ancien cas de générateur d’article que je connaisse. Et je crois qu’il y a eu des cas avec GPT3 plus récemment.

N’oublie pas de rallumer ton détecteur d’ironie :transpi:.


Fabimaru Abonné
Il y a 10 mois

C’est ce qu’on appelle du deep fake fake


Erwan123 Abonné
Il y a 10 mois

Fabimaru

C’est ce qu’on appelle du deep fake fake


Excellent !! Bien vu celle là !




:bravo: :bravo: :yes: :yes:


127.0.0.1
Il y a 10 mois

la présentation au SIGGRAPH 2017 Real Time Live ! a faussement présenté des images pré-générées comme étant créées de façon dynamique.




Le SIGGRAPH semble avoir un niveau d’exigence plus haut que l’industrie du jeu vidéo. :D