Connexion Premium

L’Inde oblige les plateformes à tatouer les contenus audiovisuels générés par IA

New délit

L’Inde oblige les plateformes à tatouer les contenus audiovisuels générés par IA

Flock

Les médias sociaux devront vérifier que les contenus synthétiques soient labellisés comme tels, empêcher le partage des deepnudes et deepfakes interdits, et retirer les contenus illicites sous trois voire deux heures.

Le 19 février à 16h11

L’adage « je crois ce que je vois » est périmé du fait de l’avènement des deepfakes, qui « constituent une menace importante pour la vie privée des individus et la société dans son ensemble », avance le Deepfake Prevention and Criminalisation Act.

Cette loi indienne vise à prévenir et à criminaliser la création, la diffusion et l’utilisation de contenus synthétiques générés par IA sans consentement ou sans filigrane numérique. D’après TechCrunch, les plateformes pourront se voir ordonner de les retirer dans un délai de trois heures, voire de deux heures seulement dans certains cas. Auparavant, ce délai pouvait monter à trois jours, précise Libération.

Les plateformes et médias sociaux permettant à leurs utilisateurs de partager du contenu audiovisuel devront aussi exiger qu’ils précisent s’ils ont été générés par IA, mais également déployer des outils pour vérifier ces déclarations, veiller à ce que les deepfakes soient clairement identifiés et accompagnés de données de provenance traçables, et empêcher le partage de contenus synthétiques interdits (notamment les usurpations d’identité, images intimes non consenties et contenus liés à des crimes graves).

Les plateformes seront tenues de déployer des « mesures techniques raisonnables et appropriées » pour empêcher leurs utilisateurs de créer ou de partager des contenus audio et vidéo illégaux générés de manière synthétique, précise The Verge.

Les contenus générés par IA qui ne seront pas bloqués devront quant à eux intégrer des « métadonnées permanentes ou d’autres mécanismes techniques appropriés permettant d’en déterminer la provenance », et les doter de marquages visibles et/ou audibles pour permettre aux utilisateurs d’identifier immédiatement qu’il s’agit de contenus synthétiques.

Le « retard considérable » des systèmes de détection et d’étiquetage de l’IA

L’Inde compte un milliard d’internautes, principalement des jeunes, ce qui en fait l’un des marchés les plus importants pour les plateformes sociales, souligne The Verge, pour qui « toute obligation imposée dans ce pays pourrait avoir un impact sur les efforts de modération des deepfakes à travers le monde, soit en améliorant la détection jusqu’à ce qu’elle soit réellement efficace, soit en obligeant les entreprises technologiques à reconnaître la nécessité de trouver de nouvelles solutions ».

Sauf que c’est plus facile à dire qu’à faire, eu égard au « retard considérable » des systèmes de détection et d’étiquetage de l’IA à l’heure actuelle. La Coalition for Content Provenance and Authenticity (C2PA), de la Content Authenticity Initiative (CAI), lancée en 2021 par Arm, la BBC, Intel, Microsoft et Adobe, insère ainsi des métadonnées détaillées dans les images, vidéos et fichiers audio au moment de leur création ou de leur modification, afin de décrire de manière invisible comment ils ont été créés ou modifiés.

Mais si Facebook, Instagram, YouTube et LinkedIn ajoutent des étiquettes aux contenus signalés par le système C2PA, « il est clair que cela ne fonctionne pas », assène The Verge, pour qui « ces étiquettes sont difficiles à repérer, et certains contenus synthétiques qui devraient comporter ces métadonnées passent entre les mailles du filet ».

De plus, les plateformes de médias sociaux ne peuvent pas étiqueter correctement les contenus produits par des tiers, tels que les modèles d’IA open source ou les applications dites « nudify » qui refusent d’adopter la norme volontaire C2PA.

Il sera impossible pour les plateformes de respecter cette nouvelle loi

The Verge souligne également que « l’interopérabilité est l’un des principaux enjeux de la norme C2PA », mais bien que les nouvelles règles indiennes puissent encourager son adoption, « elles sont si faciles à supprimer que certaines plateformes en ligne peuvent involontairement les effacer lors du téléchargement de fichiers ».

Étant donné que les amendements précisent les mécanismes de traçabilité qui doivent être mis en œuvre « dans la mesure où cela est techniquement possible », les responsables à l’origine de la décision indienne sont probablement conscients que les technologies actuelles de détection et d’étiquetage par IA ne sont pas encore au point, conclut The Verge : « Les organisations qui soutiennent la C2PA affirment depuis longtemps que le système fonctionnera si suffisamment de personnes l’utilisent. C’est donc l’occasion de le prouver ».

Interrogé par Libé, Pratik Sinha, cofondateur du média spécialisé dans le fact-checking Alt News, avance qu’il sera « impossible pour les plateformes de respecter cette nouvelle loi. Nous sommes le pays le plus peuplé au monde et chaque jour, des milliards de posts sont générés ». Il s’interroge aussi sur les risques de censure politique :

« Qui détermine si un post-généré par IA est illégal ou non ? Normalement, en Inde, cela devrait relever d’une décision de justice, mais dans les faits, c’est la police qui s’en occupe. Cette loi a été votée pour faciliter la suppression des contenus qui critiquent le gouvernement, alors que les militants proches du pouvoir peuvent poster des fausses informations sans être inquiétés. »

Commentaires (7)

votre avatar
:incline: Le sous-titre :mdr:
votre avatar
Pareil !!! :mdr2::mdr2:
votre avatar
Pour moi ce genre de loi ce sera toujours impossible à faire respecter , déjà car ce sera difficile à l'avenir de simplement déterminer si un contenu non-tatoué est créé par un humain ou pas. En Inde comme ailleurs.


  • Quid si l'humain recopie, à la main, les éléments d'une IA ? Quitte à le modifier à la marge ?

  • L'un des objectif du dev des LLM c'est justement que le résultat produit devienne impossible à distinguer de qu'un humain aurait produit. C'est pas tout à fait encore le cas, mais on y arrive.

  • Une loi n'est par définition que locale : Un pays peux demander ce qu'il veux, si le LLM est situé ailleurs et le résultat est aussi publié ailleurs alors on en revient aux simple "blocage de site tiers" pour X ou Y raison avec le "succès" qu'on sait.

  • L'idée aussi c'est qu'à terme les IA seront déployable en local , donc techniquement il serait possible de déployer une instance , lui faire produire des créations non tatouée comme étant "humaines" pour bénéficier de la crédibilité, faire le buzz, puis effacer l'instance.



Plus généralement, et ça raisonne avec les autres news de la semaine c'est toujours une pente dangereuse quand un gouvernement prétends décider ce qui est fake ou non. En ce moment, pour le gouvernement US, le changement climatique est une fake news... Et on est loin d'être à l'abri même en France de ramasser à la tête de l'état en 2027 un exécutif du même acabit.
votre avatar
Il faut nuancer un peut tout ceci...

D'une part, l'Inde n'impose pas de déterminer ce qui est fake, elle impose de déterminer ce qui est produit par l'IA. Certes il y a une forte corrélation entre ce qui est fake et ce qui est généré par l'IA, mais il existe des fakes produits par des humains (exemple, les photos de Staline où les apparatchiks tombés en disgrâce sont effacés) et des trucs vrais générés par une IA (par exemple, un astrophysicien réputé mais atteint de sclérose latérale amyotrophique pourrait très bien utiliser une IA qui génère sa voix pour s'exprimer - dommage pour l'intéressé que la génération de voix par IA n'était pas alors au point à l'époque).

Notamment, l'Inde demande que soient marqués comme "généré par l'IA" aussi bien les vidéos des climatosceptiques que celles du GIEC... Elle ne prétend pas se prononcer sur la véracité.

D'autre part il est un peu facile de se retrancher derrière l'argument "la technologie de détection est impossible à mettre en oeuvre alors on ne fait rien".

Enfin, en ce qui concerne les deepnudes, le problème est tout autre, il s'agit en fait de pouvoir détecter les images volées, pas uniquement celles générées par IA, mais évidemment si le détecteur de contenu signale à la fois la génération par IA et la nudité, il y a fort à parier que la personne qui poste a subrepticement oublié de demander un consentement.
votre avatar
N'oublie pas qu'on peux aussi faire l'inverse : Tatouer un contenu non IA et le présenter comme issue de l'IA...
votre avatar
Maintenant j'ai en tête un tatoueur qui s'affaire sur une télé, c'est malin !
votre avatar
Malgré les difficultés techniques évidentes (ou non), l'initiative de cette loi est bienvenue.

L’Inde oblige les plateformes à tatouer les contenus audiovisuels générés par IA

  • Le « retard considérable » des systèmes de détection et d'étiquetage de l'IA

  • Il sera impossible pour les plateformes de respecter cette nouvelle loi