L’Inde oblige les plateformes à tatouer les contenus audiovisuels générés par IA
New délit
Flock
Le 19 février à 16h11
Les médias sociaux devront vérifier que les contenus synthétiques soient labellisés comme tels, empêcher le partage des deepnudes et deepfakes interdits, et retirer les contenus illicites sous trois voire deux heures.
L’Inde oblige les plateformes à tatouer les contenus audiovisuels générés par IA
New délit
Flock
Les médias sociaux devront vérifier que les contenus synthétiques soient labellisés comme tels, empêcher le partage des deepnudes et deepfakes interdits, et retirer les contenus illicites sous trois voire deux heures.
Le 19 février à 16h11
Société numérique
Société
5 min
L’adage « je crois ce que je vois » est périmé du fait de l’avènement des deepfakes, qui « constituent une menace importante pour la vie privée des individus et la société dans son ensemble », avance le Deepfake Prevention and Criminalisation Act.
Cette loi indienne vise à prévenir et à criminaliser la création, la diffusion et l’utilisation de contenus synthétiques générés par IA sans consentement ou sans filigrane numérique. D’après TechCrunch, les plateformes pourront se voir ordonner de les retirer dans un délai de trois heures, voire de deux heures seulement dans certains cas. Auparavant, ce délai pouvait monter à trois jours, précise Libération.
Les plateformes et médias sociaux permettant à leurs utilisateurs de partager du contenu audiovisuel devront aussi exiger qu’ils précisent s’ils ont été générés par IA, mais également déployer des outils pour vérifier ces déclarations, veiller à ce que les deepfakes soient clairement identifiés et accompagnés de données de provenance traçables, et empêcher le partage de contenus synthétiques interdits (notamment les usurpations d’identité, images intimes non consenties et contenus liés à des crimes graves).
Les plateformes seront tenues de déployer des « mesures techniques raisonnables et appropriées » pour empêcher leurs utilisateurs de créer ou de partager des contenus audio et vidéo illégaux générés de manière synthétique, précise The Verge.
Les contenus générés par IA qui ne seront pas bloqués devront quant à eux intégrer des « métadonnées permanentes ou d’autres mécanismes techniques appropriés permettant d’en déterminer la provenance », et les doter de marquages visibles et/ou audibles pour permettre aux utilisateurs d’identifier immédiatement qu’il s’agit de contenus synthétiques.
Le « retard considérable » des systèmes de détection et d’étiquetage de l’IA
L’Inde compte un milliard d’internautes, principalement des jeunes, ce qui en fait l’un des marchés les plus importants pour les plateformes sociales, souligne The Verge, pour qui « toute obligation imposée dans ce pays pourrait avoir un impact sur les efforts de modération des deepfakes à travers le monde, soit en améliorant la détection jusqu’à ce qu’elle soit réellement efficace, soit en obligeant les entreprises technologiques à reconnaître la nécessité de trouver de nouvelles solutions ».
Sauf que c’est plus facile à dire qu’à faire, eu égard au « retard considérable » des systèmes de détection et d’étiquetage de l’IA à l’heure actuelle. La Coalition for Content Provenance and Authenticity (C2PA), de la Content Authenticity Initiative (CAI), lancée en 2021 par Arm, la BBC, Intel, Microsoft et Adobe, insère ainsi des métadonnées détaillées dans les images, vidéos et fichiers audio au moment de leur création ou de leur modification, afin de décrire de manière invisible comment ils ont été créés ou modifiés.
Mais si Facebook, Instagram, YouTube et LinkedIn ajoutent des étiquettes aux contenus signalés par le système C2PA, « il est clair que cela ne fonctionne pas », assène The Verge, pour qui « ces étiquettes sont difficiles à repérer, et certains contenus synthétiques qui devraient comporter ces métadonnées passent entre les mailles du filet ».
De plus, les plateformes de médias sociaux ne peuvent pas étiqueter correctement les contenus produits par des tiers, tels que les modèles d’IA open source ou les applications dites « nudify » qui refusent d’adopter la norme volontaire C2PA.
Il sera impossible pour les plateformes de respecter cette nouvelle loi
The Verge souligne également que « l’interopérabilité est l’un des principaux enjeux de la norme C2PA », mais bien que les nouvelles règles indiennes puissent encourager son adoption, « elles sont si faciles à supprimer que certaines plateformes en ligne peuvent involontairement les effacer lors du téléchargement de fichiers ».
Étant donné que les amendements précisent les mécanismes de traçabilité qui doivent être mis en œuvre « dans la mesure où cela est techniquement possible », les responsables à l’origine de la décision indienne sont probablement conscients que les technologies actuelles de détection et d’étiquetage par IA ne sont pas encore au point, conclut The Verge : « Les organisations qui soutiennent la C2PA affirment depuis longtemps que le système fonctionnera si suffisamment de personnes l’utilisent. C’est donc l’occasion de le prouver ».
Interrogé par Libé, Pratik Sinha, cofondateur du média spécialisé dans le fact-checking Alt News, avance qu’il sera « impossible pour les plateformes de respecter cette nouvelle loi. Nous sommes le pays le plus peuplé au monde et chaque jour, des milliards de posts sont générés ». Il s’interroge aussi sur les risques de censure politique :
« Qui détermine si un post-généré par IA est illégal ou non ? Normalement, en Inde, cela devrait relever d’une décision de justice, mais dans les faits, c’est la police qui s’en occupe. Cette loi a été votée pour faciliter la suppression des contenus qui critiquent le gouvernement, alors que les militants proches du pouvoir peuvent poster des fausses informations sans être inquiétés. »
L’Inde oblige les plateformes à tatouer les contenus audiovisuels générés par IA
-
Le « retard considérable » des systèmes de détection et d'étiquetage de l'IA
-
Il sera impossible pour les plateformes de respecter cette nouvelle loi
Commentaires (7)
Abonnez-vous pour prendre part au débat
Déjà abonné ou lecteur ? Se connecter
Cet article est en accès libre, mais il est le produit d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles d'un média expert
Profitez d'au moins 1 To de stockage pour vos sauvegardes
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 19/02/2026 à 16h50
Le 19/02/2026 à 16h53
Le 19/02/2026 à 18h37
Plus généralement, et ça raisonne avec les autres news de la semaine c'est toujours une pente dangereuse quand un gouvernement prétends décider ce qui est fake ou non. En ce moment, pour le gouvernement US, le changement climatique est une fake news... Et on est loin d'être à l'abri même en France de ramasser à la tête de l'état en 2027 un exécutif du même acabit.
Modifié le 20/02/2026 à 09h01
D'une part, l'Inde n'impose pas de déterminer ce qui est fake, elle impose de déterminer ce qui est produit par l'IA. Certes il y a une forte corrélation entre ce qui est fake et ce qui est généré par l'IA, mais il existe des fakes produits par des humains (exemple, les photos de Staline où les apparatchiks tombés en disgrâce sont effacés) et des trucs vrais générés par une IA (par exemple, un astrophysicien réputé mais atteint de sclérose latérale amyotrophique pourrait très bien utiliser une IA qui génère sa voix pour s'exprimer - dommage pour l'intéressé que la génération de voix par IA n'était pas alors au point à l'époque).
Notamment, l'Inde demande que soient marqués comme "généré par l'IA" aussi bien les vidéos des climatosceptiques que celles du GIEC... Elle ne prétend pas se prononcer sur la véracité.
D'autre part il est un peu facile de se retrancher derrière l'argument "la technologie de détection est impossible à mettre en oeuvre alors on ne fait rien".
Enfin, en ce qui concerne les deepnudes, le problème est tout autre, il s'agit en fait de pouvoir détecter les images volées, pas uniquement celles générées par IA, mais évidemment si le détecteur de contenu signale à la fois la génération par IA et la nudité, il y a fort à parier que la personne qui poste a subrepticement oublié de demander un consentement.
Le 20/02/2026 à 09h07
Le 19/02/2026 à 19h06
Le 20/02/2026 à 10h59
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?