Connexion
Abonnez-vous

RSF et les ayants droit dénoncent le projet de Code de bonnes pratiques de l’AI Act

GenAÏe

RSF et les ayants droit dénoncent le projet de Code de bonnes pratiques de l’AI Act

Évoquant des pressions et concessions en faveur des industriels, Reporters sans frontières estime que « rien de concret n'est fait pour protéger le droit des citoyens à accéder à une information fiable » dans l'AI Act. Une coalition de 38 organisations représentant les ayants droit déplore de son côté qu'il contrevienne « au droit de l'UE et ignore l'intention du législateur européen ».

Le 03 avril à 15h45

L'ONG Reporters sans frontières (RSF) vient d'annoncer qu'elle quittait la table des négociations du Code de bonnes pratiques du règlement européen sur l’intelligence artificielle (AI Act). « Après avoir joué, en vain, le jeu de la négociation », elle « dénonce l’absence de garanties sur le droit à l’information et le poids exorbitant de l’industrie dans le processus ».

Au terme de trois mois de négociations « sous la pression croissante des géants technologiques », souligne RSF, le Bureau européen de l’IA a en effet publié ce 11 mars 2025, la troisième version de travail de son Code de bonnes pratiques de l’AI Act.

« Le projet repose sur une liste concise d'engagements de haut niveau et prévoit des mesures plus détaillées pour mettre en œuvre chaque engagement », précise la Commission, qui en propose un résumé dédié et un site web interactif.

Il s'agit de « 2 engagements liés à la transparence et au droit d'auteur » pour tous les fournisseurs de modèles d'IA à usage général, mais « avec des exemptions notables aux obligations de transparence pour les fournisseurs de certains modèles open source conformément à la loi sur la transparence », et de « 16 autres engagements liés à la sûreté et à la sécurité », mais « uniquement pour un petit nombre » de fournisseurs de modèles d'IA classés comme « présentant un risque systémique ».

Le processus de rédaction de ce code s’étalera jusqu’en mai 2025 et implique près de 1000 parties prenantes, dont des représentants des États membres de l'UE et des observateurs européens et internationaux, précise la Commission dans sa FAQ consacrée à la question.

Mais « toutes ne bénéficient cependant pas du même statut », relevait RSF en décembre dernier : les fournisseurs d’IA sont en effet invités à des « ateliers de rédaction » tandis que les autres acteurs, comme les universitaires et organisations de la société civile, « sont uniquement conviés à émettre leur avis sur les versions intermédiaires du texte, et à participer à des groupes de travail – auxquels participent également les fournisseurs d’IA ».

Un outil d’autorégulation par et pour les concepteurs d’IA

Il reste 72% de l'article à découvrir.

Déjà abonné ? Se connecter

Cadenas en colère - Contenu premium

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.

Accédez en illimité aux articles

Profitez d'un média expert et unique

Intégrez la communauté et prenez part aux débats

Partagez des articles premium à vos contacts

Abonnez-vous

Commentaires (8)

votre avatar
Mais que diable allaient-ils faire dans cette galère ?

Un code de bonnes pratiques est un ensemble de règles que s'impose une branche d'activité, ici, ceux qui produisent des modèles d'IA ou ceux qui les utilisent.

Les journalistes ou autres organisations d'ayants droit ne sont pas acteurs de cette activité. Ils ne pouvaient être que les idiots utiles en ayant des demandes contrariant la profession de l'IA. Ils ont raison de partir afin de ne pas être la caution des ce code et le dénoncer.
votre avatar
En l'état, seul le fichier robots.txt d'exclusion des robots d’indexation permet en effet aux sites web d'indiquer leur refus d'être indexés par les crawlers des IA, « mais cette méthode obsolète repose sur la bonne foi des entreprises, qui peuvent l’ignorer sans risque », rappelle Archimag.
Ce n'est pas ce que dit Archimag :
Despite strong opposition and comprehensive explanations on its inadequacy, robots.txt is still considered as the only method GPAI providers must recognise and respond to, while other reservation methods are ignored or treated as optional, in direct contradiction with EU law.
En effet, comme nous l'a indiqué hier @SebGF le moyen conçu pour refuser l'utilisation d'œuvres pour l'entraînement de l'IA dans l'UE pour le respect de la directive (UE) 2019/790 existe (suivre ses liens). Il s'appelle TDM Policy. Le robots.txt n'est effectivement pas adapté puisqu'il ne permet pas de dire en une seule fois à tous les crawlers des IA que l'on ne veut pas qu'une œuvre ne soit pas utilisée tout en autorisant l'indexation par les moteurs de recherche et je ne parle même pas de ceux qui utilisent le même crawler pour l'IA et la recherche.

Ce sont les fournisseurs de GPAI qui ne considèrent que le robots.txt alors que les organisations d'ayants droit demandent l'application du droit de l'UE (probablement la directive que je viens de citer). Leur "other reservation methods" désigne probablement entre autre celle indiquée par SebGF.
votre avatar
Ils devront apprendre à configurer un firewall :D
votre avatar
Après, même si le TDM Policy est un protocole normalisé, il reste comme le robots.txt : un outil qu'on est libre d'ignorer.

À partir de là, on rentre dans la procédure juridique.

L'association des éditeurs britanniques a d'ailleurs attaqué Meta pour son usage reconnu des sources illicites telles que LibGen et Book3 dans l'entraînement de leurs modèles. En France aussi une procédure est en cours, intentée par le SNE, le SGDL et le SNAC. Ici, nous ne sommes pas dans le TDM mais dans un usage de matériel de contrefaçon.

À ma connaissance, la seule procédure ayant éprouvé la DAMUN a été celle d'un photographe allemand contre LAION. L'exception de recherche scientifique a été retenue dans la mesure où LAION est un organisme de recherche à but non lucratif.
votre avatar
Je ne serais pas si affirmatif que toi sur le fait qu'on est libre de l'ignorer (dans l'UE, voir plus bas pourquoi cette limitation). La directive citée et la loi française obligent à respecter la volonté des détenteurs des droits. Pour les œuvres en ligne, cette volonté doit être exprimée de façon à que ça soit lisible par une machine ce qui est le cas ici.

Le robots.txt ne permet pas de faire ce que la directive demande, c'est normal, il n'est pas prévu pour cela.
Après, oui, on rentre dans une procédure juridique et j'encourage les détenteurs de droit qui constatent une violation de leur interdiction dans leurs logs à porter plainte. Ça devrait calmer les bots.

Par contre, la directive s'applique pour la fouille faite depuis l'UE, ce qui la rend difficile impossible à appliquer contre les acteurs US agissant depuis les USA :
La présente directive fixe des règles visant à poursuivre l'harmonisation du droit de l'Union applicable au droit d'auteur et aux droits voisins dans le cadre du marché intérieur, en tenant compte, en particulier, des utilisations numériques et transfrontières des contenus protégés.
"transfrontières" en langage de l'UE veut dire : en franchissant les frontières intérieures de l'UE, donc d'un état de l'UE vers un autre état de l'UE.
Il faut donc à mon avis les attaquer aux USA et il est possible que cela se heurte au fair use.

En fait, la directive qui avait pour but de favoriser l'industrie de l'IA de l'UE risque dans les faits de la pénaliser si les USA reconnaissent le fair use même si le détenteur des droits s’oppose à l'utilisation de ses œuvres et pas l'UE.

Remarque : je ne sais pas si l'AI Act impose quelque chose sur l'entraînement des AI dont l'utilisation est faite depuis l'UE.
votre avatar
Mon propos était plus au sens du cynisme des entreprises de la tech qui appliquent le "ask for forgiveness, not permission".

Zuckerberg a en toute conscience de cause autorisé l'usage de sources illicites. Je m'attends donc à ce qu'ils ignorent le TDM aussi. Raison pour laquelle je parlais de procédure juridique.

Le AI Act oblige à une certaine transparence des données d'entraînement pour les systèmes d'IA, mais il me semble que ça reste limité.

Par contre, ça ne signifie pas qu'il ne faut pas appliquer le TDM sur ses contenus. C'est le seul moyen d'apporter une preuve pour intenter en cotnrefaçon.
votre avatar
Le passage que vous citez est bien une reprise de l'article d'archimag : "L’un des principaux écueils réside dans l’absence de mesures concrètes pour empêcher l’exploitation de contenus protégés par les IA. Seul le fichier "robots.txt", un protocole d'exclusion des robots d’indexation, permet aux sites web de signaler leur refus d’apparaître dans les moteurs de recherche, mais cette méthode obsolète repose sur la bonne foi des entreprises, qui peuvent l’ignorer sans risque."

La citation en anglais au sujet des "while other reservation methods are ignored or treated as optional, in direct contradiction with EU law" (passage qui m'avait échappé, my bad) émane de la lettre évoquée par archimag, qui ne les explicitent pas pour autant (et donc merci).

Je ne connaissais pas le TDM Reservation Protocol ou TDMRep, et découvre aussi The /llms.txt file, "A proposal to standardise on using an /llms.txt file to provide information to help LLMs use a website at inference time", que je n'ai, faute de temps (de cerveau disponible), pas non plus encore eu le temps de creuser.
votre avatar
J'ai implémenté le TDM Rep à titre personnel sur mon blog et mon site d'auteur. Tout comme j'ai improvisé une ligne de mentions légales histoire d'avoir les deux options : human et machine readable.

Accessoirement, comme certains sites de publication ne permettent pas de modifier les meta données des EPUB (parce qu'ils les génèrent eux-même), il m'a paru essentiel de procéder ainsi.

RSF et les ayants droit dénoncent le projet de Code de bonnes pratiques de l’AI Act

  • Un outil d’autorégulation par et pour les concepteurs d’IA

  • Une définition excluant de très nombreuses menaces déjà documentées

  • Rien n'est fait pour protéger le droit à une information fiable

  • « Nous préférerions ne pas avoir de code du tout »

Fermer