RSF et les ayants droit dénoncent le projet de Code de bonnes pratiques de l’AI Act
GenAÏe

Évoquant des pressions et concessions en faveur des industriels, Reporters sans frontières estime que « rien de concret n'est fait pour protéger le droit des citoyens à accéder à une information fiable » dans l'AI Act. Une coalition de 38 organisations représentant les ayants droit déplore de son côté qu'il contrevienne « au droit de l'UE et ignore l'intention du législateur européen ».
Le 03 avril à 15h45
9 min
IA et algorithmes
IA
L'ONG Reporters sans frontières (RSF) vient d'annoncer qu'elle quittait la table des négociations du Code de bonnes pratiques du règlement européen sur l’intelligence artificielle (AI Act). « Après avoir joué, en vain, le jeu de la négociation », elle « dénonce l’absence de garanties sur le droit à l’information et le poids exorbitant de l’industrie dans le processus ».
Au terme de trois mois de négociations « sous la pression croissante des géants technologiques », souligne RSF, le Bureau européen de l’IA a en effet publié ce 11 mars 2025, la troisième version de travail de son Code de bonnes pratiques de l’AI Act.
« Le projet repose sur une liste concise d'engagements de haut niveau et prévoit des mesures plus détaillées pour mettre en œuvre chaque engagement », précise la Commission, qui en propose un résumé dédié et un site web interactif.
Il s'agit de « 2 engagements liés à la transparence et au droit d'auteur » pour tous les fournisseurs de modèles d'IA à usage général, mais « avec des exemptions notables aux obligations de transparence pour les fournisseurs de certains modèles open source conformément à la loi sur la transparence », et de « 16 autres engagements liés à la sûreté et à la sécurité », mais « uniquement pour un petit nombre » de fournisseurs de modèles d'IA classés comme « présentant un risque systémique ».
Le processus de rédaction de ce code s’étalera jusqu’en mai 2025 et implique près de 1000 parties prenantes, dont des représentants des États membres de l'UE et des observateurs européens et internationaux, précise la Commission dans sa FAQ consacrée à la question.
Mais « toutes ne bénéficient cependant pas du même statut », relevait RSF en décembre dernier : les fournisseurs d’IA sont en effet invités à des « ateliers de rédaction » tandis que les autres acteurs, comme les universitaires et organisations de la société civile, « sont uniquement conviés à émettre leur avis sur les versions intermédiaires du texte, et à participer à des groupes de travail – auxquels participent également les fournisseurs d’IA ».
Un outil d’autorégulation par et pour les concepteurs d’IA
Il reste 72% de l'article à découvrir.
Déjà abonné ? Se connecter

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.
Accédez en illimité aux articles
Profitez d'un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousRSF et les ayants droit dénoncent le projet de Code de bonnes pratiques de l’AI Act
-
Un outil d’autorégulation par et pour les concepteurs d’IA
-
Une définition excluant de très nombreuses menaces déjà documentées
-
Rien n'est fait pour protéger le droit à une information fiable
-
« Nous préférerions ne pas avoir de code du tout »
Commentaires (8)
Le 03/04/2025 à 17h17
Un code de bonnes pratiques est un ensemble de règles que s'impose une branche d'activité, ici, ceux qui produisent des modèles d'IA ou ceux qui les utilisent.
Les journalistes ou autres organisations d'ayants droit ne sont pas acteurs de cette activité. Ils ne pouvaient être que les idiots utiles en ayant des demandes contrariant la profession de l'IA. Ils ont raison de partir afin de ne pas être la caution des ce code et le dénoncer.
Le 03/04/2025 à 17h38
Ce sont les fournisseurs de GPAI qui ne considèrent que le robots.txt alors que les organisations d'ayants droit demandent l'application du droit de l'UE (probablement la directive que je viens de citer). Leur "other reservation methods" désigne probablement entre autre celle indiquée par SebGF.
Le 03/04/2025 à 19h04
Le 03/04/2025 à 19h20
À partir de là, on rentre dans la procédure juridique.
L'association des éditeurs britanniques a d'ailleurs attaqué Meta pour son usage reconnu des sources illicites telles que LibGen et Book3 dans l'entraînement de leurs modèles. En France aussi une procédure est en cours, intentée par le SNE, le SGDL et le SNAC. Ici, nous ne sommes pas dans le TDM mais dans un usage de matériel de contrefaçon.
À ma connaissance, la seule procédure ayant éprouvé la DAMUN a été celle d'un photographe allemand contre LAION. L'exception de recherche scientifique a été retenue dans la mesure où LAION est un organisme de recherche à but non lucratif.
Le 03/04/2025 à 19h59
Le robots.txt ne permet pas de faire ce que la directive demande, c'est normal, il n'est pas prévu pour cela.
Après, oui, on rentre dans une procédure juridique et j'encourage les détenteurs de droit qui constatent une violation de leur interdiction dans leurs logs à porter plainte. Ça devrait calmer les bots.
Par contre, la directive s'applique pour la fouille faite depuis l'UE, ce qui la rend
difficileimpossible à appliquer contre les acteurs US agissant depuis les USA : "transfrontières" en langage de l'UE veut dire : en franchissant les frontières intérieures de l'UE, donc d'un état de l'UE vers un autre état de l'UE.Il faut donc à mon avis les attaquer aux USA et il est possible que cela se heurte au fair use.
En fait, la directive qui avait pour but de favoriser l'industrie de l'IA de l'UE risque dans les faits de la pénaliser si les USA reconnaissent le fair use même si le détenteur des droits s’oppose à l'utilisation de ses œuvres et pas l'UE.
Remarque : je ne sais pas si l'AI Act impose quelque chose sur l'entraînement des AI dont l'utilisation est faite depuis l'UE.
Modifié le 03/04/2025 à 20h14
Zuckerberg a en toute conscience de cause autorisé l'usage de sources illicites. Je m'attends donc à ce qu'ils ignorent le TDM aussi. Raison pour laquelle je parlais de procédure juridique.
Le AI Act oblige à une certaine transparence des données d'entraînement pour les systèmes d'IA, mais il me semble que ça reste limité.
Par contre, ça ne signifie pas qu'il ne faut pas appliquer le TDM sur ses contenus. C'est le seul moyen d'apporter une preuve pour intenter en cotnrefaçon.
Le 04/04/2025 à 20h27
La citation en anglais au sujet des "while other reservation methods are ignored or treated as optional, in direct contradiction with EU law" (passage qui m'avait échappé, my bad) émane de la lettre évoquée par archimag, qui ne les explicitent pas pour autant (et donc merci).
Je ne connaissais pas le TDM Reservation Protocol ou TDMRep, et découvre aussi The /llms.txt file, "A proposal to standardise on using an /llms.txt file to provide information to help LLMs use a website at inference time", que je n'ai, faute de temps (de cerveau disponible), pas non plus encore eu le temps de creuser.
Le 05/04/2025 à 08h24
Accessoirement, comme certains sites de publication ne permettent pas de modifier les meta données des EPUB (parce qu'ils les génèrent eux-même), il m'a paru essentiel de procéder ainsi.