IA : La Commission européenne a publié son peu contraignant code de bonne conduite
Il ne les engage en rien légalement
Bruxelles a publié mercredi son code de bonne conduite « pour les intelligences artificielles à usage général (GPAI) ». Issu de la collaboration de 13 experts indépendants, il doit aider l'industrie à se conformer aux obligations de l'AI act.
Le 11 juillet à 17h31
3 min
Droit
Droit
C'est en trois parties que la Commission a publié son code de bonne conduite « pour les intelligences artificielles à usage général (GPAI) » ce mercredi 8 juillet : un chapitre sur la transparence [PDF], un autre sur le Copyright [PDF] et un dernier sur la sûreté et la sécurité [PDF].
Les intelligences artificielles « à usage général » sont aussi appelés « modèles multimodaux » et sont capables de générer du texte, des images, des vidéos, du code, etc.
Signature volontaire qui n'engage à pas grand chose
Ils ont été rédigés sous la houlette de 13 experts, dont notamment les chercheuses Nuria Oliver (ex Vodafone, Microsoft, Telefónica) et Céline Castets-Renard de l'Université d'Otawa, et les chercheurs Alexander Peukert de l'Université de Francfort et Rishi Bommasani de Stanford.
La signature de ce texte reste à la volonté de chaque entreprise et iEngagement sans trop de frais. La Commission s'en servira par contre comme point de repère et met en avant que cela permettra aux entreprises d'éviter des charges administratives, et d'être plus sûres de ne pas se retrouver dans l'illégalité. Mistral AI a joué le rôle de bon élève européen en annonçant le premier sa signature, affirmant à notre consœur Océane Herrero de Politico que les exigences du code sont « gérables ».
Un formulaire et des engagements peu exigeants sur le respect du copyright et l'encadrement des risques
Le chapitre sur la transparence contient notamment un formulaire standardisé avec toutes les caractéristiques du modèle comme sa licence, une description du processus d'entrainement, des informations sur les données utilisées, la consommation d'énergie, etc.

Le deuxième chapitre, sur le copyright, prévoit que les entreprises s'engagent au respect des lois européennes sur le sujet ainsi que de décrire leur politique pour que cela soit le cas. Elles sont « encouragées » à rendre publique cette politique, mais le document n'engage même pas les signataires à le faire. En signant, les entreprises s'engagent à respecter les bonnes pratiques des robots crawlers (notamment les fichiers robots.txt) et à « atténuer le risque de sorties violant le copyright ».
Enfin, le dernier chapitre se concentre sur les modèles à risque systémique. Les entreprises signataires s'engagent à encadrer leur cycle de vie du développement à la mise en place sur le marché avec les outils de sécurité qui sont maintenant disponibles pour renforcer leur sûreté et leur sécurité.
Mais comme l'ont remarqué nos confrères des Echos, plusieurs choses ont été édulcorées par rapport à la version de travail de mars dernier. Ainsi, des champs sur les performances et limites des modèles ont disparu du premier chapitre. L'exigence de transparence sur les contenus copyrightés utilisés pour l'entrainement n'est plus dans le deuxième. Et pour les modèles à risque systémique, alors que dans la version de travail, le texte engageait les entreprises d'IA à ne pas les utiliser dans des domaines sensibles comme la défense ou les biotechnologies, la version définitive a gommé cette partie.
Le texte accompagne la deuxième phase de l'AI Act qui doit entrer en vigueur le 2 aout prochain, date à laquelle les intelligences artificielles à usage général entrent dans son champ d'application.
IA : La Commission européenne a publié son peu contraignant code de bonne conduite
-
Signature volontaire qui n'engage à pas grand chose
-
Un formulaire et des engagements peu exigeants sur le respect du copyright et l'encadrement des risques
Commentaires (2)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 12/07/2025 à 14h57
Tu penses donc ...
Aucune IA n'aurait été utilisée dans les grands groupes européen par précaution vu que chacun d'eux bosse de près ou de loin pour le secteur de la défense.
Ils préfèrent donner les données sensibles à la Chine ou aux USA, mais en faisant l'autruche pour dire plus tard qu'ils ne savaient pas.
Le 15/07/2025 à 10h22
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?