Drapeaux de l’Union européenne

Régulera, régulera pas ?

AI Act : la France, l’Allemagne et l’Italie ne veulent pas réguler les modèles « de fondation »

Drapeaux de l’Union européenne

Abonnez-vous pour tout dévorer et ne rien manquer.

Déjà abonné ? Se connecter

Abonnez-vous

Pendant que les anciens et actuels employés d’OpenAI se déchirent publiquement, dans l’Union Européenne, les discussions autour d’un règlement sur l’intelligence artificielle sont suspendues à un obstacle tardif. Si la première phase de trilogue (négociations entre le Conseil de l’Union Européenne, le Parlement et la Commission Européenne) avait permis d’aboutir à un relatif consensus, voilà que trois pays, la France, l’Allemagne et l’Italie, se sont dressés mi-novembre contre l’intégration des modèles de fondation dans le texte légal.

Un positionnement surprenant à cette date – selon le calendrier initial, les différents corps de l’Union Européenne devraient s’accorder sur un texte d’ici décembre 2023, date qui pourrait être repoussée par des dissensions aussi importantes. Quant au positionnement même des trois États, en faveur d’une autorégulation des sociétés constructrices des modèles d’IA dits « de fondation », il n’a pas manqué de faire couler de l’encre numérique.

Encore un coup des modèles génératifs

Si l’on remonte dans le temps, il faut se rappeler qu’aux débuts des travaux sur une réglementation européenne de l’intelligence artificielle, en 2021, les applications les plus connues des modèles d’IA génératives n’étaient pas sortis. L’idée de réguler des modèles comme GPT-3 puis 4, voire leurs applications, n’a donc été ajoutée que plus tard dans le processus législatif.

Début novembre, dans la phase de trilogue, les discussions semblaient relativement bien engagées, y compris sur ce point. À la présidence du conseil, l’Espagne a présenté le brouillon d’une série d’obligations potentiellement applicables aux modèles de fondation et aux outils d’IA polyvalents (General Purpose AI, GPAI).

Comme le rappelle Euractiv, un modèle de fondation est défini par l’UE comme « un grand modèle d’IA entraîné sur de larges jeux de données et capable de réaliser une variété de tâches », parmi lesquelles générer du texte, de la vidéo, du code, etc. Un système de GPAI, lui, est un outil comme ChatGPT : il « peut être basé sur un modèle d’IA », « peut inclure des composants additionnels comme des logiciels traditionnels », et permet de servir « une variété d’objectifs, via une interface utilisateur ».

À ces définitions déjà relativement acceptées, les législateurs viennent d'ajouter une catégorie : celle des modèles de fondation à fort impact (high-impact models). Sous ce nom sont réunis les systèmes à la « complexité, capacités et aux performances bien supérieures à la moyenne », et pouvant « disséminer des risques systémiques le long de la chaîne de valeur ».

Parmi les réglementations que proposait l’Espagne : du red teaming (ou test adverse des systèmes d’IA), de la documentation, ou encore l’estimation des risques systémiques encourus au sein de l’Union Européenne.

Mais le 10 novembre au soir, c’est le branlebas de combat. Sur X (anciennement Twitter), le journaliste d’Euractiv Luca Bertuzzi rapporte le blocage des négociations autour de ce point précis : celui d’appliquer n’importe quel type de régulation aux modèles de fondation, refusé par la France et l’Allemagne, bientôt rejointes par l’Italie.

Réguler les applications, par la technologie ?

Parmi les causes de ce brusque coup de frein : la pression mise notamment par les champions de l’IA des deux pays, Mistral AI en France, Aleph Alpha en Allemagne, pour éviter d’être trop réglementés. L’ancien secrétaire d’État au numérique Cédric O, qui siège au conseil d’administration de Mistral AI, a notamment été à la manœuvre du côté français (quand bien même, remarque le groupe Control AI, il s’est prononcé en faveur de la régulation de l’IA par le passé).

Ce week-end, les trois pays sont tombés d’accord sur la manière dont ils souhaitaient voir réguler l’IA. Selon les informations de Reuters et de Politico Europe, ils demandent une « autorégulation obligatoire par le biais de codes de conduite ».

Les trois soulignent que le rôle de l’AI Act est de « réguler les applications de l’IA et non la technologie en elle-même », et ajoutent que les risques contre lesquels le travail réglementaire tente de prémunir la société « reposent dans les applications des systèmes d’IA plutôt que dans la technologie elle-même ».

Et de reprendre diverses bonnes pratiques déjà promues dans l’industrie, comme l’inclusion de model cards, des fiches qui devront « comprendre les informations nécessaires pour comprendre le fonctionnement du modèle, ses capacités et ses limites, et sont basées sur les meilleures pratiques de la communauté des développeurs ».

À ce sujet, soulignons qu’en mars dernier, GPT-4 a été livré avec exactement ce type de « cartes », mais que cela n’a fourni aucune information utile pour permettre à la communauté scientifique d’auditer et d’examiner le fonctionnement réel de la machine.

Plus loin, le document indique : « un corps de gouvernance de l’IA pourrait aider à développer ses règles et vérifier l’application de ces model cards ». Le document indique qu’aucune sanction ne devrait être imposée par défaut, mais qu’un système de sanction pourrait être créé si des violations du code de conduite sont constatées.

Réguler les acteurs les plus puissants, pas les plus petits ?

Des entités comme le Future of Life Institute ne s’y sont pas trompées. Très actif partout où s’élaborent des réglementations liées à l’intelligence artificielle, relativement liée à la pensée longtermiste – au point que L’Obs la qualifie de lobby « aux troubles intentions » en avril dernier –, l’organisme a publié un article dans lequel il pointait la faiblesse d’une réglementation ne reposant que sur des model cards.

Parmi les arguments avancés : « réguler les modèles de fondation de fort impact est aussi essentiel pour l’innovation, précisément parce qu'elle protégera tous les développeurs ou déployeurs européens d'IA en aval, qui, sinon, supporteront eux-mêmes les coûts de mise en conformité ».

Sans une approche différenciée en fonction de la taille et de l’activité des entreprises concernées, « on ne voit pas très bien comment ceux qui souhaitent adapter et utiliser ces modèles pourraient se conformer aux exigences en matière de risque élevé », continue plus loin l’entité. Et d’insister : « L'Europe ne devrait pas écouter les discours alarmistes des grandes entreprises technologiques. Nous sommes déjà passés par là, pour découvrir le décalage entre leur rhétorique et la réalité. »

Sur X, le cofondateur de Mistral AI, Arthur Mensch, a de son côté argumenté qu’à l’origine, l’AI Act était un texte censé assurer la sécurité des produits. « Avec un règlement axé sur la sécurité des produits, l'Europe disposerait déjà de la législation la plus protectrice au monde pour les citoyens et les consommateurs », estime-t-il, soutenu par le directeur de recherche de Meta, Yann LeCun.

Auprès de Politico Europe, l’informaticien spécialiste de l’intelligence artificielle Yoshua Bengio a de son côté déclaré qu’il serait « fou » d’écarter de la régulation les modèles de fondations, et parmi eux la catégorie plus avancée que certains (notamment OpenAI) qualifient de frontier models, ou modèles d’avant-garde. Selon lui, cela risquerait de faire de l’AI Act quelque chose de « similaire à la loi de la jungle ».

« Nous pourrions nous retrouver dans un monde où les systèmes d'IA les moins dangereux sont fortement réglementés dans l'UE (…) et où les systèmes les plus importants, (…) les plus potentiellement nuisibles, ne sont pas réglementés », s’est-il encore inquiété. « Ce sont précisément ces modèles puissants qui devraient être soumis le plus urgemment à un contrôle démocratique », a-t-il réitéré dans une tribune pour le quotidien allemand Tagesspiegel.

Sur LinkedIn, le professeur de droit et technologie à l’Université Viadrina de Francfort, Philipp Hacker, va dans son sens, estimant que la position franco-italo-allemande est « une erreur » et une décision « de courte vue ». « L’autorégulation n’est pas problématique en soi, mais l’histoire entière de la régulation technologique montre que ce n’est pas suffisant. »

« C’est une déclaration de guerre », a réagi un parlementaire européen auprès d’Euractiv, au sujet du document de la France, de l’Italie et de l’Allemagne.

Nul doute que les avancées stratégiques des différentes parties prenantes animeront les prochaines semaines.

Commentaires (4)


Merci pour l'article, très intéressant et instructif. Espérons que la régulation aboutira à quelque chose de sensé.
Dans un autre domaine je constate chaque jour les conséquences du lobbying dans les F-gaz et je n'ose imaginer ce que les startupeurs osent faire miroiter aux gouvernements pour faire sauter des clauses qui au final les aiderait sûrement à ralentir les géants américains/ asiatiques plus que les impacterait eux-mêmes...

Je comprends aussi que c'est difficile de se soumettre à des études / audits complexes pour une petite entreprise et la notion de seuil est intéressante, mais elle devront quand même fournir des éléments justificatifs.
Ça me fait penser à la distinction mineur/(jeune)/majeur en justice (toute proportion gardée). Ce n'est pas un système nouveau ou (fondamentalement) déconnant.
L'auto régulation a déjà démontré sa grande efficacité dans de nombreux domaines comme l'agro-alimentaire, la finance... Je ne vois pas ce qu'il pourrait mal se passer.
Personnellement je peux comprendre le cri d'alarme des quelques acteurs européens spécialisés dans le domaine. Le risque est assez impactant au niveau économique et il serait dommage de tomber dans le même travers qu'on a avec le Cloud. A savoir des acteurs européens qui existent et sont là, mais délaissés au profit des entreprises américaines. Dans la mesure où on passe notre temps à se plaindre de l'importance des entreprises US dans son activités, c'est une alerte qui a du sens.

Je pense donc qu'il serait regrettable de se tirer des balles dans le pied, même si côté USA la réglementation autour de l'IA est aussi un sujet en cours. C'est un exercice compliqué car il faut prendre en compte des objectifs qui sont parfois contradictoires.
Merci pour l'article !

Petit problème: les liens internes sont incorrects, ils renvoient vers https://next.dev.petit.ninja/
De ce que j'ai vu c'est le cas pour d'autres articles de Mathilde ^^'.
Fermer