AI Act : l’IA générative pourrait être régulée par niveaux
Le 27 avril 2023 à 05h21
3 min
Droit
Droit
ChatGPT aura bousculé tout le monde, législateurs compris : les parlementaires européens avaient déjà bien avancé dans leur travail sur le règlement général de l’intelligence artificielle lorsque les modèles d’IA générative ont explosé. Décision a été prise d’ajouter ce type de modèles à la régulation, quand bien même les entreprises numériques et certains États membres suggéraient de reporter leur encadrement à de prochaines lois.
Dragos Tudorache, corapporteur de l’AI Act au Parlement, donne dans TechCrunch un aperçu des dernières discussions en cours, avant un vote en commission espéré pour le 11 mai (il faudra ensuite passer à l’étape suivante du travail législatif : celle des trilogues).
Pour commencer, les parlementaires différencient depuis quelques semaines les « vrais » modèles d’IA à but général (general purpose AI, GPAI) de modèles « de fondation » (foundation model, FM). Le premier label considère des modèles sans leurs données, explique Euractiv : le client, par exemple un hôpital, aura besoin de les entraîner avec les données qui l’intéressent, par exemple des représentations de lésions cancéreuses. Les GPAI sont donc adaptables à un large panel d’applications, pour lesquels il n’aura pas été spécifiquement entraînées à l’origine.
Le second, dont le nom vient d’une publication de l’université de Stanford, qualifie des modèles avec les données qui les ont entraînées, comme ChatGPT ou Stable Diffusion. Il s’agit cette fois de modèles entraînés sur de larges sommes de données, dont les résultats sont généralement généralistes et qui peuvent être adaptées à une série de tâches différentes.
Pour le moment, les parlementaires optent pour une approche de ces différents modèles en trois niveaux : l’un se concentre sur la répartition des responsabilités le long de la chaîne de production des modèles, un autre veille à créer un cadre à ces modèles de fondation, et un troisième se penche sur les problématiques spécifiques de contenus que posent certains outils, comme les problématiques de désinformation liées à ChatGPT.
En l’état, la première couche s’appliquerait à tous les GPAI, qu’ils soient de fondation ou non. La suivante s’appliquerait plutôt aux modèles de fondation. Et la troisième viserait plus spécifiquement les modèles génératifs qui ont récemment fait des étincelles dans l’actualité, en leur créant des responsabilités plus précises à la fois sur le type de contenu qu’ils produisent et sur leurs obligations en termes de droits d’auteur.
Quelle que soit la version définitive du texte, l’AI Act n’entrera probablement pas en vigueur avant 2025, voire plus tard, selon le temps accordé par l’Union aux entreprises pour qu’elles se mettent en conformité.
Le 27 avril 2023 à 05h21
Commentaires (4)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 27/04/2023 à 06h36
Pour vire heureux, vivons régulés.
Le plus drole, c’est que dans pas longtemps les lois seront écrites, débattues et combattues avec des IA Générative.
Le 27/04/2023 à 20h45
Un modèle sans données, je pense que ça n’existe pas…il vaudrait mieux parler d’un algorithme, dans ce cas.
Dans l’article d’Euractiv, ils parlent d’un “AI System” :
J’ai quand même très peur de l’usine à gaz inapplicable, au final.
Le 28/04/2023 à 00h34
Parrot vs Machine learning
Le 01/05/2023 à 14h41
Marrant que le réflexe en Europe pour répondre à ChatGPT n’ai pas été de financer des projets en IA concurrents (comme l’ont immédiatement fait les puissances rivales des US) mais de réguler et interdire.
Réguler et interdire quoi, et dans quel but ? On ne sait pas, mais il faut le faire, et vite.