AGI, GPAI, modèles de fondation… de quoi on parle ?
B.I.A Bia
Les acronymes et expressions se multiplient, quand on parle d’intelligence artificielle. Mais que recouvrent ces termes, intelligence artificielle générale, General Purpose AI, et autres ?
Le 30 novembre 2023 à 08h40
10 min
IA et algorithmes
IA
Intelligence artificielle générale, modèle de fondation, modèles frontières, même. Des expressions apparaissent dans les médias, dans les débats, dans les textes sur lesquels les législateurs européens travaillent. Au point qu’il est difficile de bien saisir qui désigne quoi, et dans quelle mesure les expressions se recouvrent, ou pas.
Pour sortir de ce mauvais pas, Next se lance dans un mini-inventaire à la Prévert des termes qui peuplent certains de nos propres articles, mais pour lesquels, nous aussi, on doit se re-creuser la tête à chaque fois qu’on les emploie. Bien sûr, toutes ces définitions restent mouvantes – elles sont aussi, comme vous pourrez le lire, le fruit d’un intense lobbying des diverses forces en présence.
Nos autres lexiques de l'IA :
- Neurone, inférence, entraînement, hallucination… de quoi on parle ?
- IA : Prompt injection, empoisonnement… de quoi on parle ?
Intelligence artificielle générale (AGI pour les intimes)
L’intelligence artificielle générale est un concept à la fois controversé dans la sphère scientifique, et utilisé assez facilement dans la sphère médiatique. Il qualifie des modèles d’intelligence artificielle capables de réaliser toutes sortes de tâches, aussi bien que les humains voire mieux, y compris des tâches cognitives. En somme, une AGI serait douée d’une forme de sensibilité ou de volonté (et c’est là que se logent une grosse partie des débats, car beaucoup de spécialistes estiment qu’une telle idée relève de la fiction, tandis que d’autres, non).
Pour tenter d’éclaircir le débat, Google DeepMind a publié début novembre un article dans lequel les auteurs proposent des niveaux d’intelligence artificielle. Ceux-ci s’échelonnent de 0 (pas d’IA) à 5 (surhumain), en passant par des niveaux qualifiés d’ « émergent » (niveau 1), « compétent » (niveau 2), « expert » et « virtuose ». Le papier fait aussi la différence entre IA faibles et fortes (on en reparle juste en dessous) et liste des modèles comme AlphaFold et AlphaZero, développés par DeepMind, comme des IA faibles surhumaines.
Si l’on vous parle de ce concept en premier, c’est parce qu’il est l’un des plus clivants. Un des pendants de la probable arrivée d’une AGI, c’est qu’elle pourrait poser des « risques existentiels », expression parfois raccourcie en « X risk » dans les discussions en ligne. Cette expression qualifie à l’origine tout un champ de recherche, qui se penche sur des risques sanitaires, environnementaux, technologiques, etc.
Dans le cadre des débats autour des capacités de l’IA, en revanche, elle prend une couleur particulière. Des spécialistes comme Geoffrey Hinton et des entrepreneurs comme Sam Altman ou Elon Musk ont alerté à plusieurs reprises contre les « risques existentiels » que poserait l’IA, et en particulier la potentielle AGI. D’autres, comme Gary Marcus, estiment ces prévisions exagérées.
Les plus critiques estiment enfin que présenter l’IA comme potentiellement surhumaine convoque beaucoup d’idées issues de domaines plus culturels que techniques (la science fiction en tête), et avec elles, des propositions pas toujours nuancées - des discours qui relèvent du technosolutionnisme, d’autres du catastrophisme de l’IA (AI doomerism)…
Pour une partie de ces critiques, notamment de nombreux promoteurs d’une forme d’éthique de l’IA, brandir l’image de technologies potentiellement surhumaines empêche de parler des effets très concrets que les modèles algorithmiques ont déjà sur toutes sortes de populations, souvent minoritaires -gardes à vue sur la foi d’une reconnaissance faciale erronée, sur-contrôle de populations précaires, violences diverses…
À ce sujet, regardez par exemple la récente (et courte) conférence de la sociologue Ruha Benjamin sur la technologie. Comme plusieurs autres expertes que nous mentionnons régulièrement dans nos articles - Timnit Gebru et Margaret Mitchell en tête -, la chercheuse argumente contre les récits relatifs à l’AGI. Elle se prononce en revanche en faveur de la mise au service des technologies de pointe au service des populations, au niveau local.
Sur Mastodon, la co-autrice du célèbre article qualifiant les grands modèles de langages de « perroquets stochastiques », Emily Bender, souligne par ailleurs que le catastrophisme de l’IA est aussi une manière de faire durer le buzz autour de la technologie.
La linguiste appelle régulièrement les journalistes - et leurs lecteurs -à « résister à la tentation d’être impressionnés » par l’IA - pour plutôt aller observer en pratique, sur le terrain, son fonctionnement et ses effets.
IA forte, IA faible
Le concept d’AGI est relativement proche de celle d’IA forte, par opposition à l’IA faible. En anglais, on parle plutôt de General AI (IA générale) et de Narrow AI (IA étroite).
L’idée, c’est que l’IA faible est très efficace dans des tâches très spécialisées (par exemple, détecter des inflammations et des cicatrices dans des images de vaisseaux sanguins, pour détecter des signes avant coureurs d’infarctus chez les hommes), mais inutilisable pour autre chose que ce à quoi elle a été entraînée.
L’IA forte, elle, serait capable de transférer des notions auxquelles elle a été entraînée dans un premier domaine (par exemple : médical) vers quelque chose de tout à fait différent. Si l’on reprend la catégorisation proposée par DeepMind, elle est pour le moment inexistante, sauf au niveau émergent : les auteurs de l’article ont classé les récentes applications de grands modèles de langage ChatGPT, Bard, et le modèle Llama 2 au niveau 1 des IA fortes.
General-Purpose AI (GPAI)
Cette expression-là ressemble à AGI mais est pourtant beaucoup plus concrète : elle fait partie des termes directement utilisés dans les travaux en cours au sein de l’Union Européenne pour encadrer l’intelligence artificielle.
Elle a notamment été promue par le Future of Life Institute et son Président Max Tegmark lors des auditions auprès du Parlement européen. Influent dans les cercles de réflexion sur les régulations de l'IA, le Future of Life Institute compte aussi plusieurs membres liés à l'idéologie long-termiste et se focalise, entre autres, sur la lutte contre les « risques existentiels » que les technologies feraient peser sur l'humanité.
Selon le texte adopté par le Parlement européen, le terme de GPAI (ou système d’IA à but général) qualifie un modèle d’IA qui peut être « utilisé et adapté à un grand nombre d’applications pour lesquelles il n’a pas été spécifiquement construit ».
En somme, il s’applique à des modèles qui pourraient aussi bien être utilisés dans la médecine que dans la construction de smartphones (si l’on parle d’un hypothétique système de reconnaissance d’images, par exemple) sans prendre en compte les données qui ont servi à son entraînement ni celles qui serviront à ses applications.
Modèles de fondation
Les « modèles de fondation » sont une autre catégorie utilisée dans le texte européen, et défini comme « un système d’IA entraîné sur un vaste jeu de données, et construit pour la généralité de ses productions » en sortie. Ce type de système « peut être adapté à un grand nombre de tâches distinctes ». Cette fois-ci, on s’intéresse donc à un modèle complet et en état de fonctionner… comme ChatGPT ou Midjourney.
Le terme de « modèle de fondation » a été posé pour la première fois par l’Université de Stanford, dans un article de 2021. S’il est arrivé jusque dans les travaux législatifs en Europe, le concept reste débattu par la communauté scientifique - en 2021, l’informaticien Jitendra Malik qualifiait l’idée même de « fondation » d’ « horriblement fausse » et comparait les modèles en question à des « châteaux dans le ciel ». Il en va de même pour les outils que les équipes de Stanford en font découler, à l’image du récent index de la transparence de modèles de fondation.
Frontier AI
Un peu moins présent (pour le moment ?) dans les discussions francophones sur l’intelligence artificielle, une autre expression nous semble revenir dans les débats, au moins côté américain : celle de Frontier AI. Il n’existe pas de réelle traduction de cette expression à notre connaissance - mais qui sait, peut-être vous mettrez-vous à parler d’IA frontière après avoir lu cet article ?
Toujours est-il que cette notion renvoie, encore une fois, à l’idée d’un seuil au-delà duquel les machines seraient capables de dépasser les humains, en bien ou en mal. Si l’idée de « technologie de frontière » remonte à plus loin, l’expression « Frontier AI » est tirée d’un article publié en juillet par OpenAI.
L’entreprise qui construit ChatGPT et Dall-E y discutait des enjeux de sécurité posés par les « modèles frontières », qu’elle définissait comme « des modèles de fondations très performants qui pourraient posséder des capacités dangereuses suffisantes pour poser des risques graves pour la sécurité publique ».
Il est intéressant de noter qu’elle commence à essaimer : on la retrouve notamment dans plusieurs notes de recherche du Département pour la Science, l’innovation et les technologies du gouvernement britannique.
Entraînement
« Entraînement », « apprentissage », « hallucination », même… Énormément de mots liées au champ de l’intelligence artificielle se rapportent à des activités intrinsèquement humaines, en particulier à celle de l’éducation des plus jeunes d’entre nous. Si cela peut être utile dans la vie de la recherche, cela pose aussi des problématiques en termes de vulgarisation.
De nombreux experts alertent ainsi sur les difficultés que ces formes d’anthropomorphisation posent dans le débat public. Comme nous le rapportions en février 2023, la directrice de recherche chez Data & Society Jenna Burell appelle par exemple à parler d’« exploration de données » ou d’ « optimisation statistique » plutôt que d’« apprentissage machine » ou d’« intelligence artificielle ».
Ça nous crée aussi des questionnements à nous, journalistes : jusqu’à récemment, nous avions tendance à illustrer les sujets sur l’IA par des représentations de visages bleutés… donc à pousser la comparaison entre machines et humains. Heureusement, une entité comme Better images of AI aide à dépasser ces visions un peu cliché.
Un avis sur les débats terminologiques en cours ? Y a-t-il d’autres termes que vous voudriez voir creusés ?
Pour aller plus loin : « Quatre nuances de régulation de l’intelligence artificielle, une cartographie des conflits de définition », dans la revue Réseaux.
AGI, GPAI, modèles de fondation… de quoi on parle ?
-
Intelligence artificielle générale (AGI pour les intimes)
-
IA forte, IA faible
-
General-Purpose AI (GPAI)
-
Modèles de fondation
-
Frontier AI
-
Entraînement
Commentaires (11)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 30/11/2023 à 11h28
J'ai commencé a voir le terme d'AGI dans le feuilleton Sam ALTAM et j'avoue que des explications s'imposait
Le 30/11/2023 à 12h08
Si vous en voulez, c'est ce que je vous ai proposé 😇
Le 30/11/2023 à 12h20
Peut être une source d'inspiration possible.
Le 30/11/2023 à 16h09
Le 30/11/2023 à 16h38
Le 03/12/2023 à 04h48
Modifié le 30/11/2023 à 22h19
Edit : et la fin de l'article rejoint parfaitement l'illustration. Bien vu.
Et merci pour ces éclaircissements linguistiques
Modifié le 03/12/2023 à 04h59
J'ai mis du temps à retrouver le logo original qui est celui de Larousse.
Le 01/12/2023 à 00h41
Dans le cadre de l'utilisation de ChatGPT (et assimilés), tout le monde parle de Grounding et de RAG en particulier. Des techniques pour limiter les hallucinations et construire ce qui pourrait ressembler à des systèmes expert au dessus de LLMs.
(de mon point de vue, des tentatives vaines de transformer des pipoteurs géniaux en experts, mais force est de constater que beaucoup de gens semblent y croire).
Le 02/12/2023 à 22h42
Je parle d'un outil/protocole/norme qui classerait une IA en fonction de ses capacités.
Exemples :
- l'IA sait reconnaître une voiture en donnant un pourcentage de certitude de détection d'une voiture dans une image : score 1
- l'IA est capable de "décider" si une voiture est présente sur une image : score 2
- l'IA est capable de "décider" combien il y a de voitures sur une image : score 3
-...
- l'IA est capable de passer un feu du vert au rouge quand elle détecte qu'il y a besoin de le faire au vu du trafic : score 60000
Ça serait quand même plus clair que des termes plus ou moins parlants et assez subjectifs, non ?
Le 04/12/2023 à 10h27
Actuellement, ces IA ne comprennent pas ce qui leur est demandé et ne comprennent pas ce qu'elles génèrent.
Le sens est donné par l'utilisateur.
Pourquoi qualifier cela d'Intelligence ?
Il faudrait peut-être en français trouver un terme dont la signification se rapproche plus de la signification d'"Intelligence" dans la culture anglo-saxonne, comme la "business intelligence" : l'informatique décisionnelle : Wikipedia