lexique IA parodie

AGI, GPAI, modèles de fondation… de quoi on parle ?

B.I.A Bia

Avatar de l'auteur
Mathilde Saliou

Publié dans

IA et algorithmes

30/11/2023
11

lexique IA parodie

Les acronymes et expressions se multiplient, quand on parle d’intelligence artificielle. Mais que recouvrent ces termes, intelligence artificielle générale, General Purpose AI, et autres ?

Intelligence artificielle générale, modèle de fondation, modèles frontières, même. Des expressions apparaissent dans les médias, dans les débats, dans les textes sur lesquels les législateurs européens travaillent. Au point qu’il est difficile de bien saisir qui désigne quoi, et dans quelle mesure les expressions se recouvrent, ou pas.

Pour sortir de ce mauvais pas, Next se lance dans un mini-inventaire à la Prévert des termes qui peuplent certains de nos propres articles, mais pour lesquels, nous aussi, on doit se re-creuser la tête à chaque fois qu’on les emploie. Bien sûr, toutes ces définitions restent mouvantes – elles sont aussi, comme vous pourrez le lire, le fruit d’un intense lobbying des diverses forces en présence.

Intelligence artificielle générale (AGI pour les intimes)

L’intelligence artificielle générale est un concept à la fois controversé dans la sphère scientifique, et utilisé assez facilement dans la sphère médiatique. Il qualifie des modèles d’intelligence artificielle capables de réaliser toutes sortes de tâches, aussi bien que les humains voire mieux, y compris des tâches cognitives. En somme, une AGI serait douée d’une forme de sensibilité ou de volonté (et c’est là que se logent une grosse partie des débats, car beaucoup de spécialistes estiment qu’une telle idée relève de la fiction, tandis que d’autres, non).

Pour tenter d’éclaircir le débat, Google DeepMind a publié début novembre un article dans lequel les auteurs proposent des niveaux d’intelligence artificielle. Ceux-ci s’échelonnent de 0 (pas d’IA) à 5 (surhumain), en passant par des niveaux qualifiés d’ « émergent » (niveau 1), « compétent » (niveau 2), « expert » et « virtuose ». Le papier fait aussi la différence entre IA faibles et fortes (on en reparle juste en dessous) et liste des modèles comme AlphaFold et AlphaZero, développés par DeepMind, comme des IA faibles surhumaines.

Si l’on vous parle de ce concept en premier, c’est parce qu’il est l’un des plus clivants. Un des pendants de la probable arrivée d’une AGI, c’est qu’elle pourrait poser des « risques existentiels », expression parfois raccourcie en « X risk » dans les discussions en ligne. Cette expression qualifie à l’origine tout un champ de recherche, qui se penche sur des risques sanitaires, environnementaux, technologiques, etc.

Dans le cadre des débats autour des capacités de l’IA, en revanche, elle prend une couleur particulière. Des spécialistes comme Geoffrey Hinton et des entrepreneurs comme Sam Altman ou Elon Musk ont alerté à plusieurs reprises contre les « risques existentiels » que poserait l’IA, et en particulier la potentielle AGI. D’autres, comme Gary Marcus, estiment ces prévisions exagérées.

Les plus critiques estiment enfin que présenter l’IA comme potentiellement surhumaine convoque beaucoup d’idées issues de domaines plus culturels que techniques (la science fiction en tête), et avec elles, des propositions pas toujours nuancées – des discours qui relèvent du technosolutionnisme, d’autres du catastrophisme de l’IA (AI doomerism)…

Pour une partie de ces critiques, notamment de nombreux promoteurs d’une forme d’éthique de l’IA, brandir l’image de technologies potentiellement surhumaines empêche de parler des effets très concrets que les modèles algorithmiques ont déjà sur toutes sortes de populations, souvent minoritaires – gardes à vue sur la foi d’une reconnaissance faciale erronée, sur-contrôle de populations précaires, violences diverses

À ce sujet, regardez par exemple la récente (et courte) conférence de la sociologue Ruha Benjamin sur la technologie. Comme plusieurs autres expertes que nous mentionnons régulièrement dans nos articles – Timnit Gebru et Margaret Mitchell en tête -, la chercheuse argumente contre les récits relatifs à l’AGI. Elle se prononce en revanche en faveur de la mise au service des technologies de pointe au service des populations, au niveau local.

Sur Mastodon, la co-autrice du célèbre article qualifiant les grands modèles de langages de « perroquets stochastiques », Emily Bender, souligne par ailleurs que le catastrophisme de l’IA est aussi une manière de faire durer le buzz autour de la technologie.

La linguiste appelle régulièrement les journalistes – et leurs lecteurs – à « résister à la tentation d’être impressionnés » par l’IA – pour plutôt aller observer en pratique, sur le terrain, son fonctionnement et ses effets.

IA forte, IA faible

Le concept d’AGI est relativement proche de celle d’IA forte, par opposition à l’IA faible. En anglais, on parle plutôt de General AI (IA générale) et de Narrow AI (IA étroite).

L’idée, c’est que l’IA faible est très efficace dans des tâches très spécialisées (par exemple, détecter des inflammations et des cicatrices dans des images de vaisseaux sanguins, pour détecter des signes avant coureurs d’infarctus chez les hommes), mais inutilisable pour autre chose que ce à quoi elle a été entraînée.

L’IA forte, elle, serait capable de transférer des notions auxquelles elle a été entraînée dans un premier domaine (par exemple : médical) vers quelque chose de tout à fait différent. Si l’on reprend la catégorisation proposée par DeepMind, elle est pour le moment inexistante, sauf au niveau émergent : les auteurs de l’article ont classé les récentes applications de grands modèles de langage ChatGPT, Bard, et le modèle Llama 2 au niveau 1 des IA fortes.

General-Purpose AI (GPAI)

Cette expression-là ressemble à AGI mais est pourtant beaucoup plus concrète : elle fait partie des termes directement utilisés dans les travaux en cours au sein de l’Union Européenne pour encadrer l’intelligence artificielle.

Elle a notamment été promue par le Future of Life Institute et son Président Max Tegmark lors des auditions auprès du Parlement européen. Influent dans les cercles de réflexion sur les régulations de l’IA, le Future of Life Institute compte aussi plusieurs membres liés à l’idéologie long-termiste et se focalise, entre autres, sur la lutte contre les « risques existentiels » que les technologies feraient peser sur l’humanité.

Selon le texte adopté par le Parlement européen, le terme de GPAI (ou système d’IA à but général) qualifie un modèle d’IA qui peut être « utilisé et adapté à un grand nombre d’applications pour lesquelles il n’a pas été spécifiquement construit ».

En somme, il s’applique à des modèles qui pourraient aussi bien être utilisés dans la médecine que dans la construction de smartphones (si l’on parle d’un hypothétique système de reconnaissance d’images, par exemple) sans prendre en compte les données qui ont servi à son entraînement ni celles qui serviront à ses applications.

Modèles de fondation

Les « modèles de fondation » sont une autre catégorie utilisée dans le texte européen, et défini comme « un système d’IA entraîné sur un vaste jeu de données, et construit pour la généralité de ses productions » en sortie. Ce type de système « peut être adapté à un grand nombre de tâches distinctes ». Cette fois-ci, on s’intéresse donc à un modèle complet et en état de fonctionner… comme ChatGPT ou Midjourney.

Le terme de « modèle de fondation » a été posé pour la première fois par l’Université de Stanford, dans un article de 2021. S’il est arrivé jusque dans les travaux législatifs en Europe, le concept reste débattu par la communauté scientifique – en 2021, l’informaticien Jitendra Malik qualifiait l’idée même de « fondation » d’ « horriblement fausse » et comparait les modèles en question à des « châteaux dans le ciel ». Il en va de même pour les outils que les équipes de Stanford en font découler, à l’image du récent index de la transparence de modèles de fondation.

Frontier AI

Un peu moins présent (pour le moment ?) dans les discussions francophones sur l’intelligence artificielle, une autre expression nous semble revenir dans les débats, au moins côté américain : celle de Frontier AI. Il n’existe pas de réelle traduction de cette expression à notre connaissance – mais qui sait, peut-être vous mettrez-vous à parler d’IA frontière après avoir lu cet article ?

Toujours est-il que cette notion renvoie, encore une fois, à l’idée d’un seuil au-delà duquel les machines seraient capables de dépasser les humains, en bien ou en mal. Si l’idée de « technologie de frontière » remonte à plus loin, l’expression « Frontier AI » est tirée d’un article publié en juillet par OpenAI.

L’entreprise qui construit ChatGPT et Dall-E y discutait des enjeux de sécurité posés par les « modèles frontières », qu’elle définissait comme « des modèles de fondations très performants qui pourraient posséder des capacités dangereuses suffisantes pour poser des risques graves pour la sécurité publique ».

Il est intéressant de noter qu’elle commence à essaimer : on la retrouve notamment dans plusieurs notes de recherche du Département pour la Science, l’innovation et les technologies du gouvernement britannique.

Entraînement

« Entraînement », « apprentissage », « hallucination », même… Énormément de mots liées au champ de l’intelligence artificielle se rapportent à des activités intrinsèquement humaines, en particulier à celle de l’éducation des plus jeunes d’entre nous. Si cela peut être utile dans la vie de la recherche, cela pose aussi des problématiques en termes de vulgarisation.

De nombreux experts alertent ainsi sur les difficultés que ces formes d’anthropomorphisation posent dans le débat public. Comme nous le rapportions en février 2023, la directrice de recherche chez Data & Society Jenna Burell appelle par exemple à parler d’« exploration de données » ou d’ « optimisation statistique » plutôt que d’« apprentissage machine » ou d’« intelligence artificielle ».

Ça nous crée aussi des questionnements à nous, journalistes : jusqu’à récemment, nous avions tendance à illustrer les sujets sur l’IA par des représentations de visages bleutés… donc à pousser la comparaison entre machines et humains. Heureusement, une entité comme Better images of AI aide à dépasser ces visions un peu cliché.

Un avis sur les débats terminologiques en cours ? Y a-t-il d’autres termes que vous voudriez voir creusés ?


Pour aller plus loin : « Quatre nuances de régulation de l’intelligence artificielle, une cartographie des conflits de définition », dans la revue Réseaux.

11

Écrit par Mathilde Saliou

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Intelligence artificielle générale (AGI pour les intimes)

IA forte, IA faible

General-Purpose AI (GPAI)

Modèles de fondation

Frontier AI

Entraînement

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Commentaires (11)


Raikiwi Abonné
Le 30/11/2023 à 11h 28
Merci pour cet article, c'est très intéressant.

J'ai commencé a voir le terme d'AGI dans le feuilleton Sam ALTAM et j'avoue que des explications s'imposait
SebGF Abonné
Le 30/11/2023 à 12h 08
> Si l’on reprend la catégorisation proposée par DeepMind, elle est pour le moment inexistante, sauf au niveau émergent : les auteurs de l’articles ont classé les récentes applications de grands modèles de langage ChatGPT, Bard, et le modèle Llama 2 au niveau 1 des IA fortes.

Pour le coup c'est sujet à débat car GPT est considéré aussi comme Narrow AI car limité à une seule fonctionnalité (la génération de texte). Sauf si on parle vraiment de leurs implémentations avec ChatGPT qui travaille aussi avec DALL-E et autres features. Car GPT seul, il est quand même un peu con et limité.

> La linguiste appelle régulièrement les journalistes – et leurs lecteurs – à « résister à la tentation d’être impressionnés » par l’IA – pour plutôt aller observer en pratique, sur le terrain, son fonctionnement et ses effets.

Si vous en voulez, c'est ce que je vous ai proposé 😇
Renault Abonné
Le 30/11/2023 à 12h 20
Pour Frontier AI, il semble que ce soit lié au concept de singularité : https://fr.wikipedia.org/wiki/Singularit%C3%A9_technologique

Peut être une source d'inspiration possible.
yvan Abonné
Le 30/11/2023 à 16h 09
Changer de libellé pour « optimisation statistique » pourquoi pas, mais reste à prouver que l'intelligence humaine n'est pas que ça elle aussi :)
fred42 Abonné
Le 30/11/2023 à 16h 38
Ça m'étonnerait, je suis nul en statistique. :D
trytodosth Abonné
Le 03/12/2023 à 04h 48

fred42

Ça m'étonnerait, je suis nul en statistique. :D
Il manque les likes des commentaires, ça serait top. En attendant, sache que tu m'as bien fait rire 😆
Refhi Abonné
Le 30/11/2023 à 21h 13
C'est valide de commenter un article juste pour souligner le talent de Flock ? (promis je lis l'article juste après)

Edit : et la fin de l'article rejoint parfaitement l'illustration. Bien vu.
Et merci pour ces éclaircissements linguistiques
Modifié le 30/11/2023 à 22h19
trytodosth Abonné
Le 03/12/2023 à 04h 56
Entièrement d'accord. Du génie !
J'ai mis du temps à retrouver le logo original qui est celui de Larousse.
Modifié le 03/12/2023 à 04h59
Groupetto Abonné
Le 01/12/2023 à 00h 41
Une remarque quand même : ChatGPT n'est pas un "modèle de fondation". C'est la surcouche chatbot à GPT, qui est lui un LLM.

> Y a-t-il d’autres termes que vous voudriez voir creusés ?

Dans le cadre de l'utilisation de ChatGPT (et assimilés), tout le monde parle de Grounding et de RAG en particulier. Des techniques pour limiter les hallucinations et construire ce qui pourrait ressembler à des systèmes expert au dessus de LLMs.

(de mon point de vue, des tentatives vaines de transformer des pipoteurs géniaux en experts, mais force est de constater que beaucoup de gens semblent y croire).
potn Abonné
Le 02/12/2023 à 22h 42
Existe-t-il un système de classification des IA par leurs capacités ?
Je parle d'un outil/protocole/norme qui classerait une IA en fonction de ses capacités.

Exemples :
- l'IA sait reconnaître une voiture en donnant un pourcentage de certitude de détection d'une voiture dans une image : score 1
- l'IA est capable de "décider" si une voiture est présente sur une image : score 2
- l'IA est capable de "décider" combien il y a de voitures sur une image : score 3
-...
- l'IA est capable de passer un feu du vert au rouge quand elle détecte qu'il y a besoin de le faire au vu du trafic : score 60000

Ça serait quand même plus clair que des termes plus ou moins parlants et assez subjectifs, non ?
nicobuq Abonné
Le 04/12/2023 à 10h 27
Cela me semble indispensable de ramener ce IA à des statistiques en effet.

Actuellement, ces IA ne comprennent pas ce qui leur est demandé et ne comprennent pas ce qu'elles génèrent.

Le sens est donné par l'utilisateur.

Pourquoi qualifier cela d'Intelligence ?

Il faudrait peut-être en français trouver un terme dont la signification se rapproche plus de la signification d'"Intelligence" dans la culture anglo-saxonne, comme la "business intelligence" : l'informatique décisionnelle : https://fr.wikipedia.org/wiki/Informatique_d%C3%A9cisionnelle