Connexion
Abonnez-vous

Neurone, inférence, entraînement, hallucination… de quoi on parle ?

B.a.bIA #2

Neurone, inférence, entraînement, hallucination… de quoi on parle ?

Les expressions se multiplient, quand on parle d’intelligence artificielle. Mais qu’est-ce qu’un neurone artificiel ? Et quelle différence entre une hallucination humaine et celle d’une machine ?

Le 05 avril à 08h15

Machine learning, apprentissage non-supervisé, hallucinations... Au gré de nos articles sur l’intelligence artificielle, nous utilisons à loisir tout un vocabulaire qui, s’il est souvent tiré d’activités humaines, qualifie bien des éléments spécifiques au champ informatique.

Après avoir décortiqué une partie des expressions génériques qui qualifient certains champs et sous-champs du domaine, intéressons-nous donc au fonctionnement plus précis des systèmes d’IA.

Nos autres lexiques de l’IA :

Machine learning, deep learning

Entraînés sur de vastes sommes de données, les modèles d’apprentissage machine (machine learning) y détectent des schémas et des tendances qui leur permettent de réaliser des prédictions ou des recommandations de plus en plus précises, au fil des essais/erreurs et/ou des optimisations réalisées par leurs constructeurs.

Sous-champ de ce domaine, le deep learning, ou apprentissage profond, concerne des systèmes algorithmiques construits sur une architecture en réseau de neurones artificiels à multiples couches – plus il y a de couches de neurones artificiels, plus le modèle est profond.

Si l’apprentissage machine est le domaine qui fait le plus parler depuis bientôt une quinzaine d’années, il est loin d’être le seul axe par lequel créer des modèles d’intelligence artificielle. Les systèmes experts, qui fonctionnent avec des règles préétablies, sont une autre manière d’en construire. Ils fonctionnent notamment à l'aide de moteurs d’inférence.

Neurone artificiel

Dans le champ informatique, le fonctionnement des réseaux de neurones (neural networks) est inspiré de la réalité biologique. Le nœud d’un tel réseau peut donc recevoir plusieurs valeurs en entrée pour n’en générer qu’une en sortie. Comme l’explique la CNIL, le neurone calcule la valeur qu’il produira en sortie en appliquant une fonction d’activation à la somme pondérée des valeurs reçues en entrée.

Un neurone peut par exemple simuler une porte logique « ou » ou une porte « et », comme expliqué dans cette vidéo. Un seul neurone ne peut pas faire un « ou exclusif », mais trois neurones le peuvent. Et on retombe bien vite sur l’informatique classique, qui fonctionne à base de portes logiques.

Des neurones sont ensuite interconnectés afin de constituer une architecture de calcul. « Il existe de nombreux types de réseaux de neurones artificiels tels que les réseaux de neurones récurrents, les auto-encodeurs, les réseaux transformeurs ou encore les réseaux antagonistes génératifs (generative adversarial networks) », ajoute la CNIL.

Pour mieux comprendre le fonctionnement d’un neurone et l’avantage de les interconnecter pour en faire un réseau, on ne peut que vous conseiller de regarder cette série de vidéos d’Arnaud Bodin de l’université de Lille.

Paramètres

Un paramètre est une des propriétés apprises à partir des données d’entraînement. Les paramètres d’un modèle sont les multiples variables à partir desquelles la machine est entraînée et optimisée, et qui lui permettent, à terme, de produire des résultats corrects. Dans les systèmes en réseaux de neurones, ces paramètres incluent le poids (ou nombre d’entrées) de chaque neurone.

Les gros réseaux de neurones actuels disposent de plusieurs dizaines de milliards de paramètres. GPT-2 en affiche 1,5 milliard, GPT-3 175 milliards. Pour GPT-4 il serait question de 1 000 milliards de paramètres. En gros, plus le chiffre est élevé, plus l’intelligence artificielle sera précise, mais au prix d'un coût d'entraînement plus important en énergie.

Quantification

Les grands modèles de langage (LLM) contenant un nombre de paramètres toujours plus volumineux, leur consommation de mémoire GPU ne fait, elle aussi, que s’accroître. Pour contraindre autant que possible l’empreinte des systèmes, des techniques de quantification (quantization) sont utilisées pour réduire la précision numérique des nombres flottants qui servent de paramètres aux modèles.

Comme l’explique Hugging Face, cela consiste à ne plus utiliser des nombres flottants de haute précision (sur 32, voire 64 bits), mais plutôt de les convertir sur un plus faible nombre de bits, vers 16 bits (float16 ou bfloat16), voire en nombres entiers de 8 bits (int8). Cela rendra le modèle un peu moins précis, mais aussi plus rapide.

La quantification peut avoir lieu en amont de l’entraînement (on parle de quantization aware training, QAT), ou en aval (post-training quantization, PTQ).

Inférence, entraînement, apprentissage

Une inférence est une opération logique, qui consiste à passer de prémisses (des faits, des énoncés déclarés vrais) à des conclusions. Dans certains cas, on peut parler de déduction. Si le terme est d’abord utilisé dans le champ de la philosophie, on le retrouve en informatique… dans les systèmes qui simulent le raisonnement déductif. C’est notamment le cas des moteurs d’inférences qui permettent aux systèmes experts de fonctionner.

Chez Next, on entend parfois des data scientists utiliser indifféremment entraînement et inférence. Depuis l’essor des techniques d’apprentissage machine, il semblerait, en effet, que le terme d’inférence en soit venu à décrire le processus par lequel ce type de système produit ses prédictions ou ses recommandations de décisions.

Il existe néanmoins une différence, comme l’explique la société XII (service et conseil en IA) : « L'inférence en intelligence artificielle fait référence au processus par lequel un modèle formé ou entraîné est utilisé pour effectuer des prédictions sur de nouvelles données, après sa phase d'apprentissage. Lors de l'apprentissage, le modèle est exposé à un vaste ensemble de données d'entraînement annotées, où il cherche à identifier des schémas, des caractéristiques et des relations qui lui permettront de généraliser les connaissances acquises sur de nouvelles données. Une fois que le modèle a été suffisamment entraîné, il peut être déployé en production pour effectuer des inférences sur des données non annotées sans avoir besoin d'accéder aux données d'apprentissage ».

Elle reconnait néanmoins que la distinction entre les deux peut parfois sembler floue, d’autant que pendant l'entraînement, le modèle effectue des inférences pour ajuster ses paramètres. « Cependant, dans le contexte de l'IA, on utilise souvent le terme “inférence” pour décrire l'utilisation du modèle déployé en production, tandis que l’apprentissage se réfère à la phase initiale où le modèle est entraîné sur des données annotées ». On retrouve la même distinction chez Cloudflare et d’autres.

Dans la série des synonymes, on parle aussi d’apprentissage pour qualifier le processus par lequel le système d’intelligence artificielle construit un modèle à partir de ses données d’entraînement. Il existe en réalité une variété de techniques d’apprentissage, qui peuvent être mêlées : les forêts aléatoires (random forests) consistent à créer de multiples arbres de décisions, eux-mêmes entraînés sur des sous-ensembles de données ; l’apprentissage par renforcement consiste à faire progresser le système par essai/erreur, on peut y adjoindre des retours automatiques, ou des retours humains, comme c’était le cas pour GPT-4, etc.

Apprentissage supervisé, apprentissage non supervisé

Quelles que soient les techniques d’entraînement adoptées, celles-ci sont nécessaires pour que le système d’IA construise le modèle qui lui permettra de répondre au cas d’usage qu’on lui a assigné. Cette phase peut être supervisée ou non. Dans le premier cas, on donne à la machine des données préalablement étiquetées. Le système apprend donc à faire des prédictions relatives à la relation qui lie les étiquettes aux données qu’elles qualifient.

Quand le système apprend à partir d’une somme de données non étiquetées, on parle d’apprentissage non supervisé. Dans ces cas-là, la machine est généralement entraînée à repérer des schémas ou des tendances dans la masse d’informations reçues.

Annotation, labellisation

L’annotation, l’étiquetage ou la labellisation sont autant de qualificatifs de l’une des tâches humaines essentielles pour permettre à bon nombre de systèmes d’intelligence artificielle de fonctionner : ce sont les activités qui consistent à étiqueter les données, pour permettre aux modèles d’être entraînés par apprentissage supervisé.

On croise aussi le terme de groundtruth (vérité terrain) pour qualifier les données issues du monde hors ligne, décrivant le réel, qui servent à entraîner les machines. Le terme groundtruth peut être employé pour différencier ces éléments des données produites par inférences.

Hallucination ou confabulation ?

Hallucination et confabulation sont deux autres termes très utilisés dans le champ technologique, alors qu’ils définissent à l'origine des troubles psychologiques. Une hallucination est un phénomène psychique qui pousse à percevoir des éléments inexistants ou à ressentir des sensations sans que quoique ce soit d’extérieur ne les ait fait naître.

Quant à la confabulation, il s’agit de la création de souvenirs qui n’ont jamais existés, ce qui peut aller de petites erreurs anodines jusqu’aux perturbations avancées des récits qu’on peut trouver chez des personnes atteintes de démence.

Dans le champ de l’intelligence artificielle, les hallucinations désignent des erreurs dans lesquelles le système produit du texte ou des images incohérents, les confabulations désignent la production de résultats qui ne correspond à aucun motif (pattern) appris précédemment… et les deux termes peuvent être utilisés de manière plus ou moins interchangeable, en attendant qu’une tendance nette se dégage.

Citations de sources inexistantes, attributions de textes imaginaires à des personnes réelles et autres affirmations fausses en sont des exemples pour les systèmes générant du texte, de même que la reconnaissance d’objets ou de motifs inexistants peuvent l’être pour les systèmes de reconnaissance d’images.

Dans ce screenshot d'une génération de vidéo par le modèle Sora, la machine a produit une deuxième voie sur le viaduc Glennfinnan, en Écosse, ainsi qu'une deuxième cheminée sur la locomotive ancienne du train. Aucun des deux n'existent dans la réalité.

Pour une linguiste comme Emily Bender, utiliser des termes aussi évocateurs de la pensée (et des erreurs) humaine participe à faire passer les technologies d’intelligence artificielle pour ce qu’elles ne sont pas, c’est-à-dire des machines pensantes.

Avec Timnit Gebru, Margaret Mitchell et les autres signataires de l’article sur les « perroquets stochastiques », publié en 2020, elle rappelait par exemple que les grands modèles de langages ne sont que des systèmes probabilistes. C’est-à-dire qu’ils produisent des textes certes crédibles aux yeux des humains, mais uniquement produits par calculs statistiques. Les machines sont incapables d’y mettre le moindre sens, ce qui participe à expliquer qu’elles produisent des erreurs de sens ou des résultats faux.

Commentaires (7)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
Merci pour l'article.
(Pas taper mais je n'en ai fait qu'une lecture rapide pour le moment mais je le reprendrait plus intensément plus tard)
Ca me fait penser à une vidéo de Officiel DEFAKATOR [https://youtu.be/iAy-cw4uSpE?si=fkP7UrV1hrs7y2uu], sur l' "IA".


Digression : A force de lire et relire des sujets sur le sujet, j'ai le sentiment qu'il y a un consensus pour dire que IA est impropre et confusant.
Qu'est-ce qui correspondrait le mieux ?
AA Apprentissage artificiel ? (Et non Alcoolique Anonyme)
ASA Analyse et Synthétise Algorithmique ? (Et non Absence Spéciale Autorisée)
votre avatar
Je pense que c’est un peu la même problématique avec chiffrer et crypter, entre l’usage et la compréhension d’un côté et l’aspect plus technique de l’autre. :chinois:
[Édito] Crypter, chiffrer : le défi de la vulgarisation
votre avatar
Super article merci !
votre avatar
J'ai toujours du mal avec le fait de considérer le phénomène d'hallucination de l'IA générative comme un problème. De plus, une hallucination n'est pas forcément la création d'une incohérence ou d'une erreur sauf si le référentiel de celle-ci est considérer qu'une chose qui n'existe pas est incohérente. Auquel cas, en tant qu'auteur de science fiction, j'hallucine, je suis incohérent et je fabule car j'écris au sujet de faits inventés, irréels et irréalistes (m'enfin, après tout, les écrivains sont souvent considérés comme ayant un grain, donc peut être que c'est le cas).

C'est au contraire sa principale fonctionnalité : imaginer, inventer, produire (ne prenez pas ces mots au pied de la lettre en me disant que c'est que du compute, c'est pas le sujet). Si la demande est d'avoir un système répondant avec exactitude et précision, déterministe, et ne faisant pas d'erreur, c'est pas l'IA générative qu'il faut utiliser mais une base de données et un index, et un machine learning plus classique comme celui utilisé pour identifier des tendances dans des logs applicatives par exemple. Dans un tel cas d'usage, l'intérêt de l'IA générative serait plutôt de synthétiser et extraire de l'information à partir de données cohérentes et définies. Ce qui revient à faire du RAG.

A l'inverse, si on demande à l'IA générative de produire des itérations de possibilités, ce qui au final est son job (générative n'est pas là pour rien, sinon encore une fois c'est juste un index et une BDD qu'il vous faut), c'est là qu'on peut exploiter son potentiel.

L'un des autres points avec lesquels j'ai toujours du mal, c'est de reprocher à l'intelligence artificielle les erreurs qu'elle peut générer, alors que c'est un produit créé par des humains. Machins biologiques imparfaits et qui passent leur temps à en faire des erreurs. Comment peut-on espérer la perfection quand le créateur ne l'est pas ?

Cela me fait donc souvent questionner sur l'attente autour de l'IA. Si l'idée est d'avoir une chose infaillible, désolé, mais ça n'arrivera jamais. Si l'IT était infaillible, je serais chômeur depuis très longtemps.

Pour moi, le principal problème se trouve autour de nos attentes et rapport vis à vis de notre technologie. Si on attend d'elle qu'elle soit constamment parfaite et infaillible sans jamais la remettre en question, dans ce cas on va droit dans le mur. Dans le même mur que se prennent les personnes subissant la désinformation de masse car consommant passivement et stupidement les contenus déversés par d'autres technologies via les entonnoirs à gavage. La confiance dans la technologie est une chose, mais comme dit l'adage : la confiance n'exclue pas le contrôle.
votre avatar
C’est-à-dire qu’ils produisent des textes certes crédibles aux yeux des humains, mais uniquement produits par calculs statistiques. Les machines sont incapables d’y mettre le moindre sens, ce qui participe à expliquer qu’elles produisent des erreurs de sens ou des résultats faux.
Je ne comprends pas trop ce propos, les IA sont bien +/- la reproduction du fonctionnement du cerveau (des neurones et synapses). C'est certes dérangeant à concevoir, mais notre cerveau est également +/- une machine statistique.
La différence majeure est qu'un GPT est spécialisé dans la production de texte quand notre cerveau peut être vu comme un enchevêtrement de réseaux neuronaux interconnectés.
Une partie de notre cerveau fait du GPT, mais une autre partie raisonne / rationalise pour filtrer les incohérences.

GPT-like c'est un cerveau humain qui rêve, c'est au réveil que notre raison réalise les incohérences, entre les idées juste "j'étais dans un train", des incohérences / hallucinations "le tunnel débouchait dans mon salon, je regardais la TV et le train avait disparu".

La pensée et la raison c'est aussi fait avec des neurones et synapses, on n'a pas vraiment réussi à apprendre à un réseau de neurones artificiels à raisonner, mais ça arrivera vraisemblablement un jour ou l'autre.
votre avatar
C'est certes dérangeant à concevoir, mais notre cerveau est également +/- une machine statistique.
C'est même complètement ça. Même si dans notre modèle de pensée il y a encore des mécaniques incomprises, d'ordre général un raisonnement est une analyse de possibilités avec des pours et des contres en se basant sur nos connaissances, notre expérience, et des sources externes.

Ce que fait GPT aussi qui analyse toutes les possibilités pour prédire le prochain token d'une suite de texte.

D'ailleurs en parlant des mécaniques de notre cerveau, une intéressante est démontrée par l'idée du canard en plastique pour debugger.

Quand on raisonne intérieurement, le débit de pensée est rapide et part dans tous les sens. Lorsque le point de blocage arrive (le problème) et qu'on arrive pas à trouver la solution par soit-même, on s'adresse à une aide (ici : le canard). Plus on expose la problématique au canard, plus l'effet eureka ! arrive.

Pourquoi ? Tout simplement parce que lors de l'expression orale, le débit de pensée ralenti et devient plus concis. De plus, on ajoute des détails qu'on ignorerait implicitement car évidents.

D'un certain point de vue, un modèle d'IA générative a une variation similaire. Paramétré avec une température trop élevée (et pas que), il va évaluer beaucoup trop de possibilités et produire un contenu plus aléatoire. En somme, le modèle est créatif. Réduire sa température (ainsi que moduler d'autres params) revient à le rendre plus concis et précis, plus déterministe. Soit comme lorsqu'on s'exprime oralement au sujet d'une problématique et que l'effet eureka ! arrive.

Le fait d'avoir expérimenté avec le Mixtral 8x7B d'Infomaniak était même intéressant pour constater ces variations.
votre avatar
Cet article lexical me fait penser à un épisode de « La Science, CQFD » intitulé « Terminator : 40 ans, toujours pucé » (04/04/2024 – franceculture.fr) :

« Au panthéon des films cultes : Terminator. Le premier opus sorti en 1984 fête ses 40 ans. Pourquoi sa réflexion sur l’intelligence artificielle fait-elle encore écho aujourd’hui en 2024?
Si l’œuvre de James Cameron est si culte, c’est parce qu’elle porte à l’écran un grand nombre de fantasme et de paranoïa : l’apocalypse nucléaire, la fin de l’humanité, le voyage dans le temps et l’éveil d’une IA qui se retournerait contre ses créateurs. En six films, la franchise interroge aussi la limite entre l’humain et la machine, avec, au fil de la saga, un T-800 qui s’humanise au point d’être capable de sourire, de ne plus avoir de mission, et qui finit par boire des bières. »

Neurone, inférence, entraînement, hallucination… de quoi on parle ?

  • Machine learning, deep learning

  • Neurone artificiel

  • Paramètres

  • Quantification

  • Inférence, entraînement, apprentissage

  • Apprentissage supervisé, apprentissage non supervisé

  • Annotation, labellisation

  • Hallucination ou confabulation ?

Fermer