#Nextquick Une simple requête à ChatGPT, c’est déjà des centaines de milliards de calculs
Yo ! Et paf 350 milliards d’opérations !
Quand on parle d’intelligence artificielle, on pense prompt, GPU, inférence, milliards de paramètres, consommation de ressources, etc. Dans ce #Nextquick, on vous explique pourquoi des centaines de milliards d’opérations sont nécessaires pour un petit Yo. C’est aussi à relativiser face à la puissance de calcul des GPU.
Le 16 janvier à 10h45
5 min
Droit
Droit
Nous allons parler du modèle GPT-3 d’OpenAI car nous disposons d’informations précises sur son fonctionnement. Son architecture est décrite dans cette publication sur arXiv : le modèle a 175 milliards de paramètres, il dispose de 96 couches, l’embedding d’un token est 12 288… Le quoi du quoi ?
Token et embedding en version abrégée
Il reste 88% de l'article à découvrir.
Déjà abonné ? Se connecter
Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.
Accédez en illimité aux articles
Profitez d'un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
#Nextquick Une simple requête à ChatGPT, c’est déjà des centaines de milliards de calculs
-
Token et embedding en version abrégée
-
Une couche, c’est 1,8 milliard de paramètres
-
350 milliards de calculs pour un token dans le modèle
-
Les coûts peuvent exploser avec le nombre de tokens
Commentaires (21)
Le 16/01/2026 à 10h58
Le 16/01/2026 à 10h59
Le 16/01/2026 à 11h08
Tu dis Yo à ChatGTP, un ordinateur réalise 350 milliards de calculs pour te répondre.
C’est beaucoup dit comme ça, mais peanuts face à la capacité de calculs des GPU (2 000 000 milliards d’opérations par secondes).
Par contre, plus le prompt et la conversation augmente, plus les ressources sont importantes (elles augmentent). 6 000 tokens -> 36 000 000 fois plus de calculs.
Modifié le 16/01/2026 à 11h18
Du coup, je me suis mis de coté le site de @SebGF et j'ai fait un petit passage sur https://www.lonestone.io/ai/llm pour avoir un petit rafraichissement ! J'avais quelques notions et termes sur le sujet, mais c'est vrai que tu m'as perdu assez vite. Je relirai après m'être remis dedans !
Le 16/01/2026 à 11h53
Mais multiplié par le nombre de personne se servant d'une IA (de plus en plus, pour des choses pas forcément nécessaire), ça fait un nombre non-négligeable.
Et surtout, c'est de la puissance de calcul qui peut être évité. Montrant qu'il faut encore plus de puissance, donc encore plus de datacenter.
Notre entreprise est en train de mettre en place un chatbot accessible par tous les employés, ils viennent de diffuser une vidéo d'information, et à la fin, le responsable IT faisant la démonstration. Il répond aux questions de l'IA "as-tu encore besoin de quelque chose", par 2 phrases du type "c'est bon pour aujourd'hui" et "merci".
Un bel exemple de ce qu'il n'a pas besoin d'être fait.
Avec l'IA il faut savoir être impoli. Dire bonjour, s'il te plait, merci sont inutiles, voire contre-productif (puissance de calcul pour rien).
Le 16/01/2026 à 11h57
Le 16/01/2026 à 12h30
Le fait qu'ils soient markettés comme des "compagnons" "assistants" etc... en jouant abusivement sur les psychologies et émotions des utilisateur.ices (d'où les maladies mentales de masse et les suicides qu'il provoque) est bien sûr une décision tout à fait consciente. La causalité entre les LLMs de gafam et les troubles psychiatriques est avérée.
Le 16/01/2026 à 15h30
Le jour ou ces modèles cesseront d'en tenir compte, je cesserai d'être poli avec ces logiciels.
Modifié le 16/01/2026 à 18h24
Le 16/01/2026 à 19h10
Modifié le 16/01/2026 à 20h17
Ce qui en ressort c'est que comparé à GPT 3.5, GPT 4 semble beaucoup moins sensible à la politesse des messages, je cite :
MAIS à cela, il faut ajouter une tonne de nuances :
Ainsi, plus les versions avancent, moins ce biais de politesse semble influencer la qualité et la longueur des réponses. Mais il faudrait faire une étude avec le Français et GPT-5 (...ou d'autres modèles ? Après tout, il n'y a pas qu'OpenAI dans la vie !...) pour en être certain.
Le 16/01/2026 à 21h43
Personnellement, je reste sur Mistral Small qui m'apporte satisfaction. J'ai testé Apertus de Swiss AI, et il est... chiant. Au sens où j'arrive même pas à lire le texte généré tellement il m'endort par sa platitude.
Le 17/01/2026 à 09h13
Le 16/01/2026 à 12h10
- les identifiants, généralement des groupes de caractères de mots
- les blancs (espaces et compagnie), généralement ignorés
- le reste
Autant je comprendrais que le mot soit décomposé en syllabes pour de la sémantique, mais c'est généralement une étape qui vient après.
Le 16/01/2026 à 17h20
Sinon, ça, c'est que pour l'utilisation.
Pour l'apprentissage, c'est autre chose :
1. Tu donnes "Yo" à ta LLM initialisée avec des valeurs random
2. Elle te répond "Pi/2", normal, ça a aucun rapport, c'est aléatoire.
3. Suivant la réponse au 2., tu va augmenter les poids qui ont contribué à la bonne réponse, ou baisser les poids qui ont contribué à la mauvaise.
4. Retour à l'étape 1. tant que la valeur de sortie en 2. n'est pas acceptable et n'est pas ~stable (il te répond "Salut", "Bonjour" ou "Ok", et dans moins de 10 % des cas "LIzerSQKUHcvJDE")
5. Refaire tout ça, avec un autre token
6. Vérifier que les tokens appris précédemment fonctionnent toujours ~correctement (des variations sont normales)
⇒ Ta LLM est entraînée
Comme on peut le voir, l'étape 2., qui est celle qui consomme beaucoup, est celle qui est répétée un nombre de fois immense.
A noter que à l'étape 4., le pourcentage d'erreur est logarithmique : si on veut faire baisser ce pourcentage, il faut augmenter exponentiellement le nombre d'itérations (déjà élevées) de l'étape 2.
Modifié le 16/01/2026 à 18h44
Le 17/01/2026 à 09h13
Modifié le 17/01/2026 à 15h37
1) Yo : réponse immédiate obtenue 2) Ya : réponse immédiate obtenue 3) Yi : réponse immédiate obtenue 4) Ja : réponse immédiate obtenue Je ne sais pas trop quoi en conclure, sinon que les réponses sont "correctes".
Et je ne sais pas combien de milliards de calcul ont été nécessaires !
Le 17/01/2026 à 18h50
Le 19/01/2026 à 00h16
Et j’ai déjà expérimenté également les réponses différentes à une même requête.
Sinon, petit lapsus avec "quéquette" ?
Modifié le 18/01/2026 à 09h18
Par contre, j'ai les yeux qui saignent quand je lit "token". On dit jeton en français et le sens est vraiment le même donc je ne vois pas de raison de ne pas faire la traduction.
Et le prompt, c'est aussi traduisible. Je pense que propager les bonnes traductions donc éduquer les lecteurs, d'une certaine façon, fait partie du journalisme.
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?