Connexion Abonnez-vous

IA : Mistral apporte de la transparence sur l’impact environnemental d’un modèle

Un vent de transparence ?

IA : Mistral apporte de la transparence sur l’impact environnemental d’un modèle

Alors que les entreprises d'IA génératives donnent de moins en moins d'information sur l'impact environnemental de leurs modèles, Mistral a travaillé avec l'agence Carbone 4 et l'ADEME sur celui de son modèle Large 2. L'entreprise explique notamment que l'entrainement de ce modèle a émis l'équivalent de 20 400 tonnes de CO₂.

Le 23 juillet à 13h43

Il est difficile de connaître l'impact environnemental des modèles de langage puisque jusque-là, les entreprises qui les créent étaient peu bavardes sur le sujet. Les chercheuses de Hugging Face, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont bien tenté de le mesurer, mais elles déploraient, en septembre 2024, qu' « il existe actuellement peu de transparence sur les demandes énergétiques des applications spécifiques de l'IA ».

Dans un article mis en ligne en juin dernier sur la plateforme de preprints arXiv, Sasha Luccioni, avec Boris Gamazaychikov de Salesforce, Theo Alves da Costa de Ekimetrics et Emma Strubel de l'Université Carnegie Mellon, déploraient encore une « désinformation par omission » sur le sujet.

Ils écrivaient que « la tendance actuelle à la réduction de la transparence concernant l'impact environnemental de l'IA contribue à la désinformation et entrave la prise de décisions éclairées à tous les niveaux, des chercheurs et développeurs individuels aux organisations et décideurs politiques ». Ils ajoutaient que « cette baisse de transparence est particulièrement préoccupante compte tenu de l'impact environnemental croissant de l'IA dans un contexte de préoccupations climatiques mondiales et de limites planétaires imminentes ».

Dans cet article, ils expliquaient que « les données de mai 2025 indiquent que parmi les 20 modèles les plus utilisés, un seul (Meta Llama 3.3 70B) a directement publié des données environnementales et trois (DeepSeek R1, DeepSeek V3, Mistral Nemo) les ont publiées indirectement (en partageant des données de calcul telles que le type de GPU et la durée de formation, ainsi qu'en publiant les poids de leurs modèles afin de permettre une analyse de l'efficacité) ».

Mistral ouvre le capot de Large 2

En cette mi-juillet, Mistral ouvre (un peu) le capot de son modèle Large 2 concernant son impact environnemental. Dans un billet de blog, l'entreprise explique avoir travaillé avec l'agence Carbone 4 et l'ADEME sur « l'analyse du cycle de vie d'un modèle d'IA ». Sans donner les chiffres bruts ni publier, à ce stade, l'étude qu'elle a faite, l'entreprise livre divers chiffres sur la consommation de son modèle et assure que son étude a été examinée par deux autres agences (Resilio et hubblo). Elle ajoute que cette étude suit le référentiel général pour l'IA frugale développé par l'AFNOR et est conforme aux normes internationales, notamment la norme Green House Gas (GHG) Protocol Product Standard et la norme ISO 14040/44.

Ainsi, elle confirme d'abord que l'entrainement et l'inférence (qu'elle mélange dans l'infographie ci-dessous) sont les parties qui émettent le plus d'émissions de gaz à effet de serre (85,5 %) pour le modèle Large 2 de Mistral.

Mistral résume ses conclusions dans une infographie

Néanmoins, concernant ce point, l'entreprise rappelle que la fabrication et la gestion de la fin de vie du matériel utilisé ne sont pas à négliger puisqu'elles représentent 11 % des émissions du modèle.

L'entreprise rappelle que la localisation des datacenters est un facteur clé de son impact environnemental puisque de celle-ci va dépendre de la nature de l'énergie qu'ils vont dépenser. Ainsi, en entrainant son modèle en France, avec de l'énergie provenant notamment de centrales nucléaires et un climat encore relativement tempéré, Mistral émet moins de CO2 et consomme moins d'eau que dans beaucoup d'autres régions du monde.

20 400 tonnes de CO₂ et 281 000 m³ d'eau

L'entreprise donne des chiffres plus précis sur l'impact environnemental de l'entrainement de son modèle Large 2. Ainsi, elle explique qu'en janvier 2025, après 18 mois d'utilisation, Large 2 a émis l'équivalent de 20 400 tonnes de CO₂ (tCO₂e), consommé 281 000 m³ d'eau et l'équivalent de 660 kg d'antimoine en ressources matérielles (660 kg sb eq, une unité de mesure de la consommation de ressources matérielles qui se base sur la consommation de l'élément chimique antimoine, sb).

Mistral précise, concernant l'inférence, qu'une réponse de son assistant « Le Chat » utilisant ce modèle avec 400 tokens consomme l'équivalent de 1,14 g de CO₂, 45 mL d'eau et l'équivalent de 0,16 mg d'antimoine. Elle qualifie ces impacts de l'inférence de « marginaux ».

Mistral précise que « ces chiffres reflètent l'ampleur des calculs impliqués dans l'IA générique, qui nécessite de nombreux processeurs graphiques, souvent dans des régions où l'électricité est très polluante et où il y a parfois des problèmes d'approvisionnement en eau ». Elle ajoute qu' « ils incluent également les « émissions en amont », c'est-à-dire les impacts liés à la fabrication des serveurs, par exemple, et pas seulement à la consommation d'énergie ».

Dans leur article de juin, Sasha Luccioni et ses collègues rappelaient que Google avait estimé en octobre 2024 [PDF] que l'entrainement de sa famille de modèles Gemma avait consommé l'équivalent de 1 247,61 tonnes CO2 et que, de son côté, Meta avait estimé la consommation de l'entrainement de sa famille Llama 3 à l'équivalent de 11 390 tonnes de CO2.

Plaidoyer pour une transparence accrue dans le milieu

« Notre étude montre également une forte corrélation entre la taille d'un modèle et son empreinte », explique Mistral. L'entreprise précise que « les benchmarks ont montré que les impacts sont à peu près proportionnels à la taille du modèle : un modèle 10 fois plus grand générera des impacts d'un ordre de grandeur supérieur à ceux d'un modèle plus petit pour la même quantité de jetons générés. Cela souligne l'importance de choisir le bon modèle pour le bon cas d'utilisation ».

Elle ajoute que cette étude est « une première approximation compte tenu de la difficulté à effectuer des calculs précis dans le cadre d'un tel exercice en l'absence de normes relatives à la responsabilité environnementale des environnements LLM et de facteurs d'impact accessibles au public ». Elle fait remarquer, par exemple, qu' « aucun inventaire fiable du cycle de vie des GPU n'a encore été réalisé ». Ainsi leurs impacts intrinsèques « ont dû être estimés, mais ils représentent une part importante des impacts totaux ».

Mistral propose que les futurs audits sur le sujet dans le secteur prennent exemple sur son étude qui a « utilisé une approche basée sur la localisation des émissions liées à l'électricité et à inclure tous les impacts significatifs en amont, c'est-à-dire non seulement ceux liés à la consommation électrique des GPU, mais aussi toutes les autres consommations électriques (CPU, dispositifs de refroidissement, etc.) et la fabrication du matériel ».

L'entreprise s'engage à mettre à jour ses rapports sur l'impact environnemental et à participer aux discussions sur des normes industrielles internationales sur le sujet, plaidant pour une plus grande transparence « tout au long de la chaine de production de l'IA ». Elle ajoute qu'elle va partager les résultats sur la base de données « Base Empreinte » de l'ADEME « établissant une nouvelle norme de référence pour la transparence dans le secteur de l'IA ». On attend avec impatience la publication de ces données dans cette base pour que la transparence soit encore un peu plus complète.

Commentaires (18)

votre avatar
C'est utile de pouvoir mesurer à quel point c'est insensé sur une échelle de "catastrophique" à "dystopique".
votre avatar
L'impact de Mistral est complètement anecdotique à l'échelle de la planète.
votre avatar
Je suis très surpris par la faible empreinte de la construction du datacenter. Ça veut dire que l'impact du matériel dans le datacenter est vraiment délirante (vu que la construction d'un datacenter de plusieurs milliers de mètres carrés, c'est des milliers de tonnes CO2e).
votre avatar
Ça me rappelle dans cet article :
En France, on a de l’électricité pour les datacenters, mais…
Le fait qu'Octave Klaba indiquait ceci :
« 80 % de ces montants servent à acheter les GPU, 20 % pour construire un datacenter »
Dans les 2 cas, les proportions sont assez dissonantes par rapport à l'idée que j'aurai pu m'en faire de prime abord.
votre avatar
Le coût financier n'est pas totalement corrélé au coût environnemental (sinon, on polluerait moins, vu que ce serait 100% le modèle pollueur payeur).
votre avatar
Ça confirme la tendance qui était admise dans le domaine : l'entraînement d'un modèle est ce qui coûte le plus cher dans l'histoire.

L'usage est effectivement peu consommateur et cela peut s'observer en lançant soit-même des modèles de petite et moyenne taille sur des configs type "consumer" ou "gaming". Les modèles à plusieurs centaines de milliards de paramètres, c'est une autre histoire avec un matelas de GPU requis.

Après, un élément qui peut aussi être intéressant à mettre dans la balance, c'est si l'efficience des nouvelles puces de calcul est au RDV.
votre avatar
Je n'ai pas la même interprétation de ces données :
- 20.4kt eCO2 pour l'entraînement et 18 mois d'utilisation (comprendre des requêtes, non ?),
- 1.14g eCO2 par requête supplémentaire.

Je n'ai pas trouvé le nombre de requête quotidienne traitées par ce modèle mais on voit passer le nombre hallucinant de 2.5 milliards de requêtes/jour pour ChatGPT. Si un jour Mistral atteint ce volume, ça ferait 1040.25 kt eCO2 pour l'inférence (il faudrait 50M de requêtes/jour pour atteindre 20.4kt). Il est d'ailleurs précisé sur la page de Mistral que l'inférence est une partie clé du cycle de vie du modèle et ils donnent quelques conseils pour en réduire l'impact.
votre avatar
L'article du blog Mistral affiche une autre infographie dédiée à l'inférence qui donne des métriques pour une génération de 400 tokens, montrant que l'usage est largement inférieur en coût que la création du modèle.
votre avatar
tu parles de celle où est indiquée le 1.14g par requête de 400 tokens, avec la comparaison par rapport au streaming et co. ? Ça montre juste qu'une requête seule est négligeable mais si plein de monde l'utilise, ça ne le sera plus.
votre avatar
Ça montre juste qu'une requête seule est négligeable mais si plein de monde l'utilise, ça ne le sera plus.
Ouais enfin ça s'applique à absolument tout cette logique. Fabriquer a tendance à être plus coûteux et consommateur en ressources qu'utiliser (même s'il doit y avoir des cas inversés, je n'en ai pas qui me viennent là).

Ici, l'info importante à mon sens est de connaître la proportion dans ce domaine : si l'inférence coûtait 50% de l'entraînement pour un appel, là clairement c'était catastrophique. Ici on est sur des ordres de grandeur d'un usage Web moyen, ce qui permet de mieux mesurer l'impact de celui des outils basés sur l'IA générative.
(enfin, en tous cas, celui de Mistral)
votre avatar
Ouais enfin ça s'applique à absolument tout cette logique. Fabriquer a tendance à être plus coûteux et consommateur en ressources qu'utiliser
J'ai l'impression qu'il dit l'inverse.
même s'il doit y avoir des cas inversés, je n'en ai pas qui me viennent là
À peu près toutes les machines industrielles et les moyens de transport. Ce que tu dis n'est à peu près valable que pour de l'électronique grand public (je pense que ça l'est typiquement moins pour les datacenters, il y a peu d'écrans - l'élément le plus impactant d'un terminal - et ça fonctionne en permanence).
votre avatar
IA frugale :mdr2: pardon.

Heureusement qu'on pisse sous la douche, qu'on prend plus l'avion et qu'on a arrêté la viande hein, cette énergie est bien mieux utilisée à entraîner des générateurs d'hallucinations biaisées et bullshitesque
votre avatar
Et pendant ce temps, xIA entraîne Grok pour diffuser au maximum la vision du monde d'économie Musk. Mistral reste une entreprise qui cherche à faire du profit avant tout, mais ça fait du bien d'avoir une entreprise européenne, qui a au moins une conscience de sa responsabilité environnementale. J'espère que ça entraînera tout le secteur, et que la performance environnementale deviendra un des aspects de la compétition entre les différents acteurs des LLM.
votre avatar
Mistral reste une entreprise qui cherche à faire du profit avant tout (...)
Ça existe une entreprise qui ne cherche pas à faire de profit ? Je veux dire, en dehors d'une dont la forme juridique est spécifiquement définie en ce sens.
votre avatar
On est d'accord. Je voulais simplement dire par là que je mets pas Mistral au niveau d'un Wikimedia ou autre fondation à but non lucratif. Mais effectivement, je ne suis pas certain qu'un projet qui demande autant de capital de départ que le développement d'une technologie LLM puisse se faire en dehors du modèle capitaliste.

Ceci dit sur ta question, il y a des réflexions pour redéfinir le capital d'une entreprise pour y intégrer son capital social et son capital environnemental, et qu'elle puisse faire faillite si elle a épuisé une des composantes de son capital. De là à ce que ce soit intégré dans la législation d'un pays, on y est pas, mais on peut imaginer un modèle d'entreprise qui n'est pas exclusivement piloté par l'aspect financier.
votre avatar
La plupart des points que tu cites sont des choses qui existent déjà en fait.

La RSE est une obligation pour les entreprises multinationales en France, issue de la transposition d'une directive européenne. Les autres peuvent le faire sur une démarche de volontariat (la RSE, c'est quand même un coût à supporter, comme tous les avantages sociaux. Qui dit coût, dit nécessité d'être rentable et donc de faire du profit).

Un modèle d'entreprise (au sens entrepreneuriat, envie d'entreprendre) qui ne soit pas piloté par l'aspect profit, ça existe aussi : c'est une association loi 1901. Ce modèle permet déjà de faire énormément d'action, d'avoir une existence et une structure juridique tout en écartant la notion de profil (but non lucratif).

Une entreprise est par définition un modèle reposant sur la finance. Si une entreprise ne fait pas de profit : elle meurt. C'est pas plus compliqué.

L'idée de vouloir qu'une entreprise puisse faire faillite à cause d'un capital social ou environnemental me paraît irréaliste : une entreprise qui fonctionnerait sur le plan économique, avec des salariés qui sont payés par elle pourrait donc fermer à cause de crédits sociaux ou environnementaux ? Et donc supprimer de l'emploi (et donc avoir un impact social négatif) ? N'a-t-on pas déjà assez d'instabilité économique dans le monde de l'entreprise pour devoir rajouter un moyen d'en fermer ?

Cette vision me semble très déconnectée de la réalité du terrain.
votre avatar
Si tu veux. Toujours est-il que nous dépassons 6 des 9 limites planétaires, et qu'à ce rythme là, c'est la prospérité de l'humanité qui est en jeu. Si tu as une solution pour respecter ces limites planétaires sans rien modifier au fonctionnement actuel des entreprises, je suis preneur. En ce qui me concerne, je suis convaincu que ça ne pourra passer que par l'invention de nouveaux modes d'organisation. Et la triple comptabilité me semble une piste intéressante à creuser. Les points que tu soulèves sont légitimes, et si tu as le temps, tu trouveras les réponses dans ce webinaire qui présente le concept en posant quelques bases importantes à la compréhension : youtu.be YouTube
votre avatar
Je n'ai pas de temps à perdre avec 1h30 de vidéo, le texte reste le meilleur support d'information.

En recherchant rapidement cette notion, je vois en synthèse qu'elle n'indique pas de notion de "faillite", mais plutôt une notion de valorisation monétaire des impacts sociaux et environnementaux. Ça me semble très différent et plus de la RSE améliorée.

Ce genre de notion fait souvent partie du socle RFP dans les grandes entreprises, de mon expérience.

Source 1, Source 2, Source 3

IA : Mistral apporte de la transparence sur l’impact environnemental d’un modèle

  • Mistral ouvre le capot de Large 2

  • 20 400 tonnes de CO₂ et 281 000 m³ d'eau

  • Plaidoyer pour une transparence accrue dans le milieu

Fermer