Connexion Abonnez-vous

Concrètement, à quoi ressemble la consommation d’énergie d’OpenAI ?

Le 06 octobre à 11h35

Les estimations de l’énergie dépensée pour l’usage de modèles d’intelligence artificielle générative varient énormément d’une source à l’autre.

Pour donner un point de comparaison, IEEE Spectrum s’est appuyé sur les propres chiffres d’OpenAI pour estimer sa consommation énergétique et ceux d’un rapport de 2024 de Schneider Electric pour estimer l’évolution de la demande énergétique du secteur à 5 ans.

Certaines estimations évaluent à 20 Wh l’énergie dépensée pour qu’un modèle d’IA générative réponde à une requête complexe. Dans un article de blog de juin, cela dit, Sam Altman affirmait, sans détailler les fondements de son calcul, qu’une requête envoyée à ChatGPT requérait en moyenne 0,34 Wh d’électricité.

En partant de cette estimation conservatrice, un internaute réalisant 25 requêtes dans la journée utiliserait donc 8,5 Wh dans ses interactions avec ChatGPT, soit l’équivalent de « l’usage d’une ampoule LED de 10 watt pendant une heure ».

OpenAI affirme que 2,5 milliards de requêtes lui sont envoyées chaque jour, ce qui équivaut à 850 MWh d’électricité consommés, soit l’équivalent de « la recharge complète de 14 000 véhicules électriques », évalue IEEE Spectrum.

En un an, ces chiffres théoriques atteignent les 912 500 millions de requêtes, soit autant d’électricité que 29 000 foyers américains (310 GWh).

En reprenant l’estimation de Schneider Electric de 15 TWh d’électricité consommés en 2024 par les sociétés d’IA génératives, le média déduit que 5 100 milliards de requêtes ont été formulées sur cette période.

Sur la base de ces estimations et des projections de consommation d’énergie de Schneider Electric pour 2030 (qui envisage un passage de 15 TWh à 347 TWh en cinq ans), IEEE Spectrum évalue les besoins d’infrastructures à 38 campus de données équivalents à ceux du projet Stargate (en installant les premiers centers de données de 1 GW). Ces campus devraient théoriquement consommer jusqu'à 8,76 TWh par an pour justifier les 332 TWh supplémentaires envisagés en 2030 par Schneider Electric.

Le média souligne par ailleurs que produire 347 TWh revient à faire tourner 44 réacteurs nucléaires.

Précisons néanmoins qu’aux États-Unis et en Chine, pays d’origine des plus gros acteurs de l’intelligence artificielle, l’essentiel de l’électricité reste générée par combustion d’énergie fossile.

Le 06 octobre à 11h35

Commentaires (46)

votre avatar
Que recouvrent ces chiffres ? Juste ce qui est consommé par l'inférence proprement dite, ou ça inclut aussi une part de l'apprentissage ?
votre avatar
Certaines estimations évaluent à 20 Wh l’énergie dépensée pour qu’un modèle d’IA générative réponde à une requête complexe. Dans un article de blog de juin, cela dit, Sam Altman affirmait, sans détailler les fondements de son calcul, qu’une requête envoyée à ChatGPT requérait en moyenne 0,34 Wh d’électricité.

Je pense que le premier chiffre inclus l'apprentissage pour chaque résultat produit, là où le deuxième ne donne que le coût de l'inférence pour juste donner un résultat.
votre avatar
Je ne pense pas.

Le premier (sans source) parle d'une requête complexe, le second (source Altman mais dans preuve ni explication) correspond à la requête moyenne (average querry).

Donc, entre dessine moi un mouton et qui est le président des USA, il y a un fort écart de consommation. Je caricature un peu, mais en l'absence de plus d'informations, on ne peut rien tirer de ces chiffres.
votre avatar
Si on parle de réponse, c'est de l'inférence.
votre avatar
Très bonne question. La réponse est : on n'en sait rien. Tout s'appuie sur le chiffre de Altman pour une requête moyenne : 0,34 Wh. Aucune information ne permet de savoir si ça contient l'apprentissage.

Tant que l'on ne sait pas de façon assez précise la répartition de la consommation entre l'apprentissage et les requêtes, il faut séparer les 2 chiffres quitte à les additionner à la fin pour avoir une photo à un moment donné.

L'apprentissage, c'est consommé une fois (pour une version donnée d'une IA) et sur les requêtes, on peut appliquer un coefficient multiplicateur en fonction du nombre de requêtes estimées dans le futur.
votre avatar
Oui, l'apprentissage est un investissement fait une seule fois, mais on peut parfaitement calculer un amortissement en fonction du nombre d'inférences que l'on fera avec. On connaît sa durée de vie, puisque 6 mois plus tard, il y aura déjà un nouveau modèle qui le remplacera.
votre avatar
L'apprentissage est théoriquement consommé une fois. Mais on est face à deux problèmes :
- Les modèles évoluent, et avec eux les apprentissages sont revus (pas forcément de façon intégrale, mais au moins en partie)
- Pour un même modèle, les règles d'utilisation des données d'apprentissage sont modifiées parfois de façon drastique du jour au lendemain (coucou Grok) avec, là aussi, un réentrainement au moins partiel suivant le nouvel alignement
- Les modèles actuels font de l'apprentissage constant (en surveillant le Web en permanence)
- Dans de nombreux cas de LLM (surtout spécialisés), on est dans une stratégie d'apprentissage à plusieurs étages (on entraîne sur un jeu de données réelles A un LLM qui va générer un jeu de données B ; ce jeu B sera utilisé pour un traîner un LLM de niveau supérieur ; ça permet de limiter le jeu de données réelles sans avoir trop de déformations puisqu'il y a limitation du nombre de générations). Dans ces cas-là, calculer le coût énergétique de l'apprentissage va demander un peu plus de travail
votre avatar
Sans me prononcer sur la conso de l'entrainement qu'il faut évidemment amortir sur le nombre de requêtes qui vont l'utiliser derrière, les 20 ou 10Wh de chaque requête me paraissent disproportionnés si on s'en tient à l'usage du modèle.
L'essentiel de la charge elec par requête est GPU, le reste c'est infinitésimal en comparaison.
Une A100 consomme environ 300W sur de l'inférence.
Si on fait une requête, la réponse arrive en 5 secondes en moyenne.
Si on se base sur 10Wh, avec un PUE de 1.5, ça voudrait dire que le nombre de GPUs utilisés pour la réponse est de 10*3600/300/5/1.5=16 GPUs.
C'est complètement impossible, au doigt mouillé je serais surpris qu'une requête moyenne consomme plus d'un GPU pendant 5 secondes (on parle de A100 tout de même).
Encore une fois, c'est la foire à la saucisse de chiffres tous plus fantaisistes les uns que les autres, aucune méthodo de communiquée, en mode tkt frère - ça vaut aussi pour Altman.

Schneider Electric vend des équipements élec pour les DC.
Est-ce un interlocuteur suffisamment neutre pour faire des recherches sur le sujet ?
Un joli cours de bourse vaut mieux que deux tu l'auras pas.
votre avatar
Est ce que c'est pas un peu le même genre d'estimation de l'impact de consommation que le fait d'envoyer un email, ou de le garder stocker ect?
il me semble que c'est l'entrainement qui consomme le plus non?
votre avatar
L’entraînement consomme beaucoup mais il est ponctuel.
C’est difficile d’avoir des chiffres sérieux sur le sujet - et personne n’en a vraiment, excluant de fait ce point de toute étude sérieuse vu que ça touche de près à la secret sauce de chaque acteur (et que ça doit varier énormément d’un acteur à l’autre).
Mais une chose est certaine, dès qu’on parle de la conso elec du numérique, les gens se mettent à raconter n’importe quoi pour servir leur soupe.
votre avatar
Justement, est-ce que l'on a la consommation d'une requête google/bing classique ? (faut-il ajouter à cette requête, le coût d'ouverture des pages obtenir l'information ?)
votre avatar
Probablement très nettement inférieure, d’un facteur 100 au moins - hors indexation là encore.
votre avatar
ha ben justement, je faisais un commentaire sur le faire de mettre un doigt mouillé dans la prise, et voilà que je te lis :P
votre avatar
Si on fait une requête, la réponse arrive en 5 secondes en moyenne.
Ça dépend sur quoi. Dès que tu tâtes du code, ça prend vite plusieurs minutes pour obtenir le résultat à un prompt (et il faut recommencer plusieurs fois parce que Môssieur le Chat oublie toujours quelque chose).
votre avatar
Un prompt est unitaire, c'est donc une requête. J'ai l'impression que tu parles de toute la session de discussion avec le contexte pour obtenir le résultat escompté par itération.

Après, on parle de moyenne. Un très gros prompt mettra forcément plus de temps à être traité et la réponse produite si le nombre de tokens générés est conséquent (cas vécu en expérimentant de générer le synopsis d'une nouvelle de 8000 mots par un LLM, environ une minute de traitement sur l'API Infomaniak avec Mistral Small).
votre avatar
J'ai l'impression que tu parles de toute la session de discussion avec le contexte pour obtenir le résultat escompté par itération.
Je parle d'une seule interaction avec le chatbot, mais pas forcément simple (il y a un contexte). Par exemple, lui fournir un PDF d'une présentation et lui demander d'extraire le contenu sous une forme textuelle (code latex). Même si je mets de côté les multiples allers retours pour qu'il fasse vraiment tout, rien qu'une de ses réponses met plus d'une minute à se terminer. Si tu parles de la session, il m'a fallu une heure pour lui faire sortir un résultat à peu près correct (pas tout le document, et pas les images(1))

(1) il a prétendu les avoir faites, m'a sorti un zip qui contenait ... 1300 images (la présentation fait 60 slides) avec je sais pas trop quoi dedans (elles n'étaient pas utilisables).
votre avatar
J'espère que tu t'es fait rembourser suite à un si mauvais résultat.
votre avatar
En vertu de quoi ? Il y zéro garantie de résultat sur ces outils.
votre avatar
Toutes ces mesures au doigts mouillé (+ règles de 3)...
Pourtant, c'est dangereux de mettre les doigts mouillés dans la prise...
votre avatar
Il faut remettre les choses en perspective.
Même en prenant les estimations extrêmes de consommation des IA, les ordres de grandeur restent dérisoires comparés à nos usages quotidiens que chacun élude très sélectivement selon ce qui l'arrange et ses exigences de confort matériel, sans même compter l'énergie grise...

Quelques équivalences concrètes :

25 requêtes/jour => 8,5 Wh (scénario A) / 0,5 kWh (scénario B) => à peine une ampoule LED allumée 1 h.

-

-1 charge de smartphone (12 Wh) = 35 requêtes (A) / < 1 requête (B).
-Faire bouillir 1 L d’eau (0,11 kWh) = ~320 requêtes (A) / ~6 requêtes (B).
-Une douche chaude (1,5 kWh) = ~4 400 requêtes (A) / 75 requêtes (B).
-Lave-linge (0,5 kWh) = ~1 470 requêtes (A) / 25 requêtes (B).
-Four électrique (0,78 kWh) = ~2 290 requêtes (A) / 39 requêtes (B).
-10 km en voiture électrique (1,7 kWh) = ~5 000 requêtes (A) / 85 requêtes (B).
-1 L d’essence (9 kWh) = ~26 000 requêtes (A) / 450 requêtes (B).
-Vol de 600 km par passager (126 kWh) = ~370 000 requêtes (A) / 6 300 requêtes (B).
-1 m³ de gaz (10 kWh) = ~29 000 requêtes (A) / 500 requêtes (B).
-Conso annuelle d’un foyer français (4 255 kWh) = ~12,5 millions (A) / 213 000 (B) requêtes.

Énergies “grises” :

-1 kg de bœuf (équivalence 7 – 19 kWh) = ~20 000 – 56 000 requêtes (A) / 350 – 950 (B).
-1kg de blé (3,9 à 5,1 kWh) = ~11 500–15 000 (scénario A, 0,34 Wh) / ~195–255 (scénario B, 20 Wh).
-Fabrication d’une voiture (20 – 76 MWh) = ~59 – 224 millions (A) / 1 – 3,8 millions (B).

On se fait le calcul pour un bâtiment, la fabrication et utilisation des portes-conteneurs, et le matériel militaire ?

Ps : oui, c'est GPT a qui a fait les recherches, bossant pas mal, j'aurais du mal à trouver le temps de faire la démonstration, mais je pense que tout le monde aura compris le principe.
votre avatar
On se fait le calcul pour un bâtiment, la fabrication et utilisation des portes-conteneurs, et le matériel militaire ?
Tant qu'à faire, on se fait le calcul pour la construction et le refroidissement d'un datacenter OpenAI avec 500000 cartes Nvidia ? Là aussi, il y en a de l'énergie grise.
votre avatar
Ce n'est pas parce qu'il y a des pires budgets énergétiques que cela excuse une hausse de consommation dans un domaine qui n'en demandait pas tant historiquement, considérant qu'une requête Google coûtait 10x moins qu'un OpenAI.

Et je doute fortement du nombre de 0,34 Wh, qui vient certainement de l'étude de Epoch AI sortie cette année et qui affirmait que les premières estimations de consommation (3 w par requête) étaient exagérés et que ce serait 10x moins en pratique. Sauf que l'allusion au 10x par rapport à Google sortie avant venait de cette idée de 3 w, donc cela signifierait qu'une requête ChatGPT coûte autant qu'une requête Google en 2025. Navré mais je peine à avaler cette ineptie, ou alors Google a raconté n'importe quoi.

Après je conçois, Google et divers sont devenus si NULS que je vois des gens faire leurs recherches sur ChatGPT... même quand je sais qu'ils ont 0% de chances de trouver la réponse avec *

Mon voisin qui sort ce samedi son smartphone et en vocal « ChatGPT j'aimerai savoir si cette enceinte BOSE a de l'HDMI ARC même si ce n'est pas marqué blablabla* » avec photo, alors que je vois que l'engin est trop agé pour ça et qu'il faut passer par du TOSLINK sans avoir besoin d'une dumbA, mais c'est mieux de la croire plutôt que l'expérience... que de watts perdus pour rien. Et j'avais raison, bien entendu :roll:
votre avatar
Excellents ces chiffres.
J'ajoute les miens.
Les US ont un mix énergétique estimé à 24g CO2/ kWh.

On va donc pouvoir pratiquer l'autocompensation carbon (retenir sa respiration pour compenser le carbone qu'on a produit par ailleurs):
* 8,5Wh -> 0,2g CO2 -> retenir sa respiration 22s
* 10km en voiture électrique -> retenir sa respiration 1h20
* pour le fun: 10km dans ma voiture diesel -> retenir sa respiration 4h

(Sur une hypothèse de 800g CO2 par jour par la respiration humaine)

--> Je suis pro autocompensation carbone, ça règle vite les problèmes.
votre avatar
Un internaute réalisant 25 requêtes dans la journée utiliserait donc 8,5 Wh dans ses interactions avec ChatGPT, soit l’équivalent de « l’usage d’une ampoule LED de 10 watt pendant une heure ».
8,5 ≈ 10 x 1

Une analogie écrite par une IA, sans aucun doute.
votre avatar
Partiellement, mais tu n'as pas tort.
Pour autant, le fond reste pertinent et le sujet. Combien taquinent les utilisateurs sur la consommation énergétique de l'IA et en critiquent l'usage, sans se remettre en question sur ce qui les arrange eux même et la consommation énergétique engendrée par cette dissonance cognitive .

Exemple, pendant que moi je taquine codex & gemini pour le développement du site web de ma pépinière afin d'atteindre certains objectifs et fixer les bugs qu'un support merdique d'éditeurs de modules prestashop se refuse à faire sauf à payer des sommes délirantes, que représente ma consommation énergétique comparé à celui qui part en vacances tous les ans avec sa petite famille et bouffe sa viande tous les jours de l'année? Celui qui prend l'avion ? Celui qui fait des dizaines de km tous les jours voir plus pour aller bosser et doit en plus (invisiblement) assumer l'énergie grise de la fabrication du véhicule ?

Ce n'est pas un jugement, et c'est là où je veux en venir. Bien malvenu celui qui ira juger autrui alors qu'il n'aura pas balayé devant sa porte.

La dernière fois que j'ai fais le test, j'étais à 0,7 planète(s) : https://www.footprintcalculator.org/home/fr
Je doute que bon nombre me regardant de haut lorsque j'assume utiliser ces outils (certes, imparfaits !) pour les besoins de mon travail agricole, fassent aussi bien, sauf parmi mes clients, qui pour la plupart, on très bien compris le ratio et pourquoi je peut me permettre de "bouffer" du Co2, tant mon activité se veut vertueuse et vise le reboisement et l'aspect nourricier (de chez soi).
votre avatar
Ton raisonnement suit celui de Albert Moukheiber et des raisons qu'il évoque sur pourquoi la prise de conscience écologique, telle qu'on nous la martèle, ne prend pas.

Ce type de discours n'est pas là pour dire qu'il ne faut rien faire.
Au contraire, il est là pour montrer les limites actuelles et prendre conscience que les politiques actuelles ne permettent pas la prise de conscience nécessaire. Que tout ne peut pas reposer sur l'individu.
votre avatar
Au delà de l'individu, le problème est devenu systémique.
Une des symptomatiques les plus claires, c'est la réaction des organismes publics et privés régissants nos modes de vie collectifs dès qu'on s'éloigne de "normes".

Essayez donc de trouver du travail sans téléphone ni véhicule motorisé, ou de faire le choix de vivre sans électricité en tout ayant des enfants, sans être harcelés par les services sociaux, pour voir... 😅
Et les cases à cocher, dépendantes d'une forte consommation énergétique réelle ou grise, sont gargantuesques.

Toutefois, il serait trop facile que chacun se dégage de ses responsabilités individuelles ainsi. Chacun induit à son petit niveau une pression constante chez d'autres également, notamment... Au travail, sous l'autel de la productivité et de la rentabilité. (Systématiquement exigée par l'État, également...)
votre avatar
Les grandes arnaques dans l'utilisation des statistiques:
- individualiser les causes d'un phénomène global: diviser pour mieux exclure.
- globaliser les effets d'évènements non corrélés: noyer les détails dans la masse.
- moyenner des valeurs extrêmement disparates: gommer les aberrations.

Exemple: Oui, mais EN MOYENNE c'est l’EQUIVALENT d'une ampoule LED de 10Watt pendant une heure PAR UTILISATEUR, CHAQUE JOUR. Oui, mais AU TOTAL c'est l’EQUIVALENT de la recharge complète de 14 000 véhicules électriques CHAQUE JOUR.

De mon point de vue, la seule question a se poser c'est de savoir si l'IA provoque une modification de la consommation totale d'énergie sur notre planète.
votre avatar
Sauf qu'en pratique, chacun est en mesure d'équilibrer ses propres curseurs, selon ce qu'il fait de sa vie et ses choix.

Un exemple qui fera grincer des dents ? Je préfère pouvoir prompter un peu, que manger une viande qui aura nécessairement coûté cher en énergie, par les différentes facettes de de la nourriture des bovins, l'élevage, du transport, du stockage, et de la vente...

Chacun voit midi à sa porte.
votre avatar
Sauf qu'en pratique, chacun est en mesure d'équilibrer ses propres curseurs, selon ce qu'il fait de sa vie et ses choix.
C'est la magie des "équivalences" : équivalent CO2, équivalent pétrole, équivalent Wh...

Convertir dans une unité commune toute une foultitude d'usages ca donne l'illusion que tout est interchangeable. Mais ca ne l'est pas.

L'IA est une NOUVELLE source de consommation d'énergie qui va exister EN PLUS des sources de consommation existantes.

Le fait que tu éteignes ta lampe de 10W pendant une heure ne va pas changer les plans d'EDF concernant leurs centrales. Et le fait que je n'utilise pas 25 requêtes IA par jour ne va pas changer les plans de Meta concernant leur centrale. Au final, malgré nos choix de vie différents, on aura EDF et Meta qui vont chacun construire leur centrale.
votre avatar
que représente ma consommation énergétique comparé à celui qui part en vacances tous les ans avec sa petite famille et bouffe sa viande tous les jours de l'année? Celui qui prend l'avion ? Celui qui fait des dizaines de km tous les jours voir plus pour aller bosser et doit en plus (invisiblement) assumer l'énergie grise de la fabrication du véhicule ?
Tu fais comme si la consommation d'IA chez les uns et les autres se substituait à autre chose, ce qui n'est pas le cas. En tout cas, je vois mal qu'on va arrêter d'aller au boulot ou en vacances pour rester comme des assistés devant un prompt pour tout faire (Wall-E vibes...).
votre avatar
Et pourtant, si, on peut, je parlais de curseurs un peu plus haut, ça peut s'appliquer aussi aux vacances et n'importe quoi d'autre.

Je disais notamment "Un exemple qui fera grincer des dents ? Je préfère pouvoir prompter un peu, que manger une viande qui aura nécessairement coûté cher en énergie, par les différentes facettes de de la nourriture des bovins, l'élevage, du transport, du stockage, et de la vente..."

C'est tout à fait faisable de se fixer des objectifs moyens et d'essayer de s'y tenir.

Et ça peut s'appliquer à une infinité d'autres choses, comme par exemple prendre de l'occasion, réparer, plutôt qu'aller sur du neuf, sur bon nombre de choses.
Ou partir en vacances sur une conso d'E85 pour le carburant plutôt que du diesel (oui, je sais que si tout le monde s'y met, il n'y aura pas assez de "déchets" pour tous !
votre avatar
Un exemple qui fera grincer des dents ? Je préfère pouvoir prompter un peu, que manger une viande qui aura nécessairement coûté cher en énergie, par les différentes facettes de de la nourriture des bovins, l'élevage, du transport, du stockage, et de la vente...
Je suis sûr que tu peux trouver plein de végétariens qui ne vont pas pour autant faire du LLM. Je ne suis en plus pas certain de la pertinence de convertir les activités productives en kWh, vu que ça ne veut rien dire (kWh de quoi, produits comment ?). Les émissions de CO2 associées sont déjà plus parlantes.

Le but étant de réduire toutes les émissions, il ne s'agit pas de dire qu'on va émettre plus avec de nouveaux services en compensant juste sur d'autres aspects.
votre avatar
Non, le but n'est pas de réduire TOUTES les émissions mais d'être beaucoup plus raisonnable voir de rechercher un bilan positif.
Si dans ta/nos vie(s) tu considère qu'il ne faut plus generer/dépenser aucune énergie, je te souhaite bien du courage pour affronter le quotidien. Ne serait ce que pour laver le linge de toute la famille à la main. Ça vendra du rêve à tout le monde même, j'en suis sûr.
Je n'en démords en tout cas pas, la responsabilité individuelle revient à jauger des curseurs et sources d'énergies que l'on choisit et dont on a connaissance.
La logique de tout voir vers le moins part du postulat de quelqu'un qui dépense plus que ne le permet la régénération naturelle de l'écosystème. Hors ne t'en déplaise nous sommes un certain nombres d'extraterrestres à avoir un bilan positif à compenser même davantage pour les autres, et en la matière il me semble qu'il nous est permis de jauger par nous-même où vont nos extras tout en considérant le seuil à ne pas dépasser.
Et ceux qui font déjà beaucoup d'efforts n'ont pas à porter le poids de l'inaction ou de la dissonance cognitive des autres.
votre avatar
Non, le but n'est pas de réduire TOUTES les émissions mais d'être beaucoup plus raisonnable voir de rechercher un bilan positif.
Vu qu'à peu près la moindre de nos activités fait allègrement sauter la limite à atteindre de 2T/personne/an, si, il faut clairement tout réduire.
Hors ne t'en déplaise nous sommes un certain nombres d'extraterrestres à avoir un bilan positif à compenser même davantage pour les autres
Alors là, je demande à voir, hors un effectif réellement marginal de la population, à partir du moment où tu vis dans la société industrialisée et que tu profites de ses services (sécurité, santé, éducation), tu dépasses à peu près à coup sûr les 2T.
votre avatar
J'avais lu, je ne sais plus où, que le simple fait d'habiter en France (et donc de répartir le fonctionnement des différents services, infrastructures, etc.) on était, de base, sans rien faire, à plus de 1T/personne.

Sachant que la limite planétaire est actuellement fixée à 2T, c'était impossible à ne pas dépasser, même en ayant un un rythme de vie des plus respectueux.
votre avatar
on était, de base, sans rien faire, à plus de 1T/personne.
Probablement sur un article Carbone 4 ou The Shift Project, qui comptait les émissions liées au fonctionnement du pays, et qui profitent à tous. L'armée, la police, l'hôpital, l'école et l'université, ça a un impact. Et toutes les infrastructures à notre disposition, à commencer par les routes.
votre avatar
Oh oui, sans doute, mais je n'ai plus la ref exacte.
votre avatar
votre avatar
Voilà !! Merci ;)

Donc pour être "neutre", il faut réussir à avoir une "conso" inférieure à 0,7t / an.... Autrement dit, c'est quasiment impossible. rien qu'à cause du logement et de la nourriture, sans même aborder les déplacements ou les loisirs...
votre avatar
Alors, ce n'est pas le seul objectif, la conclusion du rapport était aussi qu'il faut pousser nos administrations, par le biais du monde politique, à s'emparer du sujet et à se bouger les miches pour aussi réduire cette empreinte commune.
votre avatar
En un an, ces chiffres théoriques atteignent les 912 500 millions de requêtes, soit autant d’électricité que 29 000 foyers américains (310 GWh).
@MathildeSaliou est-ce que serait pas plutôt "912 500 milliards"?
votre avatar
Le mieux est de mettre "beaucoup" ou "très beaucoup", comme ça, pas d'erreur possible. :fumer:
votre avatar
Ce qui n'est d'ailleurs pas moins précis que tout ce qui est annoncé dans l'article. Y a rien à garder là-dedans, c'est que de chiffres en l'air. Je sais pas comment l'IEEE a osé pondre cette daube et encore moins pourquoi Next l'a reprise.
votre avatar
Selon leurs calculs, ce serait 912,5 milliards, donc 912 500 millions.
votre avatar
Ah! Je crois bien qu'en lisant je mettais une virgule là où y en avait pas. Désolé! 🙏

Concrètement, à quoi ressemble la consommation d’énergie d’OpenAI ?

Fermer