Sam Altman avoue que l’IA dépense trop d’énergie
Le 19 janvier à 06h42
1 min
IA et algorithmes
IA
Lors d'une conférence organisée par Bloomberg à Davos, le PDG d'OpenAI, Sam Altman a avoué que l'intelligence artificielle consommera dans le futur beaucoup plus d'énergie que prévu, rapporte Reuters. En conséquence, sans une percée technologique en matière d'énergie, « il n'y a aucun moyen d'y parvenir » a-t-il expliqué.
Pour lui, la voie à suivre pour l'IA est d'utiliser de plus en plus le nucléaire et l'énergie solaire. Sam Altman espère aussi que la fusion nucléaire soit maîtrisée le plus rapidement possible. L'agence de presse signale qu'il a d'ailleurs investi lui-même dans la startup Helion Energy, qui a signé un contrat avec Microsoft, mais n'a pas encore produit d'électricité.
Si des chercheurs du Laboratoire national Lawrence Livermore ont réussi l'exploit de produire de 3,88 megajoules par fusion nucléaire pour 2 megajoules d’énergie envoyés par les lasers de leur expérience, ça ne correspond à peine qu'à 1,1 kWh (sachant que les lasers ont besoin d’une puissance de plusieurs centaines de mégajoules d’électricité pour fonctionner).
Le 19 janvier à 06h42
Commentaires (28)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 19/01/2024 à 07h34
Mais comme aujourd'hui on est dans la course à la feature et à l'adoption, au même titre que la sécurité, ce genre de chose passera au second plan. Mais bon, quand on voit que Azure n'a pas la capacité à fournir Azure OpenAI Services dans toutes ses régions par manque de GPU (dans le cas de l'Europe, le service n'est dispo que dans 3 régions sauf si ça a changé récemment), peut-être que ça motivera.
Le 19/01/2024 à 07h59
Le 19/01/2024 à 11h32
Le 19/01/2024 à 08h26
Le 19/01/2024 à 09h35
Modifié le 19/01/2024 à 13h37
Oui et non. Ou plutôt non. Tu as évidemment raison dans l'absolu l'optimisation joue énormément, mais dans une optique de mise à l'échelle vers une démocratisation totale, peu importe à quel point tu améliores la perf, ça reste un niveau d'inefficacité énergétique complètement débile.
Le 19/01/2024 à 08h29
Le 19/01/2024 à 08h37
Le 19/01/2024 à 08h51
Le 19/01/2024 à 09h03
Le 19/01/2024 à 09h03
C'est trop trendy pour changer quoi que ce soit. Et on continuera à gueuler sur les automobilistes entre 2 week-ends à Londres ou depuis la banquette d'un Uber.
Le 19/01/2024 à 09h13
avoueadmetLe 19/01/2024 à 09h27
Le 19/01/2024 à 09h30
Le 19/01/2024 à 10h21
Le 19/01/2024 à 10h37
Le 19/01/2024 à 15h28
Si on passe à des fluides caloporteurs à l'état supercritique ou à de la conversion d'énergie directe, c'est une toute autre histoire, qu'il faut écrire.
Le 19/01/2024 à 14h05
Sam Altman n'a aucune expertise en énergie, il peut bien dire ce qu'il veut ça n'en deviens pas un fait. Le terme "avoue" est bien mal choisie. Il ne sait rien de plus que tout le monde. Par ailleurs, le titre est une déformation de son propos. À aucun moment il n'est dit que l'IA consommerait "trop". (par rapport à quoi ?)
La consommation des LLM n'est pas un problème écologique. Cela représente que dalle à l'échelle de la planète et on sait produire de l'électricité très faiblement carbonée (cf la france depuis 50 ans).
Parvenir à quoi ? On est déjà en train de vivre une période de révolution régulière des IA, sans avoir eu besoin d'une révolution énergétique. On voit d'ailleurs l'efficacité des modèles grandement s'améliorer tout les 3 mois.
AU vu des commentaires, encore beaucoup d'éco-alarmisme qui se soucie peu des faits.
Ce paragraphe a peu de sens. Si on produit plus d'électricité qu'on en nécessite pour fonctionner, peu importe qu'il en faille initialement. De plus, ce genre d'expérience n'a pas pour vocation à produire, juste à démontrer, la remarque sur les 1.1kWh n'a donc aucun intérêt. Enfin pourquoi systématiquement remettre en question les avancées techniques et scientifique ? Pourquoi ne pas plutôt remettre en question les déclarations farfelus de celui qui n'a aucune compétence sur le sujet ?
Le 19/01/2024 à 16h21
Le 19/01/2024 à 15h51
Chine. Là, on aurait déjà plusieurs milliers d'années devant nous pour bosser sur la fusion...
Le 19/01/2024 à 15h58
Le 19/01/2024 à 16h04
Modifié le 19/01/2024 à 18h04
Bon je jouais un peu les Simplets ici...
Ma question étant plutôt: "qu'est ce qui est le plus énergivore ici:
"générer un modèle par de l'apprentissage profond ou bien l'utiliser ensuite ? "
Sans doute pas facile à trancher, car le modèle n'est généré que quelques fois quand son utilisation est utilisée (justement) de multiples fois...
J'ai l'impression que la réponse va être la même que celle que j'ai entendue de très nombreuses fois en MBA :
" It depends" (ayant même une tasse à café à côté de moi avec ces 2 mots gravés dessus comme cadeau de fin d'année scolaire. Priceless, ça paye les frais de scolarité... ou pas...
Bref...
Le 19/01/2024 à 17h13
Le 19/01/2024 à 18h15
D'ordre général, de mon expérience et de ma vision, un modèle doit être le plus possible entraîné sur de la donnée morte, immuable, que sur de la donnée vivante qui le rendrait obsolète dès sa finition. Ensuite, il devrait plutôt collecter la donnée vivante et la traiter lors d'un prompt.
Exemple d'un cas d'usage : un chatbot IT. L'entraîner sur les procédures de dépannage n'a aucun sens car elles peuvent évoluer dans le temps. Il vaut donc mieux qu'il les lise. Par contre, l'entraîner sur la base de connaissances de l'historique des incidents aurait plus de sens car cela lui donnerait matière à comprendre la nature du problème. Mais cet entraînement devrait être régulièrement refait pour intégrer des nouvelles données.
Après, plutôt qu'un méga modèle monolithique de la mort qui prend énormément de temps et de ressources pour être entraîné, je pense que l'approche des micro modèles spécialisés (ex : admettons que GitHub Copilot soit en fait une série de modèles pour chaque famille de langages, aujourd'hui c'est un GPT4) orchestrés par un principal pourrait être une approche plus intéressante. Le modèle orchestre n'a besoin que d'une chose : comprendre le prompt. A partir de là, il l'adresse ensuite au spécialisé qui est capable de répondre plus finement et d'aller chercher l'info qui viendrait à lui manquer de manière pertinente. Je n'ai aucune idée de si cela serait plus optimisé ou non, même si je me dis qu'un petit modèle spécialisé coûtera certainement moins cher à produire et utiliser. Un peu comme les Checkpoints et les LoRA côté Stable Diffusion qui se basent tous sur le Base Model de SD.
Le 19/01/2024 à 21h13
Modifié le 20/01/2024 à 11h31
Chez Azure, l'usage d'un modèle GPT4-Turbo revient à 0.01$ pour 1000 tokens en entrée et 0.03$ pour 1000 tokens en retour. Sachant qu'on peut demander au modèle de limiter le nombre de tokens en réponse. L'entraînement pour du fine-tuning d'un GPT3.5 c'est 100$ de l'heure (vive les instances GPU).
Pour référence, 1000 tokens c'est environ 750 mots anglais. Mon précédent message fait 620 tokens d'après le calculateur d'OpenAI pour 316 mots français. Dans mes premiers tests d'intégration pour un chatbot, j'avais justement limité GPT-4 pour qu'il sorte 500 tokens, cela permettait des réponses concises.
Modifié le 21/01/2024 à 01h21
Pour les mobiles, discours similaire : en dessous de 16Go voire 24Go point de salut (mais combien de smartphones auront même 12Go de RAM en 2024 ?) et ça pour effectuer les traitements du NPU en local.
En local !? Quand les services Cloud ont explosé depuis 5 ans, que la 5G est quasi disponible partout (ou le sera en 2024 et la 4G+ c’est pas trop mal non plus), que la fibre à 200Mb/s, 500Mb/s (voire 1000Mb/s) est devenue une banalité ou une commodité maintenant. On arrive bien à faire facilement du Cloud Gaming en 1080p, 2,5K voire 4K. Google en est déjà à la génération 2 ou 3 de ses TPU bien plus efficace qu'un CPU ou même un NPU casé dans un coin du CPU.
Tout le monde n'a pas une RTX 4090 dans son desktop, encore moins dans son smartphone (la taille du radiateur du smartphone ! )
C’est quand même pas plus efficace d’envoyer des requêtes sur des ThreadRippers ou Xeons gonflés à la testostérone plutôt que d’avoir 16Go – 24Go sur son mobile qui ne serviront que « quelques fois » ? Et en plus tout bénef pour affiner les profils utilisateurs et collecter de l'info si tout est envoyé sur le Cloud...
Je me rappelle aussi d’un article du feu regretté David L. (mais pas toujours commode le garçon dans les commentaires) sur : « il est plus efficace d’exécuter une tache rapidement sur un processeur qui consomme beaucoup plutôt que sur un processeur qui lui va consommer peu mais va mettre un « siècle » pour arriver au même résultat.»
Bref, j’ai un peu de mal à comprendre en 2024 le retour à faire ça en local, juste avec nos petits moyens techniques comparé aux grands acteurs qui ne jouent pas du tout dans la même catégorie avec une puissance de feu très très largement supérieure.