IA : Meta se joint à la liste des géants numériques qui se tournent vers le nucléaire
The nuclear option
Meta rejoint la longue liste d’acteurs du numérique qui se tournent vers l’énergie nucléaire, poussés par leurs nombreux investissements dans le domaine de l’intelligence artificielle, très énergivore.
Le 04 décembre à 16h48
4 min
IA et algorithmes
IA
« Accélérer la prochaine vague nucléaire pour alimenter l'innovation en intelligence artificielle », tel est le projet annoncé ce 3 décembre par Meta. En pratique, la maison mère de Facebook et WhatsApp publie un appel à projet pour trouver des développeurs capables de mettre en marche des réacteurs nucléaires d’ici 2030.
Le but : créer une nouvelle source d’énergie pour satisfaire les besoins toujours croissants des centres de données de l’entreprise. La course à l’intelligence artificielle dans laquelle s’est lancée l’industrie du numérique, en particulier celle aux applications appuyées sur de grands modèles de langage, entraîne en effet une explosion de la demande en énergie.
Course à l’énergie
Meta veut 1 à 4 gigawatts d’énergie supplémentaires aux États-Unis d’ici 2030. L’entreprise précise « continuer à investir » dans ses projets d’énergie renouvelable « tels que l’énergie solaire et éolienne », mais précise que « les projets d'énergie nucléaire nécessitent davantage de capitaux, leur développement est plus long, ils sont soumis à davantage d'exigences réglementaires et leur durée de vie opérationnelle prévue est plus longue ». L’entreprise prendra les candidatures jusqu’au 7 février.
En se lançant dans ce projet, elle rejoint la liste toujours plus longue de sociétés du numérique engagées dans le domaine. De fait, le patron d'OpenAI, Sam Altman, admettait lui-même en janvier 2024 que les LLM consommaient trop d’énergie. Avant l’été, Goldman Sachs estimait que la hausse de la demande triplerait entre 2023 et 2030, pour atteindre 47 gigawatts aux États-Unis – la banque citait l’accès à l’énergie comme un enjeu à part entière pour les constructeurs d’IA.
Ces problématiques se sont traduites, en mars, par l’achat d’un campus de centres de données liés à la centrale de Susquehanna, en Pennsylvanie, par Amazon. Mi-octobre, la société indiquait avoir noué trois contrats avec Energy Northwest, qui construit quatre réacteurs nucléaires modulaires (SMR), X-energy (qui prévoit le déploiement de 5 000 MW de SMR d’ici 2039) et Dominion Energy (pour installer un SMR près d’une centrale préexistante en Virginie).
En septembre, Oracle prévoyait de son côté la construction d’un centre de données alimenté par trois réacteurs nucléaires. Microsoft a suivi de peu, avec l’annonce de son projet de relancer l’Unité 1 de la centrale de Three Mile Island (dont l’accident affectant l’Unité 2, en 1979, avait mis un coup d’arrêt au développement de la filière nucléaire états-unienne). Sa promesse de 4 milliards d'euros d'investissement en France, en mai, peut elle aussi être lue par le prisme de la recherche d'énergie nucléaire. Quant à Google, la société s’est tournée vers une solution plus proche de celle que vise Meta, en concluant un accord avec Kairos Power, qui construit de petits réacteurs de 500 MW.
Ce que l’IA fait à la lutte contre le changement climatique
Même si l’énergie nucléaire peut venir pallier une partie des besoins, le sociologue Clément Marquet et l’informaticienne Anne-Laure Ligozat rappelaient dans un récent épisode d’Algorithmique que la course à l’intelligence artificielle paraît difficilement soutenable en termes de protection de l’environnement. Ce, même si certains de ses usages participent à la lutte contre le changement climatique.
Les alertes se multiplient d’ailleurs sur les risques de rebond de la demande en énergie fossile que la course à ce type de technologies provoque. Si les géants numériques étaient nombreux à s’exprimer sur leurs objectifs en termes de neutralité carbone au tournant des années 2020, ces éléments tendent à disparaître de leurs discours récents. Ceux qui les mentionnent encore, comme Microsoft, vendent en parallèle leurs produits d’IA à certains des plus grands noms de l’industrie fossile, parmi lesquels ExxonMobil ou Shell.
IA : Meta se joint à la liste des géants numériques qui se tournent vers le nucléaire
-
Course à l’énergie
-
Ce que l’IA fait à la lutte contre le changement climatique
Commentaires (3)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousHier à 16h56
Ces modèles ne sont là que pour brasser des milliards. Mais ils ne sont à la fois pas tenables sur le plan énergétique, écologique et également économique. On commence à voir l'engouement s'essouffler auprès des entreprises, car les promesses ne sont pas tenues (ou du moins qu'en partie). Par contre cela aura permis des plans sociaux dans d'autres, augmentant alors un peu plus l'emprise du capital.
Je pense que le futur se situe plutôt sur de petits modèles, spécialisés, demandant peu de ressources et répondant à des usages précis. Avec, pourquoi pas, plusieurs de ces petits modèles fonctionnant de pairs selon les besoins.
J'espère au moins, dans toute cette folie, que le fait de se pencher à nouveau sur le nuke permettra des évolutions technologiques intéressantes pour le secteur, qui seront à leur tour profitables pour le reste de la société (comme par exemple se pencher à nouveau sur les surgénérateurs)...
Modifié le 04/12/2024 à 18h18
Ça fait déjà plus de 30 ans qu'on a perdu le leadership sur cette techno...
Depuis on a la nette impression que tout part un peu en sucette de tous les côtés, de partout...
Hier à 19h43
Pourquoi se limiter à faire plein de petits modèles spécialisés quand on peut faire plein de gigantesques modèles spécialisés ? Le problème reste le même, si je suis une entreprise qui vend des solutions de machine learning, si je peux augmenter les performances de mon modèle en augmentant la taille de celui-ci, qu'est-ce qui m'en empêche ? Je peux calculer le cout et le gain de performance en fonction du nombre de paramètres, je peux savoir quel est le nombre de paramètres à utiliser pour qu'il me soit économiquement viable. Que j'en fasse un assez généraliste ou plein de spécialisé, c'est la même chose.
Surtout, tu ignores le "transfer learning", les compétences acquises dans des tâches généralistes peuvent servir à résoudre des tâches plus spécialisées. Donc au lieu de s'amuser à faire modèle spécialisé pour chaque cas, il est généralement plus simple et plus efficace (aussi en termes de performance) d'utiliser un gros modèle général pour le spécialiser sur ces dernières couches.
Les recherches actuelles semblent plutôt continuer sur la voie des LLMs, mais plusieurs solutions alternatives au transformers semble se dessiner, comme hyena (un super CNN optimisé) ou mamba (une couche qui est soit un RNN, soit CNN). Ces solutions offrent des complexités algorithmiques plutôt alléchantes par rapport à un transformer. De manière générale, le contexte est beaucoup trop important, et c'est justement la force du transformer, c'est qu'il est capable de prendre en compte un contexte très large.
Sinon, tu peux regarder du côté du Mixture of Expert, l'idée, c'est de faire des petits modèles qui se spécialisent et de sélectionner le bon modèle pour répondre… et c'est utiliser dans les LLMs au sein des transformers modernes.