Connexion Premium

#Nextquick : les GPU NVIDIA suivent-ils la loi de Moore ?

Chez NVIDIA c’est toujours Moore IA

#Nextquick : les GPU NVIDIA suivent-ils la loi de Moore ?

L’IA générative avec les grands modèles de langage évolue à grande vitesse, et avec elle les besoins en GPU pour les entrainements. NVIDIA est le numéro un actuel sur le marché et ses GPU s'arrachent comme des petits pains. On s’est demandé quelle était l’évolution depuis 10 ans des performances des GPU. Sont-ils compatibles avec la loi de Moore ? On répond à cette question dans ce Nextquick.

Le 05 décembre 2025 à 17h42

C’est en 1965 que Gordon Earle Moore, un des fondateurs d'Intel, énonçait une conjecture, encore célèbre aujourd’hui. On parle même d’une « loi » alors qu'elle ne repose que sur des constatations empiriques et qu’elle a évolué à plusieurs reprises.

1965 - 2025 : 60 ans de loi de Moore

Gordon Earle Moore est décédé en 2023, mais sa « loi » continue aujourd’hui de faire parler d’elle. Elle a fêté ses 60 ans cette année. Au départ, elle indiquait que la « complexité » des puces doublait tous les ans, puis ce fut le nombre de transistors. Elle a ensuite été « simplifiée » : la puissance des processeurs double tous les 18 mois. Aujourd’hui, elle s’applique à tout ce qui double en 1,5 an.

Dans Nature, le physicien, journaliste et auteur Mitchell Waldrop affirmait en 2016 que « l’avenir de la loi de Moore est compromis. L'industrie des semi-conducteurs va bientôt l’abandonner ». À la rédaction, on s’est demandé si l’évolution des GPU avait pris le relai de cette loi.

Regardons cela ensemble, en remontant 10 ans en arrière à l’époque du lancement de l’architecture Pascal par NVIDIA. Elle a été suivie par Volta, Ampere, Hopper et enfin Blackwell, la dernière en date, annoncée en 2024.

Transistors et mémoire : l'alignement est impressionnant

Il reste 69% de l'article à découvrir.

Déjà abonné ? Se connecter

Cadenas en colère - Contenu premium

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.

Accédez en illimité aux articles

Profitez d'un média expert et unique

Intégrez la communauté et prenez part aux débats

Partagez des articles premium à vos contacts

Commentaires (7)

votre avatar
C'est marrant j'ai pas l'impression de sortir 43x plus de FPS par contre...
votre avatar
Pour avoir 43x + de FPS, il faudrait que TOUT ait augmenté de x43 dans une machine, ce qui n'est pas le cas : le stockage de masse, la mémoire, le CPU, les différents bus peuvent chacun être un goulot d'étranglement pour avoir le même niveau d'amélioration des perfs.
votre avatar
Sans compter la "lourdeur" des jeux qui s'appuient sur ces nouvelles possibilités.
votre avatar
La loi de Moore concerne avant tout la finesse de gravure, pas la performance elle-même puisque l'impact sur la performance viendra aussi de ce que l'on fait de ces transistors.

C'est d'ailleurs pour ça que les chiffres de comparaison de performance semblent sans rapport avec l'évolution du nombre de transistors : les priorités ont changé. Les GPU pour datacenter n'ont plus les mêmes priorités qu'à l'époque : il y a 8 ans, la priorité était aux code de simulation, donc ce qui était important était la performance en FP64 avant tout ; le FP16 était anecdotique, donc peu optimisé. Désormais, les GPU sont optimisés pour l'IA, donc pour les plus faibles précisions (FP16, voire moins), et de nos jours le FP64 est négligé par nvidia (et n'est même pas cité dans cet article) alors que c'était la raison d'être de toute la gamme Tesla à l'époque. Si vous comparez l'évolution de la performance en FP64, vous verrez que c'est d'un coup beaucoup moins spectaculaire (de l'ordre de x10, pas x40).
votre avatar
Perso la seule loi que je respecte, c'est La Loi de l'A-Moore. :bisous: :oops:

(Pour une démonstration plus académique, voir ici ou encore ici, si on a un petit faible pour Kirkegaard - la Philo, c'est plus fort que toi... Hélas...)

===>>>
votre avatar
Les prix aussi exolosent tous les 18 mois 😏
votre avatar
Un angle mort de cette course effrénée aux performances : les gains ne sont plus uniquement acquis grace a une meilleure finesse de gravure ( contrairement à ce que prédit la loi de moore).
La taille des die augmente et les consommations électriques explosent.
Le dernier gpu gb300 ultra est donné pour un TDP de 1400w (oui, pour 1 seul gpu)!

#Nextquick : les GPU NVIDIA suivent-ils la loi de Moore ?

  • 1965 - 2025 : 60 ans de loi de Moore

  • Transistors et mémoire : l'alignement est impressionnant

  • La précision diminue, les performances augmentent

  • Coup de turbo sur 16 et 32 bits avec les Tensor Cores

  • Alors, loi de Moore ou pas pour les GPU NVIDIA ?

Fermer