Le GPU Blackwell B200 coûtera entre 30 000 et 40 000 dollars pièce

La déclaration a été faite par Jensen Huang lors d’une interview à CNBC, comme le rapporte Tweaktown. Ce nouveau GPU a été annoncé cette semaine durant la GTC de NVIDIA avec la promesse de largement dépasser les performances du H100 (Hopper).

Le patron de NVIDIA en profite pour annoncer avoir investi aux alentours de 10 milliards de dollars en recherche et développement pour Blackwell.

Commentaires (19)


Will it blend ?
On compte tous sur toi pour vérifier!
10 milliards uniquement pour de la R&D? ... Ca sent le bullshit pour justifier le prix stratosphérique du GPU.
C'est du GPU Pro, le tarif n'est pas extravagant vu le publique visé et le niveau de la concurrence actuellement sur le sujet.
Je ne pense pas. Enfin, il faut voir aussi comme une opération marketing.

Là où NVidia fait fort depuis plus de 15ans (avec l'arrivée des cuda core et de la bibliothèque cuda), c'est qu'ils travaillent énormément en collaboration avec des équipes de recherches en leur apportant leur aide et eux ont des retours et peuvent améliorer et évoluer leurs outils en fonctions des besoins. Du coup, la majorité des outils de qui peuvent utiliser l'accélération par GPU le font d'abord via CUDA, les autres matos passant souvent au second plan. De ce fait, si tu veux faire du calcul sur GPU (ce qui inclut les réseaux de neurones) tu achètes du matos avec une puce NVidia.

Par exemple, la bibliothèque python "numba" (qui permet d'obtenir des performances élevées en python) est nativement compatible avec CUDA. Pour ROCm, d'après le git, c'est un adaptateur du code depuis CUDA vers ROCm, et le code n'a pas changé depuis 6 ans (et la dernière doc ne fait même plus référence à ROCm).
Je me fais la même réflexion : 10 millions, passe encore, mais 10 milliards ?!
Je veux dire, il ont 30000 salariés environ. Ça équivaut à plus de 5 ans de salariat à prêt de 33k/an pour chacun (pour TOUTE l'entreprise, donc c'est très approximatif comme calcul). Sauf que le H100 a été présenté en 2021, donc on peut en déduire que le debut des travaux sur le B200 date de 2021 au plus tôt... Ça fait 3 ans. En 3 ans, ils crament 10 milliards en R&D ? 🤔
Modifié le 20/03/2024 à 11h35

Historique des modifications :

Posté le 20/03/2024 à 11h33


Je me fais la même réflexion : 10 millions, passe encore, mais 10 milliards ?!
Je veux dire, il ont 30000 salariés environ. Ça équivaut à plus de 5 ans de salariat à prêt de 33k/an pour chacun. Sauf que le H100 a été présenté en 2021, donc on peut en déduire que le debut des travaux sur le B200 date de 2021 au plus tôt... Ça fait 3 ans. En 3 ans, ils crament 10 milliards en R&D ? 🤔

potn

Je me fais la même réflexion : 10 millions, passe encore, mais 10 milliards ?!
Je veux dire, il ont 30000 salariés environ. Ça équivaut à plus de 5 ans de salariat à prêt de 33k/an pour chacun (pour TOUTE l'entreprise, donc c'est très approximatif comme calcul). Sauf que le H100 a été présenté en 2021, donc on peut en déduire que le debut des travaux sur le B200 date de 2021 au plus tôt... Ça fait 3 ans. En 3 ans, ils crament 10 milliards en R&D ? 🤔
La réalisation de prototype et de petite série peut coûter extrêmement cher. Au delà de la masse salariale, il peut y avoir des besoins d'investissement en machines faites sur mesure. Et il peut y avoir besoin de plusieurs machines différentes selon les étapes (production, test, ...)

Du coup, vu le domaine extrêmement pointu, cela ne m'étonne pas vraiment.

fdorin

La réalisation de prototype et de petite série peut coûter extrêmement cher. Au delà de la masse salariale, il peut y avoir des besoins d'investissement en machines faites sur mesure. Et il peut y avoir besoin de plusieurs machines différentes selon les étapes (production, test, ...)

Du coup, vu le domaine extrêmement pointu, cela ne m'étonne pas vraiment.
C'est pire que ça, on n'est plus sur un prototype, mais bien un produit commercial.

J'avais un souvenir que NVidia avait bien galéré pour produire les puces d'une génération de RTX à cause de leur taille. Le but étant de ne pas jeter 90% du wafer, il leur a fallu pas mal travailler avec TSMC pour optimiser le procédé de gravure. Là, avec des puces de telle taille (j'imagine que ça doit en plus poser des problèmes pour garder tout ça synchrone avec les tics d'horloge) et une conception MCM (Multi-Chip-Module, plusieurs puces soudé ensemble pour ne faire qu'une seule) qui est une première pour NVidia, ils ont dû passer du temps chez TSMC et bouffer des wafers pour arriver à un procédé industriellement viable.

tazvld

C'est pire que ça, on n'est plus sur un prototype, mais bien un produit commercial.

J'avais un souvenir que NVidia avait bien galéré pour produire les puces d'une génération de RTX à cause de leur taille. Le but étant de ne pas jeter 90% du wafer, il leur a fallu pas mal travailler avec TSMC pour optimiser le procédé de gravure. Là, avec des puces de telle taille (j'imagine que ça doit en plus poser des problèmes pour garder tout ça synchrone avec les tics d'horloge) et une conception MCM (Multi-Chip-Module, plusieurs puces soudé ensemble pour ne faire qu'une seule) qui est une première pour NVidia, ils ont dû passer du temps chez TSMC et bouffer des wafers pour arriver à un procédé industriellement viable.
Je réagissais par rapport à l'argent investi en R&D.

Le prix élevé du produit qui en résulte c'est autre chose et ne relève plus de la R&D (même s'il y a sans doute l'amortissement de la R&D inclus dedans).

potn

Je me fais la même réflexion : 10 millions, passe encore, mais 10 milliards ?!
Je veux dire, il ont 30000 salariés environ. Ça équivaut à plus de 5 ans de salariat à prêt de 33k/an pour chacun (pour TOUTE l'entreprise, donc c'est très approximatif comme calcul). Sauf que le H100 a été présenté en 2021, donc on peut en déduire que le debut des travaux sur le B200 date de 2021 au plus tôt... Ça fait 3 ans. En 3 ans, ils crament 10 milliards en R&D ? 🤔
J'ai réduit le budget R&D à 6mois :
https://www.zdnet.fr/actualites/nvidia-se-porte-bien-la-moitie-de-ses-employes-gagnent-300-000-dollars-par-an-39964536.htm
Ca fera combien de FPS avec Fortnite ?

:fume:
2

elticail

2
Mais ça fait tourner doom à 800000 fps :8

StackOverflowError

Mais ça fait tourner doom à 800000 fps :8
C'est plus fait pour faire tourner 800000 doom, mais à 2 FPS.

(matériellement, je ne sais pas s'il y a tout ce qu'il faut pour faire un pipline 3D classique, et logiciellement, je crains qu'il n'y ait pas les bibliothèques nécessaires. Et de toute façon, il n'y a pas de sortie vidéo)

tazvld

C'est plus fait pour faire tourner 800000 doom, mais à 2 FPS.

(matériellement, je ne sais pas s'il y a tout ce qu'il faut pour faire un pipline 3D classique, et logiciellement, je crains qu'il n'y ait pas les bibliothèques nécessaires. Et de toute façon, il n'y a pas de sortie vidéo)
Ca n'a plus trop de sens d'appeler cela des GPU si c'est dédié à faire autre chose que du traitement graphique.
C'était bien le sens de ma remarque...

:fumer:
L'ère du temps, c'est de redéfinir les termes. Politique, idéologie, tout ça...

Faisons-en de même !

Nous parlerons donc de Generic Processing Unit :fume:
On parle d'accélérateur assez couramment pour désigner ce genre de puce.
Fermer