HBM : la production de 2025 déjà presque entièrement vendue

La mémoire HBM (High Bandwidth Memory) propose une bande passante élevée, elle est donc très prisée dans les systèmes pensés pour l’intelligence artificielle. NVIDIA en use massivement sur ses GPU Blackwell et Hopper.

SK Hynix avait déjà annoncé il y a quelques semaines avoir vendu l’intégralité des puces prévues pour 2024 : « Notre volume de production de HBM prévu pour cette année est déjà épuisé. Même si 2024 ne fait que commencer, nous avons déjà commencé à préparer 2025 pour garder une longueur d’avance sur le marché ».

Reuters explique que, lors d’une conférence, le CEO de l’entreprise, Kwak Noh-Jung, a indiqué que la production de 2025 « était presque épuisée pour 2025 ». Il y a peu, Sanjay Mehrotra, directeur général de Micron, faisait une déclaration du même genre : « notre HBM est épuisée pour l’année civile 2024, et l’écrasante majorité de notre approvisionnement pour 2025 a déjà été allouée », comme le rapportait AnandTech.

Samsung n’a, semble-t-il, pas encore fait part de ses prévisions pour cette année et la suivante. Le fabricant indique simplement que « les expéditions de puces HBM de cette année devraient plus que tripler et qu’il a finalisé les discussions sur l'approvisionnement avec les clients », sans plus de détails.

Avec SK Hynix et Micron, ce sont les trois plus gros fabricants de mémoire HBM, dont raffolent les GPU dédiés à l’intelligence artificielle.

Commentaires (2)


Hausse des prix des matériels en perspective ?
et disponibilité limité également, sans puces, pas de cartes.


Après la demande va baisser, avec les embargos sur la Chine et la Russie (enfin, si le marché gris n'est pas trop important).
Fermer