Connexion Abonnez-vous

Le marché de la mémoire vive face au(x) mur(s) de l’IA

Double Data Rise

Le marché de la mémoire vive face au(x) mur(s) de l’IA

Alimentées par les investissements liés à l'IA, les tensions en cours sur le marché des semiconducteurs ont déjà entraîné une hausse des prix qui semble partie pour durer. Dans quelle mesure cette envolée affectera-t-elle la capacité en DRAM des ordinateurs portables, les nouveautés annoncées au CES 2026 ou la disponibilité des cartes graphiques pour joueurs ? Entre bruits de couloir et déclarations officielles, les pronostics penchent en faveur d'une année mouvementée...

Le 30 décembre 2025 à 10h17

NVIDIA envisage-t-elle sérieusement de réduire sa production de cartes graphiques conçues pour le jeu et la 3D, pour concentrer l'essentiel de ses ressources sur la livraison de composants dédiés à l'IA ? La rumeur a fait surface mi-décembre, d'abord sur des forums chinois, avant d'être reprise par quelques sites anglophones spécialisés dans l'actualité hardware.

Elle évoque une réduction significative de la voilure, avec une production en baisse de 30 à 40 % par rapport aux livraisons de GPU GeForce enregistrées sur la première moitié de l'année 2025, alors que la disponibilité des récentes RTX 5000 s'était déjà révélée limitée.

Sur le moment, la décision est analysée comme une réaction aux tensions à l’œuvre sur le marché de la mémoire vive. Puisque la demande est largement supérieure à l'offre, NVIDIA envisagerait de la même façon de sacrifier, au moins temporairement, certaines références comme la version 16 Go de la RTX 5060 Ti, de façon à diriger ses approvisionnements limités vers des cartes plus haut de gamme (la RTX 5080 par exemple), nettement plus génératrices de marges.

NVIDIA enclin à favoriser les produits à forte rentabilité ?

Il reste 83% de l'article à découvrir.

Déjà abonné ? Se connecter

Cadenas en colère - Contenu premium

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.

Accédez en illimité aux articles

Profitez d'un média expert et unique

Intégrez la communauté et prenez part aux débats

Partagez des articles premium à vos contacts

Commentaires (36)

votre avatar
Il est grand temps que cette bulle de l'IA éclate...
votre avatar
Il faut attendre que les gros investisseurs se rendent compte que l'IA ne produira pas tout l'argent magique qu'ils espèrent tous. C'est quand ils commenceront à s'en éloigner que ca pètera, pas avant...
votre avatar
Je ne vois pas ce qui pourrait éclater 🤔
votre avatar
Les valorisations hors sol des géants de l'IA, ou les carnets de commande hallucinés qui n'existeront jamais ailleurs que dans des PPT, par exemple.

Ça commence à bouger dans les banques, et à essayer de faire quelques projections réalistes des chiffres annoncés par le secteur de l'IA et repris sans aucune critique par les médias tech, et les calculs se révèlent, pour rester soft, totalement foireux (à commencer par la prétention à construire d'énormes emprises au sol et leurs alimentations en moins d'un an).
votre avatar
Ça fait des mois qu'on entend parler de cette fameuse bulle, et les investissements suivent toujours.
Je ne pense pas que les investisseurs soient totalement c et mal conseillés. Les intérêts vont au delà de l'aspect financier je pense.

Twitter a mis 10 ans avant d'être rentable, facebook 5, snapshat je dirais 5-8 je ne sais plus trop. Tesla je crois que ça doit être une quinzaine d'années. Uber ne doit toujours pas l'être.
Bref, l'IA ça va prendre du temps, ce n' est que le début et on parle d'un domaine qui va s'intégrer dans tous les autres à termes... Rien que le militaire, ça risque de faire des sacrés contrats.
votre avatar
Ça fait des mois qu'on entend parler de cette fameuse bulle
Ça fait moins de deux mois que c'est dans la presse généraliste, et que des dirigeants de banque commencent à alerter.
et les investissements suivent toujours.
Enfin, si on reprend ce que racontent les majors de l'IA sans aller regarder ce qu'il en est derrière réellement.
Twitter a mis 10 ans avant d'être rentable, facebook 5, snapshat je dirais 5-8 je ne sais plus trop.
Les sommes en jeu n'étaient pas aussi importantes, entre devoir vivre sur quelques milliards de dollars pendant qql années, et en cramer pls dizaines par mois, c'est pas du tout pareil. Surtout que les sites que tu mentionnes, on avait au moins des chiffres d'adoption à la hauteur des attentes et des prétentions, en phase avec le business model. L'IA ne fonctionne pas avec un modèle gratuit basé sur la pub.
Tesla je crois que ça doit être une quinzaine d'années.
Tesla, c'est avant tout Musk qui y a mis des billes avant que ça ne décolle vraiment, et pareil qu'au dessus, il y avait une feuille de route claire et presque crédible.
Bref, l'IA ça va prendre du temps, ce n' est que le début et on parle d'un domaine qui va s'intégrer dans tous les autres à termes...
Personne en a rien à foutre si c'est pas gratuit ou presque de l'IA. Au coût réel (va voir ce que facture repl.it), presque personne en voudra. Même aux tarifs très bas (et non rentables) actuels, le taux de transformation est ridiculement bas pour une techno censée changée le monde.

Mais effectivement, je pense que le fait que les grosses entreprises du LLM fassent autant le forcing pour pousser l'industrie à intégrer leurs LLM au cœur de leurs outils est une stratégie de la dernière chance : il faut que les LLM ne soient plus délogeables des ERP pour pouvoir forcer les clients à payer plein pot, et il faut que ça arrive avant qu'on se rende compte qu'à part ça, le business model est creux.
Rien que le militaire, ça risque de faire des sacrés contrats.
Le militaire, ce qu'il lui faut, c'est du volume et des hommes. L'IA c'est un plus qui sera donc nécessaire (parce que tout le monde l'aura), mais c'est pas l'IA des majors de la genAI qui va être dans les armes et les processus de décision. Si tu regardes aux USA, où les majors de la genAI ont un peu l'oreille du patron, que vient de décider Trump pour dépenser dans la défense ? De l'IA ? Certes un peu, mais surtout : un successeur pour le F-35, et un cuirassé vaporware qui va mettre à mal la suprématie américaine sur les mers. Des programmes à faire pâlir les investisseurs de la silicon valley : un Trump class coûtera 8 à 13 milliards, et il est question d'en produire 22.
votre avatar
@dvr-x les exemples que tu donnes ne sont pas bons ou en tout cas pas comparables avec la quantité de cash brulée actuellement pour maintenir le système en vie.

si en parallèle on atteint des niveaux de prix en hausse dans des composants vitaux pour le marché grand public ET pro, il va y avoir en plus baisse de volume dans des activités annexes.

Comme dit précédemment, c'est bien beau de construire des Gigacenters, mais si c'est pour que personne ne puisse l'utiliser faute de renouvellement de matériel, l'intérêt va vite être limitée.

Quant à l'IA militaire cela sera principalement de l'IA embarquée (soit ce qui existe déjà sous d'autres noms) car s'il y a une chose que la guerre en Ukraine aura appris à tout le monde c'est que la guerre de brouillage est aussi importante que la guerre terrestre en soit.
votre avatar
Les exemples c'est juste pour dire qu'on peut investir dans qqch non rentable sur une longue durée.

J'ai du mal a comprendre que sur un site comme Next aussi peu de monde arrive à voir que l'IA va être partout, que ce n' est pas juste un prompt et un chat.

Bah écoutez, on en reparlera dans qlq années. Je serai le premier a être content d'avoir tord dans ce cas 👍
@carbier @deathscythe0666
votre avatar
J'ai du mal a comprendre que sur un site comme Next aussi peu de monde arrive à voir que l'IA va être partout, que ce n' est pas juste un prompt et un chat.
C'est à cause du choix de mots.

l'IA en tant que technologie est partout depuis longtemps dans l'IT. (Tout ce qui fait du machine learning, du prédictif, de la trad, etc.)

C'est la sous catégorie IA générative qui est en train de bouleverser le domaine.

Intelligence artificielle est une expression aussi précise que informatique.
votre avatar
J'ai du mal a comprendre que sur un site comme Next aussi peu de monde arrive à voir que l'IA va être partout, que ce n' est pas juste un prompt et un chat.
Tu as peut être du mal à comprendre parce que tu interprètes ce qu'on dit d'une façon maximaliste. Une bulle, et le fait qu'elle finisse par éclater, ne signifie pas qu'un secteur disparaît (ç'aurait été bien dommage pour Internet). Et aussi, de la part de ceux qui ont connu l'engouement pour :
- les cryptomonnaies,
- la RV/RA,
- le métavers,
- et j'en oublie sans doute d'autres
au bout d'un moment, avant de s'exciter et de courir plus vite que les autres vers on ne sait quelle issue, tu attends un peu que le moment soit arrivé de compter les bouses.

Et à un moment donné, vu que ce milieu est gangréné par des techbros fachos, autant ne pas leur donner plus de pouvoir qu'ils n'en ont déjà.
votre avatar
c'est que la guerre de brouillage est aussi importante que la guerre terrestre en soit.
Ce que la guerre en Ukraine nous aura appris, c'est qu'à partir en slip pour envahir un pays, tu finis par survivre d'expédients low cost pour compenser toutes les carences de ton armée (manque d'obus, de tubes, de missiles, d'avions et de moyens de brêchage). Ce qu'on voit en Ukraine, c'est pas l'émergence d'une enième Wunderwaffen game-changer (ça n'existe pas), mais un outil qui répond à un besoin immédiat dans un contexte donné.

Tout (notre budget défense, notre stratégie) mettre dans du drone low cost et de l'anti drone low cost, c'est bien la dernière des conneries à faire. Pour citer approximativement Ulrike Franck (analyste sécurité) : "une fois qu'on aura mis en place notre mur anti drones, qu'est-ce qui empêchera Poutine de se dire 'tiens, envoyons des missiles' ?"

Vous savez quel système d'arme permet à la Russie de grignoter du terrain ? Un truc encore plus low cost mais bien plus impactant que le drone munition FPV : la bombe planante. C'est avec ça que les Russes arrivent à percer des lignes bien retranchées sur lesquelles les drones ne peuvent rien faire.
votre avatar
Mouai, enfin dans ce genre de cas, la douche froide c'est pour ceux qui n'ont rien demandé. On sera loin d'un pb de ram à 300$ plutôt que 150. Les grecs, les espagnols, etc s'en souviennent encore...
votre avatar
L’IA aura vraiment contaminé tout ce qui est possible. Pire qu'un cancer métastasé le machin.
votre avatar
J’ai de la DDR4 en stock, ça vaut cher sur le bon coin ? :8
votre avatar
Et aussi la LPDDR5 vu que Nvidia a déjà faits des contrats sur la SOCAMM : https://www.techpowerup.com/339183/nvidia-selects-micron-for-large-scale-socamm-deployment

les pronostics penchent en faveur d'une année mouvementée
deux ans plutôt ? SK Hynix dit que ça va durer jusqu'en 2027
votre avatar
en général les supercycles durent deux ans oui. maintenant on a une telle instabilité là autour de l'IA que c'est déjà compliqué de faire des pronostics à douze mois, alors sur deux ans, ça relève plus du doigt mouillé qu'autre chose :p
votre avatar
C'est peut-être car SK Hynix sont le seuls à augmenter leur production en 2026 : https://overclock3d.net/news/memory/sk-hynix-plans-8-fold-boost-to-cutting-edge-dram-production-in-2026/. Si la pression de l'IA ne descends pas et que les autres n'augmentent pas leur production ça va durer

Et la sortie en 2027 des DRR6/LPDDR6 qui pourraient faire souffler un peu les DDR5/LPDDR5 : https://hardwareand.co/actualites/breves/lpddr6-en-2026-ddr6-en-2027-l-arrivee-du-nouveau-standard-dram-se-precise

Il y a une époque ou il y avait eu une entente entre les 3 gros fabricants de RAM pour éviter que les prix baissent
votre avatar
Je suis passé juste avant : par curiosité, j'ai regardé le prix de ma RAM entre son achat en août et maintenant : de 245.90 pour de la G.Skill Kit DDR5-6000 de 64 Go à 1190.00€ maintenant. :o
votre avatar
Ce sera cool quand il y aura des datacenters "gigowattiques" partout (on y croit à mort), et plus aucun terminal en état d'utiliser des applis enrichies pourries à l'IA.
votre avatar
Pareil, 237 euros en janvier dernier, plus de 1100 euros aujourd'hui... Je vois vraiment pas comment cette situation pourrait perdurer. Qu'il y ait une poignée de fortunés pour continuer à jouer dans ces conditions, c'est une chose. Mais sur des changements de génération matérielle, comme l'arrivée d'une nouvelle console, ca me parait peu probable que le gros des joueurs continuent à investir dans ces ordres de grandeur juste pour continuer à jouer.
votre avatar
J'ai quand même peur du résultat si jamais mon pc lâche : à la base, ma carte mère avait lachée, j'ai donc du racheter la CM + la reste... J'ai tout gardé si jamais, même si retrouver une CM + proco sera une autre gageure...
votre avatar
En fait tout ça (les articles et l'actualité autour de l'IA) ce n'est que l'observation des symptômes. Pas la cause des cause.

Qu'est ce qui fait qu'il y a une demande massive pour de l'IA ? Qui demande ? Est-ce vraiment des demandes concrète qui sont supposées aboutir à de vraies applications (et du code gloubiboulga pour les dev). Ou un effet de manipulation de marché ?

Une telle débauche de puissance ne rime à rien. Même pour l'IA. Quels sont les autres usages ? Casser de la donnée cryptée (oui parce que le quantique ne le fera pas. Trop d'erreur et peut-être une éthique de la part des tronche qui les construisent) ??

Le pauvres péons que nous sommes ne feront pas autrement que de fermer le porte-monnaie et d'attendre que l'orage passe. Ça touche trop de choses en même temps pour que cela ne fasse pas penser à "danger". Pour autant un orage il vient bien de quelque part.


Il y a ~6 mois nous commentions sur cet article. C'est quand même le genre de chose qui aurait du stopper ou ralentir les ardeurs. Pour moi cela veut dire à présent que la cause est bien plus cachée derrière les fagots qu'on le pense.
votre avatar
même question ici
The worst case scenario is that the people with the most money at stake in AI know it’s not what they say it is. If this is true, we get the bubble and fraud with compound motives. I have an idea about one of them that I’ll get to toward the end of this essay. But first, let’s start with the hype.
(...)
There’s a logic hole here that’s easily filled by the possibility that AI is a fitting front for consolidation of resources and power. The value of AI can drop to nothing, but owning the land and the flow of water through it won’t.
votre avatar
Cette façon de voire les choses est encore plus inquiétante que de dire qu'une bulle peut exploser ...
Même si "l'explosion" d'une bulle fait du dégât, ce serai moins grave qu'une bataille pour des ressources.
Ce qui voudrait dire que les ressources vont commencer a manquer pour la fabrications de tous ses composants électronique ?
Cela me fait penser a une interview de "Thinkerview" sur ce sujet :
youtube.com YouTube
votre avatar
L'IA devait révolutionner le monde, au lieu de ça on a du brainrot, et un stick de RAM coute autant qu'un PC neuf.
votre avatar
C’est simplement que pour payer ta barette de ram dont le prix a explosé grâce à l’IA, désormais il faut lancer ta ferme de sites genAI et devenir millionnaire grâce à l’IA. La boucle est bouclée.
votre avatar
OK alors, je lance ma startup: une IA qui fait des friands à la saucisse.
votre avatar
Bientôt des barettes de RAM au lieu des barettes de shit dans vos quartiers chauds !
votre avatar
et sinon, on pourrait peut-être relancer le sujet de l'optimisation de la mémoire, ça permettrait d'en utiliser un peu moins? à une époque on enlevait 2 chiffres à l'année pour ça, bon certes il a fallut adapter certaines choses après avoir fait ce choix :) mais bon aujourd'hui la devise c'est si ça prend trop de mémoire il faut en ajouter, plutôt que de chercher ce qui en utilise un peu trop
votre avatar
C'est le moment idéal pour s'attaquer à l'autre partie de l'équation: du côté du besoin.

Il n'y a pas que l'IA qui est hors sol. La consommation de mémoire RAM des logiciels l'est tout autant et depuis un moment déjà.

Ne serait-il pas le moment opportun pour les éditeurs de proposer des versions plus légères de leurs produits ? Il s'agit là j'en convient d'un défi de taille car même avant l'arrivée de l'IA, la compétence dans ce domaine était rare ou plutôt, ce n'était pas la priorité des décideurs.
votre avatar
C'est un vœux pieux mais ce ne sera pas vraiment possible. Mais y'a de l'espoir.

Déjà du temps des AtariST et des Amiga on voyait le problème. Ce n'est pas le code qui prend le plus de place ce sont les médias (image / son) qui sont les plus gourmands. J'avais fait une moyenne à l'époque pour mes démos. 4% de code 96% data.

Et plus les définitions augmentent plus c'est le cas. Le son est passé de 8-16khz vers 48Khz voire 96Khz. L'image de VGA 256c à 8K aujourd'hui.

Quand bien même les langages compilés sont peu plus gourmands par rapport à l'assembleur et que les langages livrés sous forme de bytecode (java etc) le sont un peu plus encore. Cela reste le même genre de ratios. Une très nette domination du segment data.

Alors on nous dira qu'on peut compresser. Bin oui mais pas tant que cela. Quand c'est possible cela revient à échanger du temps de CPU (ou GPU) pour gagner de la place. Donc énergie contre un gain temporaire de place en RAM. Ça va plus vite et c'est plus simple de faire du cache disque (donc s'en remettre au système). Enfin c'est moins de chose à maintenir dans l'applicatif.

Pire encore. Les algos de compression avec ou sans dégradation; hé bien on connait leur limites et malheureusement cela ne change pas grand chose à ce ratio.



La bonne nouvelle c'est que les performances humaines sont limitées. Quand bien même les gamers dopés aux milk-shakeş énergétiques en IV prétendent le contraire. On sait que c'est pas vraiment la peine de gonfler plus les résolutions ou l'audio.

On ne voit plus la différence à 3 mètres pour du 2k-4K-8K. Et faire du 4k sur un webphone est atrocement con. Pour le son on sait aussi le bricoler comme on veut à partir de 48Khz.

Donc bon an mal an il faudra toujours plus de RAM mais je pense qu'on arrive à un plateaux. Les bouffeurs de RAM seront plus les "virtualiseurs" que les gamers. Et plus les gamers que le commun des mortels.


Alors on me dira qu'il y aura toujours un crétin dans le grand public pour acheter une télé 32K donc un autre crétin pour la fabriquer. Oui m'enfin bon...
votre avatar
Va dire ça à tous les logiciels electron.

Par contre, y a quand même un truc. En 2015, steam lançait les steam machines, avec un cahier des charges qui impose 16 Go de RAM. En 2025, steam relance la steam machine, avec toujours 16 Go RAM. Ça fait 10 ans qu’on stagne quasiment en capacité de RAM, la faute à une production trop faible et donc des prix qui ne baissent pas assez. Nos machines ont un ratio performance cpu / ram en dégradation constante. On peut accuser les logiciels, mais les choix matériels qui ont été faits sont douteux aussi.
votre avatar
Et le tmpfs par défaut de nombreuses distributions linux, on en parle ? :-)
et je ne dis pas ça parce que une tentative de restauration de fichier avec duplicati m'a bouffé tout mon tmpfs (et donc toute ma RAM) à cause des données temporaires.

Vous n'avez aucune preuve que je me sois dis que, finalement, j'aurais du prendre 64Go de RAM au lieu de 32Go. :-)
votre avatar
une pensée émue pour Valve qui doit sortir sa gamme de matos début 2026, les fabricants de consoles qui vont peut-être pas trop s'avancer sur la prochaine génération/upgrade, et puis un peu l'État coincé avec ses PC pas compatibles W11 ^^
votre avatar
Le timing des steam machine a toujours été formidable en effet.
votre avatar
Mon petit doigt me dit que les fournisseurs de serveurs refusent d'honorer les demandes de leurs gros clients ayant passer avec eux des contrats cadres... en raison de l'explosions du prix de la RAM...

Le marché de la mémoire vive face au(x) mur(s) de l’IA

  • NVIDIA enclin à favoriser les produits à forte rentabilité ?

  • Demande pressante pour la HBM4

  • Panique sur les stocks

  • Les constructeurs de PC et de smartphones à la peine

Fermer