NVIDIA investit 5 milliards dans Intel : bientôt des CPU avec un GPU RTX !
Le mariage de la carpe et du lapin
Intel et NVIDIA ont posé jeudi les bases d'une collaboration stratégique inédite, qui verra le spécialiste de la carte graphique investir à hauteur de 5 milliards de dollars dans le leader de l'architecture x86. L'accord prévoit notamment qu'Intel intègre des GPU NVIDIA dans certaines de ses puces, mais aussi que les deux industriels fassent converger leurs technologies autour de NVLink dans le datacenter.
Le 18 septembre 2025 à 15h09
4 min
Économie
Économie
Certains y verront un mariage de raison, d'autres un signe des temps : Intel et NVIDIA ont en effet annoncé jeudi un accord de collaboration sans précédent, dont la portée paraitra aussi stratégique que symbolique à ceux qui suivent depuis près de trente ans les démêlés de ces deux piliers du monde informatique.
Selon les termes d'un communiqué, cette collaboration doit leur permettre de développer conjointement « plusieurs générations de produits » sur les segments grand public, entreprises et datacenters, soit en théorie l'ensemble des marchés communs aux deux entreprises.
Des CPU Intel avec un GPU NVIDIA intégré
Quelle nature prendra cette collaboration ? « Intel développera et commercialisera des puces tout-en-un (system-on-chips) intégrant des GPU NVIDIA RTX », destinées à alimenter « une large gamme de PC nécessitant l'intégration de CPU et de GPU de classe mondiale ». La description qu'en font les deux entreprises augure donc des puces tout-en-un signées Intel, mais équipées d'un composant graphique NVIDIA, alors qu'Intel développe aujourd'hui sa propre gamme de contrôleurs graphiques, en intégré ou sous forme de carte dédiée.
Dans le monde du datacenter – de loin le plus significatif pour NVIDIA en matière de chiffre d'affaires, la collaboration porte sur deux aspects. D'abord, le recours à NVLink pour « connecter sans effort les architectures Intel et NVIDIA », ce qui confère en théorie un avantage concurrentiel à Intel vis-à-vis d'AMD dans les systèmes dédiés à l'intelligence artificielle basés sur des GPU NVIDIA.
L'accord prévoit également qu'Intel développe des CPU personnalisés à la demande de NVIDIA, pour que la firme au caméléon puisse les intégrer, à sa façon, dans ses propres plateformes complètes d'IA. Plutôt que de développer ses propres CPU (une intention qu'on prête de longue date à Jensen Huang) ou de devoir mettre en concurrence les différents fournisseurs du marché, NVIDIA disposerait donc ainsi d'une faculté de développement à la carte avec le concours d'Intel.
NVIDIA entre au capital d'Intel
La mise en œuvre de cette collaboration s'accompagne d'un volet financier : NVIDIA s'engage en effet à acquérir pour 5 milliards de dollars d'actions Intel, au prix déterminé de 23,28 dollars, soit un montant légèrement supérieur à celui négocié par l'administration Trump pour formaliser son entrée au capital de la firme de Santa-Clara.
« L'IA alimente une nouvelle révolution industrielle et réinvente chaque couche de la pile informatique, du silicium aux systèmes en passant par les logiciels. Au cœur de cette réinvention se trouve l'architecture CUDA de NVIDIA », souligne Jensen Huang, CEO de NVIDIA. Nul doute qu'il apprécie cette revanche, alors qu'un certain Pat Gelsinger, ancien patron d'Intel, s'est par le passé fendu de quelques déclarations méprisantes au sujet du coup de chance que représentait ce kit de développement conçu pour convertir les cartes graphiques au calcul.
L'accord, qui reste soumis à l'approbation des autorités compétentes, souligne l'inflexion stratégique engagée par Lip-Bu Tan, CEO d'Intel depuis le début d'année. Il illustre aussi combien le rapport financier s'est inversé entre les deux entreprises. Intel, un temps numéro un mondial des semi-conducteurs, pesait avant cette annonce un peu plus de 100 milliards de dollars en bourse quand son concurrent caracole à plus de 4 000 milliards de capitalisation...
Excited to team up with my good friend Jensen to jointly develop multiple generations of custom data center and PC products!
— Lip-Bu Tan (@LipBuTan1) September 18, 2025
Our collaboration brings together the best of @Intel and @nvidia to benefit customers – and shows how vital x86 architecture and NVLink will be in… pic.twitter.com/lnEtmJW73A
NVIDIA investit 5 milliards dans Intel : bientôt des CPU avec un GPU RTX !
-
Des CPU Intel avec un GPU NVIDIA intégré
-
NVIDIA entre au capital d'Intel
Commentaires (25)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousModifié le 18/09/2025 à 15h26
bye bye à la propre gamme d'intel, à terme ça va disparaitre
le recours à NVLink pour « connecter sans effort les architectures Intel et NVIDIA », ce qui confère en théorie un avantage concurrentiel à Intel vis-à-vis d'AMD dans les systèmes dédiés à l'intelligence artificielle
les autorités de régulation n'approuvent pas ça
Le 18/09/2025 à 15h57
Bon sauf que là ils le font pour d'un côté évite Intel de couler, et Nvidia de produire sur le sol USA #taxfree
Modifié le 18/09/2025 à 16h17
Le 18/09/2025 à 15h58
J'espère que cela ne mettra pas fin aux IGP de Intel (qui reste performants et amplement suffisants dans nombre de cas). Par contre c'est AMD qui risque de prendre une douche froide si l'accord aboutit.
Le 18/09/2025 à 16h36
Effectivement, mais ils viennent avec leur dernière gamme de mettre un peu les pieds dans le plat quand même, avec des APU capables de faire de l'IA sur la totalité de la RAM du CPU (comme Intel), permettant de faire à bas coût des petites machines d'IA.
Modifié le 18/09/2025 à 16h51
- C'est un accès aux brevets (très nombreux) d'Intel pour le CPU.
- Faire bonne pâte auprès du gouvernement américain. Le Reportage de gamer nexus à soulevé quelques questions tout de même.
- Ca conforte une position au sein d'Intel qui pourrait toujours choisir Nvidia pour des recommandations aux autres constructeurs (type Dell) .
Pour Intel :
- C'est de la commande assurée.
- Ca bloque AMD pour faire du SOC.
- Un éventuel accès à certains brevets de Nvidia. Ex : L'un sait faire bouriner l'autre sait paralléliser. Les deux sont complémentaires.
L'obstacle : Trump qui voit deux chinois sur la photo.
Le 18/09/2025 à 16h36
Hé hé.
Modifié le 18/09/2025 à 22h13
Sur la photo, il y a un malaisien et un américain (américain mais dont les parents sont des chinois originaires de ROC - et non pas de PRC, tout comme la PDG d'AMD d'ailleurs).
Après oui, pour un Donald Trump qui lui ne fait ni dans le détail ni dans la nuance et ni dans la finesse aussi, c'est:
" que de l'asiat aux yeux bridés qui doit manger que du riz et tous les jours en plus... "
Le 21/09/2025 à 00h19
Et oui, deux jaunes. L'orange risque de voir rouge.
Modifié le 30/09/2025 à 05h55
En suivant le même ordre que sur les panneaux: société que l'on peut diviser en 3 catégorie, 1/3 - 1/3 - 1/3 (en schématisant bien sûr):
1 - Les Chinois : ceux qui détiennent l'économie et font tourner le business.
2 - Les Malais: ceux qui détiennent le pouvoir: les élus, les juges, les fonctionnaires, etc,...
3 - Les Indiens: ceux à qui reviennent les taches les moins qualifiées, un peu similaire comme pour nos travailleurs immigrés dans l'Union Européenne.
Le 18/09/2025 à 17h11
Modifié le 18/09/2025 à 22h15
Le 18/09/2025 à 17h35
Le 18/09/2025 à 22h19
Et sur leurs GPU, ils ont bien compris qu'ils étaient les derniers du trio,.et de loin, et donc avec des prix qui reflètent bien leur position de looser...
Le 19/09/2025 à 09h18
Les GPU intel ont des avantages. Déjà leurs iGPU ne sont pas à la ramasse face à la majorité des iGPU AMD, et permettent de jouer confortablement. Ensuite, leurs iGPU et leurs GPU dans une bonne config permettent d'utiliser la RAM de l'ordi comme RAM du GPU, divisant le prix d'une machine dédié inférence IA par 5 à 10 par rapport à un équivalent équipé NVidia, pour des perfs inférieurs certes, mais tout à fait intéressantes.
Dans la même idée, ça permet d'avoir des machines pour tester les modèles IA de 70B plus rapides que les NVidia de 24 ou 32Go.
AMD a enfoncé le clou dernièrement avec sa gamme Ryzen AI qui fait pareil, mais en plus rapide. Allant de 2 à 5x plus vite qu'un équipement en NVidia qui n'aurait pas de quoi stocker le modèle en RAM vidéo.
Au final, cela met à portée beaucoup plus large les modèles de génération d'image et de vidéo.
Je pense que NVidia voit bien arriver le tournant de l'IA qui se déporte de l'apprentissage à l'inférence. Et dans ce domaine, Intel a eu pas mal de bonne idées avec des NPU il y a déjà des années.
Intel n'est pas si dépassé que cela, loin de là, ils n'ont juste jamais su réellement promouvoir leurs bonnes idées (comme Microsoft d'ailleurs), et les ont abandonnées une par une...
Modifié le 30/09/2025 à 05h33
Toujours été assez anti INTEL, 386DX-40 AMD, du Cyrix166+, du K6-III, etc…
Et maintenant: Ryzen 2700G, et 5700G. ça convient très bien sauf avec MadVR, l’horreur, 2 options à cocher max , après c’est 100% sur GPU et on peut arrêter le film.
Intel@QuickSync par contre est vraiment le leader sur les 2 autres, 1er à avoir sortir l’encodage AV1 @Hardware et aussi toutes les frames I, P & B prises en compte sur le H264/H265 avec une qualité tout à fait correcte.
Avec du Topaz AI Video, Ryzen est totalement inutilisable (x30-50 fois plus lent qu’une RTX, 0.3fps / s => genre 24h pour 15min de vidéo) . Une Intel Arc A380 c’est beaucoup mieux mais apparemment toujours x3 fois plus lente qu’une RTX ou Radeon.
Pendant des années, Intel s'est bien reposé sur ses lauriers avec ses 4 cœurs seulement quand même ...
Un p'tit côté ArianeEspace.
Le 30/09/2025 à 14h03
Quand AMD a sorti les Ryzen bardés de coeur, je me suis demandé quand les logiciels deviendraient multi coeurs.
AMD a fait bouger les lignes, forçant Ms à revoir le scheduler de Windows. Du coup Intel a tenté carrément l'asymétrique...
Mais au final, pour 90% des ordis (bureautique et internet): 4 coeurs c'est ce qu'il faut en fait. Peu de softs sont encore multithreadés suffisamment dans la vie courante pour profiter réellement de plus. LEs gros effort smultithread sur Unreal Engine datent de peu.
16 coeurs et un ou 2 canaux mémoire, ça force à mettre énormément de cache pour voir la différence, c'est anti-batterie.
En pro, c'est pareil: les VM serveur sont encore souvent taillées avec 2 coeurs (pour que l'antivirus et l'EDR ne bloquent pas), ou 4 coeur,s rarement 8, plus souvent 1 coeurs que 8 d'ailleurs.
Même en BDD, pour 100 bases simultanées et autant d'utilisateurs minimum, j'ai déjà montré que 4 coeurs rapides étaient meilleurs de 8 coeurs sur des charges courtes.
J'ai un 6C/12T à la maison, à part sur la compilation ou l'IA, il s'ennuie franchement...
Modifié le 30/09/2025 à 15h50
Au pire y'a toujours l'OS qui peut l'être comme depuis Windows NT 3.1 par exemple. Microsoft a du raffiner son scheduler depuis le milieu des années 90 aussi.
Ca permet déjà de lancer des appli (mono cœur mais CPU intensive) mais qui vont continuer à mouliner proprement en arrière plan avec chacun son p'tit cœur à soi...
On se console comme on peut
Sinon 100% d'accord avec toi. D'ailleurs oui, mon 2700G était suffisant (mais la pate thermique, elle, un jour, elle ne l'était plus... suffisante... mais trop tard. Comme lui d'ailleurs maintenant: il n'est plus...
Windows Defender est super multhreadé quand on lance un scan manuel: durant une partie du scan, la température explose a un moment: 8C/16T @ 100%
Certains algo de compression ZIP sont aussi massivement multhreadés, ex: BZip2 .
Le 18/09/2025 à 18h34
On n'aura certainement pas des CPU intégrant l'équivalent d'un xx90 avec 24 Go de VRAM.
Le 19/09/2025 à 09h21
Ou un nouveau standard de NPU.
Le 18/09/2025 à 18h51
Un peu plus sérieusement cela m'embête pour AMD qui risque de se retrouver dans une position assez fragile :(
Le 18/09/2025 à 21h37
AMD certes est moins gros que les 2 autres mais il a aussi Xilinx dans son escarcelle, et il y a ptet une carte à jouer sur ce le mixage de ces domaines-là (CPU+GPU+FPGA) dans l'industrie.... En tous cas moi ça me parle plus que de rajouter des watts sur des GPU. (mais je suis sans doute plus vieux...)
Le 18/09/2025 à 18h55
Coté Intel, leur GPU ont toujours été bien supportés via des drivers libres, AMD aussi dans leurs APU.
Par contre, les specs NVidia sont fermées pour les GPU dédiés, qu'en sera-t-il pour ceux intégrés aux puces Intel ?
Le 18/09/2025 à 21h00
Le 18/09/2025 à 21h50
* : Rien À Fou... de l'IA
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?