NVIDIA investit 5 milliards dans Intel : bientôt des CPU avec un GPU RTX !

Le mariage de la carpe et du lapin

NVIDIA investit 5 milliards dans Intel : bientôt des CPU avec un GPU RTX !

Intel et NVIDIA ont posé jeudi les bases d'une collaboration stratégique inédite, qui verra le spécialiste de la carte graphique investir à hauteur de 5 milliards de dollars dans le leader de l'architecture x86. L'accord prévoit notamment qu'Intel intègre des GPU NVIDIA dans certaines de ses puces, mais aussi que les deux industriels fassent converger leurs technologies autour de NVLink dans le datacenter.

Le 18 septembre 2025 à 15h09

Commentaires (25)

votre avatar
alors qu'Intel développe aujourd'hui sa propre gamme de contrôleurs graphiques, en intégré ou sous forme de carte dédiée
bye bye à la propre gamme d'intel, à terme ça va disparaitre

le recours à NVLink pour « connecter sans effort les architectures Intel et NVIDIA », ce qui confère en théorie un avantage concurrentiel à Intel vis-à-vis d'AMD dans les systèmes dédiés à l'intelligence artificielle
les autorités de régulation n'approuvent pas ça
votre avatar
En gros, on va revenir à la bonne époque des puces Intel/Nvidia Ion ? :glasses:
Bon sauf que là ils le font pour d'un côté évite Intel de couler, et Nvidia de produire sur le sol USA #taxfree
votre avatar
Héhé oui, il y a le précédent Ion sur les netbooks et les Eee PC, mais là c'est un peu plus serious business :D
votre avatar
Alors là, je ne l'ai pas vu venir celle-là. Il y a encore quelques années ce type de situation aurait été hautement improbable, et aurait mis les régulateurs en alerte.

J'espère que cela ne mettra pas fin aux IGP de Intel (qui reste performants et amplement suffisants dans nombre de cas). Par contre c'est AMD qui risque de prendre une douche froide si l'accord aboutit.
votre avatar
"c'est AMD qui risque de prendre une douche froide si l'accord aboutit"

Effectivement, mais ils viennent avec leur dernière gamme de mettre un peu les pieds dans le plat quand même, avec des APU capables de faire de l'IA sur la totalité de la RAM du CPU (comme Intel), permettant de faire à bas coût des petites machines d'IA.
votre avatar
Pour Nvidia
- C'est un accès aux brevets (très nombreux) d'Intel pour le CPU.
- Faire bonne pâte auprès du gouvernement américain. Le Reportage de gamer nexus à soulevé quelques questions tout de même.
- Ca conforte une position au sein d'Intel qui pourrait toujours choisir Nvidia pour des recommandations aux autres constructeurs (type Dell) .

Pour Intel :
- C'est de la commande assurée.
- Ca bloque AMD pour faire du SOC.
- Un éventuel accès à certains brevets de Nvidia. Ex : L'un sait faire bouriner l'autre sait paralléliser. Les deux sont complémentaires.


L'obstacle : Trump qui voit deux chinois sur la photo.
votre avatar
"L'obstacle : Trump qui voit deux chinois sur la photo."
Hé hé.
votre avatar
En effet, ce n'est pas parce qu'on peut avoir les yeux bridés que l'on soit obligatoirement Chinois.

Sur la photo, il y a un malaisien et un américain (américain mais dont les parents sont des chinois originaires de ROC - et non pas de PRC, tout comme la PDG d'AMD d'ailleurs).

Après oui, pour un Donald Trump qui lui ne fait ni dans le détail ni dans la nuance et ni dans la finesse aussi, c'est:

" que de l'asiat aux yeux bridés qui doit manger que du riz et tous les jours en plus... "

:mdr2:
votre avatar
Lip-Bu Tan est originaire d'une famille malaisienne elle-même d'origine chinoise, si j'en crois sa page Wikipedia.

Et oui, deux jaunes. L'orange risque de voir rouge.
votre avatar
Oui en effet. Il faut dire que la Malaysie est aussi un "pays" ou plutôt ville-Etat internationale assez multiethnique , ce qui se confirme en regardant n'importe quel panneau de signalisation : DANGER ou METRO

En suivant le même ordre que sur les panneaux: société que l'on peut diviser en 3 catégorie, 1/3 - 1/3 - 1/3 (en schématisant bien sûr):

1 - Les Chinois : ceux qui détiennent l'économie et font tourner le business.

2 - Les Malais: ceux qui détiennent le pouvoir: les élus, les juges, les fonctionnaires, etc,...

3 - Les Indiens: ceux à qui reviennent les taches les moins qualifiées, un peu similaire comme pour nos travailleurs immigrés dans l'Union Européenne.
votre avatar
Rockefeller aurait été si fier.
votre avatar
Ils ont découvert un gisement de pétrole en dessous à creuser ?
:ooo:
votre avatar
vu la politique tarifaire des deux sociétés, ça va pas bénéficier au consommateur ça ^^
votre avatar
Enfin depuis quelques années, Intel se la ramène quand même beaucoup moins et propose beaucoup plus de cores que simplement 4 pendant des années et des années.

Et sur leurs GPU, ils ont bien compris qu'ils étaient les derniers du trio,.et de loin, et donc avec des prix qui reflètent bien leur position de looser...

:fumer:
votre avatar
"Et sur leurs GPU, ils ont bien compris qu'ils étaient les derniers du trio,.et de loin"
Les GPU intel ont des avantages. Déjà leurs iGPU ne sont pas à la ramasse face à la majorité des iGPU AMD, et permettent de jouer confortablement. Ensuite, leurs iGPU et leurs GPU dans une bonne config permettent d'utiliser la RAM de l'ordi comme RAM du GPU, divisant le prix d'une machine dédié inférence IA par 5 à 10 par rapport à un équivalent équipé NVidia, pour des perfs inférieurs certes, mais tout à fait intéressantes.
Dans la même idée, ça permet d'avoir des machines pour tester les modèles IA de 70B plus rapides que les NVidia de 24 ou 32Go.

AMD a enfoncé le clou dernièrement avec sa gamme Ryzen AI qui fait pareil, mais en plus rapide. Allant de 2 à 5x plus vite qu'un équipement en NVidia qui n'aurait pas de quoi stocker le modèle en RAM vidéo.

Au final, cela met à portée beaucoup plus large les modèles de génération d'image et de vidéo.

Je pense que NVidia voit bien arriver le tournant de l'IA qui se déporte de l'apprentissage à l'inférence. Et dans ce domaine, Intel a eu pas mal de bonne idées avec des NPU il y a déjà des années.
Intel n'est pas si dépassé que cela, loin de là, ils n'ont juste jamais su réellement promouvoir leurs bonnes idées (comme Microsoft d'ailleurs), et les ont abandonnées une par une...
votre avatar
En fait cela fait une dizaine d’années que je n’ai pas acheté de GPU discret car je ne joue plus du tout (et j’étais plutôt Warcraft avant).

Toujours été assez anti INTEL, 386DX-40 AMD, du Cyrix166+, du K6-III, etc…

Et maintenant: Ryzen 2700G, et 5700G. ça convient très bien sauf avec MadVR, l’horreur, 2 options à cocher max , après c’est 100% sur GPU et on peut arrêter le film.

Intel@QuickSync par contre est vraiment le leader sur les 2 autres, 1er à avoir sortir l’encodage AV1 @Hardware et aussi toutes les frames I, P & B prises en compte sur le H264/H265 avec une qualité tout à fait correcte.

Avec du Topaz AI Video, Ryzen est totalement inutilisable (x30-50 fois plus lent qu’une RTX, 0.3fps / s => genre 24h pour 15min de vidéo) . Une Intel Arc A380 c’est beaucoup mieux mais apparemment toujours x3 fois plus lente qu’une RTX ou Radeon.

Pendant des années, Intel s'est bien reposé sur ses lauriers avec ses 4 cœurs seulement quand même ...

Un p'tit côté ArianeEspace. :mdr2: mais plutôt :pleure: :pleure: :pleure:
votre avatar
"Intel s'est bien reposé sur ses lauriers avec ses 4 cœurs seulement quand même"
Quand AMD a sorti les Ryzen bardés de coeur, je me suis demandé quand les logiciels deviendraient multi coeurs.
AMD a fait bouger les lignes, forçant Ms à revoir le scheduler de Windows. Du coup Intel a tenté carrément l'asymétrique...
Mais au final, pour 90% des ordis (bureautique et internet): 4 coeurs c'est ce qu'il faut en fait. Peu de softs sont encore multithreadés suffisamment dans la vie courante pour profiter réellement de plus. LEs gros effort smultithread sur Unreal Engine datent de peu.
16 coeurs et un ou 2 canaux mémoire, ça force à mettre énormément de cache pour voir la différence, c'est anti-batterie.


En pro, c'est pareil: les VM serveur sont encore souvent taillées avec 2 coeurs (pour que l'antivirus et l'EDR ne bloquent pas), ou 4 coeur,s rarement 8, plus souvent 1 coeurs que 8 d'ailleurs.
Même en BDD, pour 100 bases simultanées et autant d'utilisateurs minimum, j'ai déjà montré que 4 coeurs rapides étaient meilleurs de 8 coeurs sur des charges courtes.

J'ai un 6C/12T à la maison, à part sur la compilation ou l'IA, il s'ennuie franchement...
votre avatar
"Quand AMD a sorti les Ryzen bardés de cœur, je me suis demandé quand les logiciels deviendraient multi coeurs"

Au pire y'a toujours l'OS qui peut l'être comme depuis Windows NT 3.1 par exemple. Microsoft a du raffiner son scheduler depuis le milieu des années 90 aussi.

Ca permet déjà de lancer des appli (mono cœur mais CPU intensive) mais qui vont continuer à mouliner proprement en arrière plan avec chacun son p'tit cœur à soi...

On se console comme on peut :mdr2:

Sinon 100% d'accord avec toi. D'ailleurs oui, mon 2700G était suffisant (mais la pate thermique, elle, un jour, elle ne l'était plus... suffisante... mais trop tard. Comme lui d'ailleurs maintenant: il n'est plus... :pleure::D)

Windows Defender est super multhreadé quand on lance un scan manuel: durant une partie du scan, la température explose a un moment: 8C/16T @ 100%

Certains algo de compression ZIP sont aussi massivement multhreadés, ex: BZip2 .
votre avatar
Mais des mauvais GPU je suppose.

On n'aura certainement pas des CPU intégrant l'équivalent d'un xx90 avec 24 Go de VRAM.
votre avatar
Ou des CPU capables de partager leur RAM avec la CG sans passer par le CPU... Tout en permettant une synchro facile des flux.
Ou un nouveau standard de NPU.
votre avatar
Donc on a Intel qui vend des plaques de cuissons et Nvidia qui vend des radiateurs... avec l'association des deux, on va pas avoir froid les prochains hiver :) et c'est EDF qui va se frotter les mains !

Un peu plus sérieusement cela m'embête pour AMD qui risque de se retrouver dans une position assez fragile :(
votre avatar
Je sais pas.... Quand il y a un monopole hyper cher qui se construit, il reste de la place pour un challenger.
AMD certes est moins gros que les 2 autres mais il a aussi Xilinx dans son escarcelle, et il y a ptet une carte à jouer sur ce le mixage de ces domaines-là (CPU+GPU+FPGA) dans l'industrie.... En tous cas moi ça me parle plus que de rajouter des watts sur des GPU. (mais je suis sans doute plus vieux...)
votre avatar
Ces puces (Intel/NVidia) auront-elle un aussi bon support que celles d'AMD au sein du noyau Linux ?
Coté Intel, leur GPU ont toujours été bien supportés via des drivers libres, AMD aussi dans leurs APU.
Par contre, les specs NVidia sont fermées pour les GPU dédiés, qu'en sera-t-il pour ceux intégrés aux puces Intel ?
votre avatar
Pas de raison que ça change si c'est du nvidia ça restera fermé...
votre avatar
Bon, ben... je resterais sur de l'AMD pour mon prochain PC, parce que ... RAFIA*
* : Rien À Fou... de l'IA

NVIDIA investit 5 milliards dans Intel : bientôt des CPU avec un GPU RTX !

  • Des CPU Intel avec un GPU NVIDIA intégré

  • NVIDIA entre au capital d'Intel

Fermer