Connexion
Abonnez-vous

NVIDIA annonce ses GeForce RTX 50 dès 649 euros : « + 1 » et « x2 », en résumé

Oui, ça fait tourner Doom en 480p !

NVIDIA annonce ses GeForce RTX 50 dès 649 euros : « +1 » et « x2 », en résumé

C’était attendu : NVIDIA profite du CES de Las Vegas pour lancer sa nouvelle gamme de cartes graphiques RTX 50 (Blackwell). On retrouve quatre modèles pour les ordinateurs de bureau et quatre autres pour les portables. La disponibilité débutera le 30 janvier pour les RTX 5080 et 5090, puis continuera en février et mars… un nouveau cycle d’annonce débutera alors avec la GTC 2025.

Le 07 janvier à 13h26

Le fabricant a déjà présenté cette architecture Blackwell lors de sa GTC en mars 2024, avec son GPU B200 pour l’intelligence artificielle dans les datacenters. Les RTX de la série 50 utilisent une variante de Blackwell, comprenant 92 milliards de transistors contre 76 milliards pour le GPU des RTX 40 et 2x 104 milliards pour le B200. Ce dernier exploite pour rappel deux dies sur une même puce.

Tensor, Ray Tracing, PCIe, GDDR… : les RTX 50 font « + 1 »

Quoi qu’il en soit, quatre modèles de RTX 50 sont annoncés pour commencer : les RTX 5070, 5070 Ti, 5080 et 5090. Dans les grandes lignes, les générations des différentes technologies font « + 1 » par rapport à la série RTX 40.

Le fabricant propose un tableau récapitulatif sur cette page, avec la même chose pour les RTX des générations précédentes.

Suivant les modèles, le nombre de CUDA Cores varie entre 6 144 et 21 760, avec une fréquence en mode Boost de 2,41 à 2,62 GHz. NVIDIA insiste sur les performances de la GDDR7 capable de monter jusqu’à 1 792 Go/s sur la RTX 5090, contre 1 008 Go/s sur la RTX 4090 en GDDR6x. La sortie vidéo DisplayPort 2.1b UHBR20 permet d’avoir du 8K à 165 Hz.

Les nouvelles RTX 50 exploitent ainsi des Ray Tracing Cores de 4ᵉ génération, des Tensor Cores pour l’IA de 5ᵉ génération (avec prise en charge du FP4), le PCIe 5.0, un encodeur NVENC de 9ᵉ génération, un décodeur NVDEC de 6e génération, le DLSS 4, de la GDDR7, etc. Sur les RTX 40 nous avions des RT Cores de 3ᵉ génération, des Tensors Cores de 4ᵉ génération, du PCIe 4.0, etc.

Au sujet des Ray Tracing Cores de 4e génération, NVIDIA annonce « un taux d'intersection entre un rayon et un triangle deux fois supérieur à celui de la génération précédente et une compression améliorée afin de réduire l'empreinte mémoire ».

Voici DLSS 4 avec génération multi-images et Reflex 2

Un billet de blog dédié revient sur le fonctionnement et les performances de DLSS 4. Selon NVIDIA, cette version représente « la plus grande mise à niveau de ses modèles d'IA depuis la sortie de DLSS 2.0 en 2020 ». La génération multi-images avec DLSS (une exclusivité des RTX 50) « accélère la fréquence d’images en faisant appel à l’IA pour générer jusqu’à trois images par trame à afficher », explique NVIDIA

À titre d’exemple, NVIDIA affirme que sur la GeForce RTX 5090, « DLSS 4 avec Multi Frame Generation [génération multi-images dans la langue de Molière, ndlr] multiplie les performances par plus de 8X par rapport au rendu traditionnel dans cette scène Cyberpunk 2077 ».

NVIDIA en profite pour présenter Reflex 2 pour baisser la latence jusqu’à 75 %, contre 50 % avec Reflex de première génération, grâce à la technologie Frame Warp, « qui réduit encore davantage la latence en fonction du dernier clic de souris ».

Cette fonctionnalité arrivera prochainement, mais ne sera pas une exclusivité des RTX 50, on la retrouvera aussi sur les RTX 40, RTX 30 et RTX 20.


Alimentation requise de 650 à 1 000 watts

La consommation des GPU (Total Graphics Power) est de 575 watts pour la RTX 5090, 360 watts pour la RTX 5080, 300 watts pour la RTX 5070 Ti et enfin 250 watts pour la RTX 5070.

Côté alimentation, il faudra une puissance de 1 000 watts pour la RTX 5090 selon NVIDIA. On passe à 850 watts pour la RTX 5080, puis 750 watts pour la RTX 5070 Ti et enfin 650 watts pour la RTX 5070 de base.

Prévoyez quatre câbles d’alimentation PCIe à 8 broches ou un cable PCIe Gen 5 de 600 watts pour la RTX 5090, contre deux câbles 8 broches ou un PCIe Gen 5 de 300 watts pour les RTX 5070 Ti).

RTX 50 vs RTX 40 : les performances font « x2 »

NVIDIA annonce que sa GeForce RTX 5090 est « deux fois plus rapide que la GeForce RTX 4090 », une promesse que l’on retrouve aussi sur la RTX 5080 par rapport à la RTX 4080, ainsi que les RTX 5070 (Ti) vs les RTX 4070 (Ti).

Le fabricant propose de nombreux graphiques sur des tests maison par ici. Un rapide coup d’œil permet de se rendre compte qu’il ne faut pas prendre ces performances doublées comme une promesse formelle mais plutôt comme le cas de figure optimal.

Les RTX 5080 et 5090 seront disponibles le 30 janvier

Des Founders Edition (cartes maison de NVIDIA) seront proposées pour l’ensemble des versions, sauf la RTX 5070 Ti. La RTX 5090 est annoncée à 1 999 dollars ou 2 349 euros avec une disponibilité au 30 janvier, alors que la RTX 4090 était à 1 599 dollars (1 949 euros) lors de son lancement.

La version Founders Edition de la RTX 5090 mesure 304 x 137 mm et occupe deux emplacements PCIe (contre trois pour la RTX 4090). Elle est « SFF-Ready », SFF pour Small Form Factor. Cette certification a été lancée au Computex de l’année dernière et permet d’assurer une compatibilité entre des cartes graphiques et des boitiers SFF.

La RTX 5080 sera vendue 999 dollars ou 1 179 euros, à partir du 30 janvier également. Les dimensions de la Founders Edition sont les mêmes que celles de la RTX 5090, avec donc la certification SFF.

Il faudra attendre le mois de février pour les RTX 5070 et 5070 Ti, qui seront respectivement proposées à partir de 549 et 749 dollars, ou 649 et 884 euros selon le site français de NVIDIA. La RTX 5070 Founder Edition mesure 242 x 112 mm et occupe également deux emplacements.

Bien sûr, les nombreux partenaires de NVIDIA ne vont pas se priver de proposer des modèles maison avec des ventirads plus ou moins extravagants et de l’overclocking plus ou moins marqué. La valse des annonces a d’ailleurs déjà débutée. TechPowerUp reprend les communiqués des fabricants à ce sujet.

Quatre RTX 50 pour les ordinateurs portables en mars

Sur les ordinateurs portables, NVIDIA annonce aussi des RTX 50, et explique que sa technologie Max-Q profite de nouvelles fonctionnalités comme l’Advanced Power Gating, le Low Latency Sleep et l’Accelerated Frequency Switching qui « augmentent la durée de vie de la batterie jusqu'à 40 % par rapport à la génération précédente ».

On retrouve une RTX 5090 avec 10 496 CUDA Cores et une puissance de calcul de 1 824 TOPS pour l’IA, avec 24 Go de GDDR7. Avec la RTX 5080 on passe à respectivement 7 680 CUDA cores, 1 334 TOPS et 16 Go de GDDR7.

Deux GeForce RTX 5070 complètent là aussi la gamme. La RTX 5070 Ti avec 5 888 CUDA cores, 992 TOPS, et 12 Go de GDDR7 ainsi que la RTX 5070 avec 4 608 CUDA cores, 798 TOPS et 8 Go de GDDR7. Il faudra faire attention aux fréquences qui varient suivant les modèles d’ordinateur portable et des performances de son système de refroidissement.

Toutes les puces mobiles de la série RTX 50 seront disponibles en mars.

Commentaires (41)

votre avatar
D'après Frandroid, la RTX 5070 rivalise avec la 4090, et si ça se confirme alors je suis bluffé :eeek2:

Une 4090 pour le prix d'une 5070, c'est une affaire très intéressante :8
votre avatar
Il semblerait que c'est ce qui a été annoncé. :)
votre avatar
Perso j'y crois pas trop, c'est uniquement dans des conditions bien spécifiques avec frame generation.
Les perf sont toujours au top sur les powerpoint de présentation.
Reste aussi à voir le vrai prix de vente sur le marché, ça fait longtemps qu'on a pas vu de cartes aux prix annoncé.
votre avatar
Si la 5070 rivalise avec la 4090 comme la 4090 était 2 à 4x plus performante que la 3090... :dd:
votre avatar
La vérité c'est plutôt 10-15% de perf en plus comparé à chaque segment (donc la 4090 reste au moins au-dessus de 20% par rapport à la 5070), le reste c'est du software (Frame generation) qu'ils ne vont proposer que sur la série 5x même si techniquement elle fonctionnerait aussi sur les 4x...
votre avatar
Avec uniquement un Ryzen 9 9900X3D ou un Ryzen 9 9950X3D
votre avatar
1000 W ! ... faut refaire sa config (alim, refroidissement ...)

Et pis comme d'hab', il va falloir s'attendre à du DLSS4 que pour les RTX50, maintenu que pendant quelques années, compatible qu'avec Windows, etc ... et tout ça pour 400€ de plus. Mais à plus de 2000€ le bout, finalement, ça ne fait que 20% d'augmentation.
:mdr2:
votre avatar
Le DLSS est découpé en plusieurs parties : l'anti aliasing (DLAA) ; l'upscaling ; la reconstruction de rayon ; la génération d'images double et la génération d'images x3x4. Les trois premiers sont disponibles et mis à jour depuis les RTX 20 sans problème et continueront à l'être.

C'est uniquement la génération d'images double qui est exclue avec les RTX 40 et maintenant la génération d'images x3x4 qui l'est avec les RTX 50. Il y a une image dans l'article qui résume bien.

Pour le coup ce que fait Nvidia avec le DLSS depuis le début est plutôt honnête, mais le nom donné aux versions est trompeur et fait penser à de nombreuses personnes que le DLSS 2 est pour les 20-30 ; le DLSS 3 pour les 40 et maintenant le DLSS 4 pour les 50. C'est juste une fonction qui s'ajoute à chaque génération tout en continuant à améliorer les autres fonctions pour tout le monde.
votre avatar
Ok, tu confirmes.
votre avatar
Alimentation de 1000W ? C'est démentiel.
votre avatar
C'est pourtant ce qu'il faut déjà pour une 4090 si l'on veut éviter que les courts pics de consommation ne fassent tomber une alim de même 850 W, peu importe si le reste des composants faisait que ça passe.
votre avatar
Ça n'en reste pas moins démentiel...
votre avatar
Je vois qu'il est écrit "Recommended System Power" de 1000W mais comme l'écrit TheKillerOfComputer, les pics de consommation au démarrage des cartes graphiques vont jusqu'à x3 par rapport à la consommation max en temps normal.

Puissance à laquelle il faut rajouter celle du CPU (compter 500W maximum). Rajouter quelques Watts pour les ventilos, LED, pompe à eau (si applicable), le facteur d'efficacité de l'alim + un petit coefficient de sécurité. On va y arriver à l'alim de 2000 W. Je vais pouvoir retirer le radiateur de mon bureau.
votre avatar
J'ai jamais eu de souci sur mon PC qui n'a "que" une alim de 850W, alors que j'ai une RTX4090 et un 5950X dedans 🤷‍♂️.
Il faut croire qu'une alim de qualité n'aura pas de souci même lors d'un pic.
votre avatar
Je me rappelle qu'à l'époque du SLI, dans les années 2010, on parlait déjà de configs gaming avec des alims à 1000W.

Cela me laisse à penser que la courbe perf/puissance est quand même plus efficiente de nos jours.
votre avatar
Ca reste hyper cher pour mon pauvre usage.
A quand une gamme 200$-300$ du genre Intel Arc Battlemage...
votre avatar
Suffit d'augmenter ton usage :fume:
votre avatar
Marché de l'occasion. A ce stade on n'a plus que ça :/

Et le Battlemage est une déception. Il faut le meilleur CPU gaming actuel (9800X3D) pour espérer l'utiliser à pleine puissance. En deça, les FPS tombent si vite qu'il se retrouve à la ramasse contre une 4060 ou une 7600 qui lui seront préférables, surtout vu les prix en Europe où il est plus cher que les deux derniers.
votre avatar
Ben, autant prendre la Battlemage direct, si c'est ce que tu cherches ?
votre avatar
Je dis Battlemage pour dire "milieu de gamme".
Bref de quoi faire tourner un jeu récent en mode "joli" mais seulement en 1080p@60hz.

J'ai l'impression que ce milieu de gamme n'existe plus. Si tu veux les dernières nouveautés en terme de rendu graphique, c'est forcément un monstre pour le faire en 4K@240hz
votre avatar
En même temps les « vrais gamers » ©® considèrent que le 1080p n'existe plus, et ne parlons pas de jouer en 60hz. Or ces « vrais gamers » ©® sont extrémement cons prêts à payer une fortune pour un ordi, donc c'est à eux que les constructeurs s'adressent maintenant.

Intel est limite une anomalie... encore que, car ils ont prôné le 1440p pour leur Battlemage montrant même des scores parfois supérieurs à ce qu'il fait en 1080p à la surprise des testeurs. Certaines langues diront qu'ils savaient pour le problème avec les CPU moyen/bas de gamme et c'est pourquoi ils prônaient cette résolution, mais je n'ai pas vu de tests qui aurait vérifié cette idée.
votre avatar
ce n'est pas le segment visé par nvidia donc jamais de la vie.
les pauvres vont chez amd
votre avatar
Euh non les pauvres ils achètent une alim pas chère pour pouvoir garder de quoi prendre un GPU Nvidia, comme d'habitude :non:
votre avatar
J'ai connu ça quand j'ai bossé en assembleur, à un temps que les moins de vingt ans ne peuvent pas connaître.

La CG Nvidia ou ATI moyenne/haute gamme à 3 ou 400€, la carte mère Asus premium à 100€, 1GB, voire 2 ( :eeek2: ) de RAM. Et un boîtier noname à 50€, alim inclus. Et quand tu préviens "attention l'alim va pas tenir" tu as juste "ouais mais c'est trop cher".

Et un mois après, il revient avec la CG qui a cramé.
votre avatar
Pour le sous-titre : :dix:
votre avatar
nVidia ... vous aide à lutter contre le changement climatique ...
votre avatar
Toujours 16 Go de VRAM, alors qu'ils sont déjà atteints par plein de jeux sur la 4080, est du pur foutage de poire envers ses clients.
Je passe mon tour.
votre avatar
Espérais-tu 24 Go ?

Nvidia a bien compris la leçon de la 1080 TI et ses 11 Go bien trop tôt. Jensen doit encore faire des cauchemars chaque nuit où il voit des joueurs lui dire qu'ils n'ont toujours pas envie d'acheter une 30XX ou 40XX car leur 1080 TI est encore très bon pour leurs jeux.

Il ne recommencera jamais cette erreur, donc... sors ton portefeuille.
votre avatar
quel jeux utilisent autant de vram ? perso j'ai jamais dépassé 12go et pourtant je joue en 4k@120fps
votre avatar
Plein de jeux ?? Lesquels par exemple ? Il me semblait qu'en 4K on était large avec 16Go.
votre avatar
Probablement CoD optimisé avec le cul.
votre avatar
570W TDP dans une carte aussi fine (2 slots) :ooo:
votre avatar
oui c'est un tout nouveau design de grille pain :mdr
blague à part ils ont mis une chambre à vapeur et les 2 ventilos serait en traversant le PCB est ultra petit d'après la vue en coupe
votre avatar
Cette image vue hier sur Mastodon était de circonstance.
votre avatar
pas vraiment vu qu'elle fait que 2 slots et est SFF ready donc rentre dans des mini PC
votre avatar
Bon, je pense que je vais craquer pour la 5080 :p (bon et changer mon alim aussi du coup :D)

Enfin, si c'est possible d'avoir une version Foundation, car en général, elles partent en 30 secondes, et les versions constructeurs sont 50% plus chère -_-
votre avatar
À l'heure de l'électricité toujours plus chère, ils trouvent le moyen de faire encore plus énergivore... :roll:

Perso, je me suis engagé dans l'exacte inverse : baisser la conso de tout mon matos info, rationaliser le nombre d'appareils... quand tu as des factures de 200 balles et + en fin de mois, ça commence à piquer sévère :craint:

Ça fait 10 ans que j'ai une alim de 600W et j'adapte en fonction mes composants pour pas dépasser quitte à sacrifier certains aspects.
votre avatar
Il faut voir la différence entre deux cartes (cf flyer Nvidia entre la 3060 et 4060, les 60 W de moins offriraient 60 € de différence sur 4 ans aux USA à 0,23$/kW (en France on est à 0,25€, similaire). Il y a des testeurs reconnus qui n'hésitent plus à dire que le surcoût électrique n'est pas un facteur à prendre en considération dans le choix d'un GPU.

Ce qui n'empêche pas de vouloir baisser :yes: Mais dans ce cas il faut surtout voir si c'est une carte OC d'usine ou non, et les remontées d'utilisateurs sur un possible undervolt. Une 3080 qui serait OC d'usine tournant à 330/350 W peut être abaissé à 260/270 W, etc.

A ce stade je n'attends plus d'optimisation de la part des constructeurs, il va falloir s'habituer aux ± 300 W, que l'on tentera de compenser par undervolt.
votre avatar
Je suis d'accord avec toi sur le fond, mais dans la réalité, une CG qui consomme 100W de plus pendant 2h de gaming par jour 7j/7, c'est imperceptible sur la facture à la fin de l'année. (calcul de tête: environ 8€ sur l'année).

Et en plus, il faut considérer que ce surcout est gratuit l'hiver, car 99,99% de chaque W consommé par la CG est rejeté en chaleur, et donc diminue d'autant le nombre de W nécessaire à ton chauffage pour te chauffer.
Donc au final, le surcout est plutôt de 4,5€ à l'année pour 2h de gaming 7j/7 avec GPU à 100%.
votre avatar
Les gens font toujours la même erreur. La conso max possible augmente, mais les perfs par watt augmentent aussi, donc à perf égale, plus ça va, moins on consomme.
Limiter les FPS aura bien plus d'inpact sur la conso. Du moment que tu capes au taux de rafraichissement de ton écran (voire plus bas si ton écran a un taux très élevé, pas besoin de 240 fps dans l'immense majorité des cas), et que 2 cartes NVIDIA de générations différentes atteignent ce framerate à la même résolution, alors la plus récente consommera généralement moins.

Pour un usage "normal" (aka pas de minage ou IA), il faut aussi tenir compte de la consommation en idle, parce qu'au final, une carte qui consomme moins en charge, mais 2 fois plus en idle, coutera plus cher en électricité à la fin si on ne joue pas 10h/jour. Et là pour le coup c'est plus aléatoire et rester sur une ancienne carte peut être plus rentable.

Et il y a plein d'autres facteurs qui jouent. La gourmandise du jeu, le pourcentage d'occupation GPU, la config du GPU (par exemple ma 3090 underclockée consomme et chauffe beaucoup moins, -80W, plus de coil wine, et +5% de perfs, oui c'est contre intuitif mais c'est comme ça que fonctionne cette gen, et au passage, jamais dépassé 550W en benchmark et moins en jeu avec 3090 underclockée + i5 13600K@stock)...

Sur le plan purement financier, il y a l'option Tempo d'EDF à considérer, le kWh peut être aussi "bas" que 13 cts, et max 19 cts en dehors des heures pleines des 22 jours rouges (donc faut éviter le chauffage électrique à ce moment là).

Et au final, c'est se prendre la tête pour pas grand chose, la différence au bout du bout n'ira jamais chercher bien loin, à moins de jouer à des jeux super gourmands 12h tous les jours rouge Tempo (75 cts/kWh :)). Vaut mieux bien choisir son frigo et sa TV, les économies seront plus franches.
votre avatar
Heureusement que j'ai une RX 7900XT Pulse ... (bridée par mon CPU actuel, et l'alimentation un peu légère aussi)

NVIDIA annonce ses GeForce RTX 50 dès 649 euros : « + 1 » et « x2 », en résumé

  • Tensor, Ray Tracing, PCIe, GDDR… : les RTX 50 font « + 1 »

  • Voici DLSS 4 avec génération multi-images et Reflex 2


  • Alimentation requise de 650 à 1 000 watts

  • RTX 50 vs RTX 40 : les performances font « x2 »

  • Les RTX 5080 et 5090 seront disponibles le 30 janvier

  • Quatre RTX 50 pour les ordinateurs portables en mars

Fermer