GeForce Ultimate : l'annonce dans trois semaines

GeForce Ultimate : l’annonce dans trois semaines

Un tweet publié le jour de la v7. Coïncidence ?

Avatar de l'auteur
David Legrand

Publié dans

Hardware

11/08/2020 3 minutes
46

GeForce Ultimate : l'annonce dans trois semaines

La rentrée approche à grands pas. Les constructeurs préparent leurs grandes annonces de fin d'année. Alors que Raja Koduri d'Intel doit prendre la parole ce jeudi, NVIDIA vient d'officialiser son calendrier : la société évoquera ses nouvelles GeForce dans moins de trois semaines.

Ce sont seulement trois petits points qui accompagnent la vidéo mystique publiée par NVIDIA hier à 15h sur Twitter. L'important était ailleurs dans la bannière de l'entreprise. On y découvrait deux informations : une annonce dans trois semaines, avec une date anniversaire (21 ans).

Les 21 ans de la GeForce 256

Pour rappel, c'est en effet le 31 août 1999 que la GeForce 256 avait été dévoilée avant d'être mise sur le marché quelques semaines plus tard. Celle qui a longtemps été présentée comme le « premier GPU au monde » – un acronyme nouveau à l'époque (mais que NVIDIA n'a pas inventé) – n'était que le début d'une grande aventure.

Mais ce n'est que le lendemain, le 1er septembre à 18h, que le PDG Jen Hsun Huang prendra finalement la parole. Une page dédiée avec un décompte ont été mis en ligne.

GeForce Ultimate

Il y a quelques semaines, l'entreprise a mis sur le marché sa puce A100 (Ampere), spécialisée dans le calcul et l'IA et adaptées aux centres de données et autres stations de travail plutôt que le rendu 3D. Ce n'est donc pas tant une carte graphique qu'un accélérateur pensé pour le calcul hautes performances et la virtualisation.

De nouvelles cartes graphiques encore mystérieuses

Si les produits dévoilés à la fin du mois partageront sans doute quelques similitudes avec cette puce, ça n'en sera pas de simples versions allégées pour autant.

D'ailleurs, personne ne semble réellement d'accord sur ce que seront les prochaines GeForce, NVIDIA ayant (presque) réussi à garder la majorité de ses secrets sous clé. Il faudra donc attendre un peu pour les découvrir dans leur ensemble, de prochains teasing seront d'ailleurs sans doute organisés.

Ces cartes graphiques feront-elles honneur à leur ancêtre ? Seront-elles aussi mises en vente d'ici le mois d'octobre et pas avant ? S'agira-t-il de puces Ampere ? De RTX de série 30 ? Leur GPU sera-t-il gravé en 7 nm et contiendra 5 376 CUDA cores alors que 5 + 3 + 7 + 6 = 21 et que 21 x 256 = 5 376 ? À quelle fréquence et avec quelle quantité de mémoire accessible pour les applications ? Qui sait...

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Les 21 ans de la GeForce 256

De nouvelles cartes graphiques encore mystérieuses

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Fermer

Commentaires (46)


Le bon temps des parties de Half life sur Riva TNT commence à se faire loin quand même :)


Je sens surtout qu’elles vont avoir un tarif indécent…



tiret a dit:





On verra (parce qu’une politique tarifaire ça ne se sent pas, ça se lit sur une grille de tarif :D). La question c’est quel sera le perf/€ par rapport aux gammes actuelles.


Un bundle avec nouvelle CG + Cyberpunk ? :iloveyou:


“La rentrée approche à grands pas.”



Tu te calmes s’il te plait !



David_L a dit:





C’est vrai - d’un autre côté je pense garder ma 2070 Super encore un moment.


A100 Ampère ? C’est sans doute la puissance consommée de la carte :transpi: Et après Ultimate, ils vont inventer quoi ? :D


Cette année il y aura de la concurrence d’AMD, qui devrait être crédible je suppose puisque c’est proche de ce qu’il y aura sur les prochaines consoles. Je suis un peu moins inquiet à propos du prix, fût-ce suite à une baisse précipitée quelques jours après la sorties des RDNA2 ou plus tard de ce que Intel prépare.



(quote:48649:Aristide Rutilant)
Cette année il y aura de la concurrence d’AMD, qui devrait être crédible je suppose puisque c’est proche de ce qu’il y aura sur les prochaines consoles. Je suis un peu moins inquiet à propos du prix, fût-ce suite à une baisse précipitée quelques jours après la sorties des RDNA2 ou plus tard de ce que Intel prépare.




De ce que j’ai lu, les rumeurs disait au contraire que les consoles auront une puissance plus proche d’une haut de gamme actuel (2080/2080Ti), ce qui devrait correspondre à une XX60 (RTX3060 ?) de la prochaine génération. Et comme dit dans d’autres articles, la force de NVidia, c’est qu’il ne se limite pas à fournir du hardware, mais il faut pas mal de software et dépense pas mal dans la promo de leur techno (DLSS/DLSS2, RTX, PhysX…)



Il me semble qu’Intel avait officiellement annoncer que dans un premier temps, il ne se concentrerait pas sur le haut de gamme. Et pour l’instant, on a vraiment trop peu d’information, on ne sais pas du tout ce que ça vaut (certain rumeur parle de proto pas terrible).



Donc, je pense que NVidia est encore tranquille sur le haut de gamme cette année.



(quote:48649:Aristide Rutilant)
Cette année il y aura de la concurrence d’AMD, qui devrait être crédible je suppose puisque c’est proche de ce qu’il y aura sur les prochaines consoles. Je suis un peu moins inquiet à propos du prix, fût-ce suite à une baisse précipitée quelques jours après la sorties des RDNA2 ou plus tard de ce que Intel prépare.




Concurrence ou pas, ça n’empêche pas Nvidia de dire que sa carte est 50% plus puissante que la génération précédente et que c’est un cadeau qu’elle ne soit que 25% plus chère :D


Ces cartes graphiques feront-elles honneur à leur ancêtre ? Seront-elles aussi mises en vente d’ici le mois d’octobre et pas avant ? S’agira-t-il de puces Ampere ? De RTX de série 30 ? Leur GPU sera-t-il gravé en 7 nm et contiendra 5 376 CUDA cores alors que 5 + 3 + 7 + 6 = 21 et que 21 x 256 = 5 376 ? À quelle fréquence et avec quelle quantité de mémoire accessible pour les applications ? Qui sait…



Je pense que là; il y a déjà pas mal d’infos…
https://youtu.be/nXeq2_P_O50



grospoulpe a dit:





Oui pas mal de trucs circulent. Mais nvidia reste le roi de l’intox pré-lancement et le bal des rumeurs en mode « tout et son contraire » l’a encore bien montré.



Les rumeurs n’existent que pour générer artificiellement de l’audience sur du vent (la plupart du temps), YouTube amplifiant le phénomène. Ce n’est pas un « jeu » qui nous intéresse.


On verra bien d’ici trois semaines (à priori) - et on pourra toujours comparer ce qu’il dit sur cette vidéo, et ce que NVidia va annoncer (sachant que, toujours d’après cette vidéo, Nvidia va chercher à garder sa “couronne” avec la future, ou les futures 3080) - et Moore’s Law Is Dead semble plutôt bien renseigné…


Je sait pas si c’est que moi, mais j’ai toujours l’impression qu’à chaque nouvelle génération de cartes graphiques, tout le monde se met à croire au rumeurs et pensent que l’entrée de gamme va se mettre à battre l’haut de gamme de la génération précédente pour 2x moins chère.



Et lorsque les cartes sortent, on se retrouve avec une petite amélioration de perf (15-20%), mais au mieux le prix reste le même voir augmente (par exemple, 1080ti vs 2080ti) ce qui fait que niveau perf/prix, bah le haut de gamme c’est pas vraiment mieux (manque de concurrence probablement)



Moi j’paris plus sur très peu d’amélioration a un même niveau de prix si la compétition reste la même qu’elle ait été entre RTX et RX. Après j’espère avoir complètement tord et que la rumeur d’un AMD qui reviendrais concurrencer sur le très haut de gamme soit vrai afin d’enfin pousser a une situation similaire avec les I7 et les ryzen, mais je crois pas trop que a soit aussi inpactant avec NVidia qui font quand même de très bon produit.


Il fut un temps ou gap de performances ne signifiait pas automatiquement gap de prix. nVidia ferait bien de s’en rappeler car ça m’étonnerait qu’ils réussissent à attirer les possesseurs de la gen 20XX sur la gen 30XX si le prix grimpe encore de 25%



Quant à ceux (nombreux) qui ont encore la 1080 ti, pas sûr qu’ils apprécient de payer 400-500€ de plus à dénomination équivalente dans la gamme.



Ca devient vraiment un luxe de jouer sur pc.



grospoulpe a dit:


Et Moore’s Law Is Dead semble plutôt bien renseigné…




Les horloges cassées donnent la bonne heure deux fois par jour. Les rumeurs c’est pareil : parfois c’est vrai, parfois non, in fine on en revient au même, on verra au lancement ;)



Pour le “Nvidia va chercher à garder sa “couronne” avec la future, ou les futures 3080”, je pense qu’on peut même dire, sans trop se tromper, que ce sera également leur objectif avec la génération suivante.




Paraplegix a dit:


Et lorsque les cartes sortent, on se retrouve avec une petite amélioration de perf (15-20%), mais au mieux le prix reste le même voir augmente (par exemple, 1080ti vs 2080ti) ce qui fait que niveau perf/prix, bah le haut de gamme c’est pas vraiment mieux (manque de concurrence probablement)




C’est assez faux, mais ça dépend toujours d’où tu regardes. Déjà comparer 1080 Ti et 2080 Ti sur leur référence n’a pas de sens, je l’ai déjà dit en long, large et travers, c’était une astuce de NV qui n’a pas d’intérêt. Pour l’efficacité de l’architecture, Turing est un vrai gap par rapport à Pascal. Il suffit de regarder les performances d’un haut de gamme pas trop vieux type 980 Ti et comment il se place dans la gamme Series 20…



C’est vrai en 3D, mais aussi sur les aspects annexes comme RT et Tensor. Les joueurs s’en moquent pour une bonne partie, mais côté pro ça a pas mal changé la donne ailleurs. Le perf/€ c’est autre chose, ça dépend d’une stratégie commerciale et d’un contexte concurrentiel. Mais même là, le rapport s’est amélioré depuis Turing.



Par contre la gamme de prix d’une carte s’est étendue. Mais c’est aussi le cas sur les CPU, pour une raison simple : l’effacement de certaines limites entre le marché grand public et pro. C’est ce qui explique les Core (X) i9, Ryzen 9, Threadripper, etc.



Après certains prennent un 10900K/3950X et une 2080 Ti pour jouer, mais ce n’est pas trop l’objectif premier de ces produits en réalité, même s’ils trouvent un public. Puis tout ne se joue pas sur hardware pur. Sur le gaming, on voit l’intérêt des solutions de type DLSS en pratique, et ça va sans doute aller en s’accélérant.



Paraplegix a dit:




si tu regardes l’évolution des modèles de chez NVidia, on avait souvent les perfs d’une x80 supérieures de 10-15% à la (x-1)80ti. ça s’est vu lors du passage 980ti -> 1080
et, il me semble que ce fut la même chose avec les 780ti -> 980



Le truc, c’est qu’AMD n’a pas été super compétitif sur les Fury, puis les Vega (la Vega 64 est en dessous d’une 1080, il me semble), puis la 2080 est toujours au dessus de la 5700XT (mais très peu de gain par rapport à la 1080ti) .



Et NVidia semble vouloir garder cette logique (soit: la 3080, plus performante que la 2080ti, sans parler du bon en RTX + DLSS 3.0)



Et d’un autre (ce n’est plus trop de la rumeur), on a AMD qui nomme leur Navi en 1x, puis 2x, puis 3x, histoire de monter qu’ils reviennent dans la course (donc: 5700XT Navi 1x, Big Navi ou je ne sais quelle nom de carte 6700XT ? 6800XT? devrait (en rasterization) être 2x plus puissantes que la 5700XT… etc…



Donc, avec tout ça, avec ce renouveau de la concurrence au niveau GPU, les années qui viennent côté AMD/NVidia semblent prometteuse (Sachant qu’AMD - suffit de chercher les “annonces” de Lisa Su - compte bien revenir dans la courses) Et si cette année, ils commence à coller à NVidia, c’est déjà un bon début, non?



grospoulpe a dit:





Attention à la touche Entrée ;)


Merci David, pour l’édition de mon commentaire (j’ai un peu abusé de la touche Entrée, et au final, tout le commentaire s’est trouvé en vrac :p)



lerris a dit:


Un bundle avec nouvelle CG + Cyberpunk ? :iloveyou:




Moi c’est le bundle PS5 + Cyberpunk que j’attends.



(quote:48666:john san)
Moi c’est le bundle PS5 + Cyberpunk que j’attends.




Moi j’attends INpact Hardware full intégré à la V7 et Harou en cuir-moustache(s) :oops:


“Pour rappel, c’est en effet le 31 août 1999 que la GeForce 256 avait été dévoilée avant d’être mise sur le marché quelques semaines plus tard.”



Sans vouloir jouer le pénible de service, si l’histoire se répète, il sera urgent d’attendre la version “ddr” qui était arrivée (de mémoire) peu de temps après la version sdr, et qui révélait les perfs réelles de cette architecture.



Oui, je pinaille, pas pu m’en empêcher ;)



Il n’empêche que toute considération technique mise à part sur cette nouvelle gamme, je suis littéralement sidéré quand je pense à la courbe des prix des GPU, depuis leur apparition dans les années 2000.



Je ne sais pas si le fait d’avoir une vraie concurrence jouerait de manière aussi épatante que ce qui s’est passé avec Intel lorsque AMD a sortir son Ryzen, mais le quasi monopole de nvidia sur les GPU est réellement problématique pour le consommateur qui doit lâcher une somme considérable pour une carte dite “milieu de gamme”.


Visiblement l’annonce serait plutôt pour le 1 septembre si on en croit ce compte à rebours



https://www.nvidia.com/fr-fr/geforce/special-event/?cjevent=050247b5dbdf11ea80b5004c0a180514


Oui on a reçu l’annonce l’article a été mis à jour en ce sens :chinois:



tazvld a dit:


De ce que j’ai lu, les rumeurs disait au contraire que les consoles auront une puissance plus proche d’une haut de gamme actuel (2080/2080Ti), ce qui devrait correspondre à une XX60 (RTX3060 ?) de la prochaine génération. Et comme dit dans d’autres articles, la force de NVidia, c’est qu’il ne se limite pas à fournir du hardware, mais il faut pas mal de software et dépense pas mal dans la promo de leur techno (DLSS/DLSS2, RTX, PhysX…)Il me semble qu’Intel avait officiellement annoncer que dans un premier temps, il ne se concentrerait pas sur le haut de gamme. Et pour l’instant, on a vraiment trop peu d’information, on ne sais pas du tout ce que ça vaut (certain rumeur parle de proto pas terrible).Donc, je pense que NVidia est encore tranquille sur le haut de gamme cette année.




On sait qu’il y aura des nouvelles Xbox et la PS5, mais AMD ne fournit pas que des puces customisés pour les consoles, AMD va sortir aussi des GPUs Navi 2x avant la fin de l’année. Il y a pas mal de produits en préparation chez AMD entre Zen3, Navi 2x, les puces CDNA, des évolutions des APU Renoir et des nouveaux APU puis AMD travaille aussi sur ZEN4



xillibit a dit:





Oui enfin si on voit Navi 2X ce sera déjà pas mal. Zen 3 ils vont sans doute sortir du bois, mais il faudra voir si le lancement commercial est pour 2020, j’ai encore pas mal de doutes à ce sujet (comme à peu près 100% de leurs partenaires que j’interroge là dessus), et AMD ne parle que d’un lancement, rien de plus (donc des annonces).



CDNA c’est du pro, donc lancer n’oblige pas à livrer dans la foulée (et il y a assez peu d’enthousiasme sur le sujet). Renoir, on va attendre qu’il ne soit plus que pour les OEM (et les nouveaux APU ce sera pour bien après).



Côté GPU, une partie du match va être entre Intel et NV sur certains segments. AMD va faire l’arbitre sur le grand public, mais amha ils auront encore du retard (mais comme ils ne visent que le joueur/prix ça peut suffire s’ils ne foirent pas le lancement).


Les partenaires d’AMD (pour la partie Navi 2x) ont peut-être “les boules” qu’AMD vendra directement ses cartes (comme les Titan X chez Nividia), car AMD veut éviter toute fuites. (puis ça sera leur tour quelques mois après, soit début 2021?)



Les cartes Navi 2x seraient disponibles courant octobre (le 7 disent certains), en même temps que la disponibilité effective côté NVidia.



En tout cas, AMD semble faire le forcing pour que ZEN 3 / Navi 2x sortent avant les PS5 / XBox serie X, soit le 20 novembre, selon certaines rumeur (J+1 de la sortie de… Cyberpunk 2077).



Perso, avec tout ce que j’ai vu passé, AMD devrait le faire (merci TSMC, au passage)



grospoulpe a dit:


Les partenaires d’AMD (pour la partie Navi 2x) ont peut-être “les boules” qu’AMD vendra directement ses cartes (comme les Titan X chez Nividia), car AMD veut éviter toute fuites.




Tu entends quoi par là ? AMD n’a pas le canal pour le faire commercialement (sans parler du SAV & co), notamment en Europe. Au pire ils vendent de la carte sous leur nom via les revendeur plutôt que Sapphire (mais bon ça restera eu à l’usine :D).



Pour Zen 3 disponible en octobre, il n’y à peu près aucune chance amha. Comme dit plus haut, écouter les rumeurs c’est bien, mais comme c’est à 90% du gros n’importe quoi, il faut savoir faire la part des choses.



Après Navi 2X début octobre pourquoi pas (ça me parait juste commercialement, mais bon, on verra bien). Dans tous les cas ils ne peuvent pas prendre plus de retard, Navie était déjà à la bourre sur Turing, Big chip aurait déjà du arriver plus tôt, là ils arrivent en face de la nouvelle génération de chez NV, ils vont devoir presser sur les prix pour assurer.



D’autant que le discours DLSS/RTX va prendre une autre dimension, notamment avec DX12U, les consoles, etc. Ce ne sera plus possible de dire “osef, regardez il suffit de faire trois effets de lumière et c’est pareil”. Sans parler du marché Pro.


C’est ce que dit, pour la disponibilité “Holiday season” (donc: Thanks Giving, ou autour de ça), David Kumar, de chez AMD (2 juin dernier)



https://youtu.be/fLKqkyYw2wo?t=12



https://youtu.be/fLKqkyYw2wo?t=18



Et Big Navi arriverait avant les consoles (confirmé par AMD, pas une rumeur):



https://youtu.be/fLKqkyYw2wo?t=36



En tout cas, c’est l’objectif qu’AMD avait en juin.



EDIT: c’est ce qu’appelerait AMD: “show of Strength” pour le 4ème trimestre 2020



grospoulpe a dit:





Oui les objectifs tournaient toujours autour de novembre (holiday season c’est toujours ça). Après comme dit, attention : il faut différencier quand ce sera annoncé de quand ce sera dispo, surtout qu’AMD est bien placé sur les lancements en 10x. AMD ne parle jamais de la disponibilité commerciale en avance de phase (personne ne le fait tant que tout n’est pas dans le pipe commercial)



Pat_Hator a dit:


“Pour rappel, c’est en effet le 31 août 1999 que la GeForce 256 avait été dévoilée avant d’être mise sur le marché quelques semaines plus tard.“Sans vouloir jouer le pénible de service, si l’histoire se répète, il sera urgent d’attendre la version “ddr” qui était arrivée (de mémoire) peu de temps après la version sdr, et qui révélait les perfs réelles de cette architecture.Oui, je pinaille, pas pu m’en empêcher ;)Il n’empêche que toute considération technique mise à part sur cette nouvelle gamme, je suis littéralement sidéré quand je pense à la courbe des prix des GPU, depuis leur apparition dans les années 2000.Je ne sais pas si le fait d’avoir une vraie concurrence jouerait de manière aussi épatante que ce qui s’est passé avec Intel lorsque AMD a sortir son Ryzen, mais le quasi monopole de nvidia sur les GPU est réellement problématique pour le consommateur qui doit lâcher une somme considérable pour une carte dite “milieu de gamme”.




Il faut peut-être relativiser cette augmentation des prix avec la capacité relative des puces actuels. Aujourd’hui, un GPU, c’est une bête de puissance même une carte graphique milieu de gamme.
Après, NVidia se fait plaiz, mais je ne pense pas que ce soit autant que tu le crois.




xillibit a dit:


On sait qu’il y aura des nouvelles Xbox et la PS5, mais AMD ne fournit pas que des puces customisés pour les consoles, AMD va sortir aussi des GPUs Navi 2x avant la fin de l’année. Il y a pas mal de produits en préparation chez AMD entre Zen3, Navi 2x, les puces CDNA, des évolutions des APU Renoir et des nouveaux APU puis AMD travaille aussi sur ZEN4




Il va falloir poser de sacré avancer pour titiller NVidia sur les haut de gamme. Parce que comme l’a dit David, ce n’est pas avec 2 shader que tu vas réussir à concurrencer DLSS et RTX par exemple. Ce genre de techno est un mixte de matériel (tensorcore et RTcore) et de solution logiciel, sans compter la R&D derrière. Contrairement à Intel, NVidia ne s’est pas reposé sur ses lauriers une fois la position de leader obtenue. Ce qui fait une force de NVidia, c’est qu’en parallèle à la conception de nouveau matériel et à l’innovation, il produisent des bibliothèques et vont directement aller voir les pro pour qu’ils intègrent leur bibliothèque dans leur produits.



En gros, NVidia à 3 pas d’avance sur ATI/AMD : un pas matériel, un pas logiciel et un pas intégration et marketing.



Sinon, je rejoins encore David, dans le grand public à priori Intel va garder son secteur bas de gamme sur cette génération, NVidia va garder le haut de gamme et être seul sur le très haut de gamme, Et le moyen de gamme ça sera un mixte de 3 avec l’arrivé d’Intel qui pourrait peut-être convaincre. La encore, AMD/ATI va devoir réussir à proposer des cartes (et surtout disponible) avec un rapport perf/prix imbattable parce que NVidia a de quoi lacher du leste, et Intel peut surprendre.



Niveau pro, CDNA, je n’y crois pas. Pour faire très simple, l’environnement pour faire du calcul sur GPU est dominé par les bibliothèques de NVidia (CUDA&co). Utiliser un GPU qui n’est pas compatible CUDA te coupe l’accès a beaucoup de solution (logiciel, bibliothèque…) de calcul sur GPU. De ce que j’ai compris, a priori, Intel arrive quand même à peut-être proposer une début de once de réponse avec leu OneAPI, mais je ne parie pas du tout sur eux sur cette génération, mais il serait intéressant de garder un œil dessus.



tazvld a dit:


Niveau pro, CDNA, je n’y crois pas. Pour faire très simple, l’environnement pour faire du calcul sur GPU est dominé par les bibliothèques de NVidia (CUDA&co). Utiliser un GPU qui n’est pas compatible CUDA te coupe l’accès a beaucoup de solution (logiciel, bibliothèque…) de calcul sur GPU. De ce que j’ai compris, a priori, Intel arrive quand même à peut-être proposer une début de once de réponse avec leu OneAPI, mais je ne parie pas du tout sur eux sur cette génération, mais il serait intéressant de garder un œil dessus.




ROCm d’AMD permet de faire de la réintégration de code CUDA (comme oneAPI), mais c’est rarement utilisé. Disons que ça peut servir pour aller chopper quelques clients spécifiques ici ou là. Mais le gros du travail doit être fait sur le fond et c’est là qu’AMD n’assure par pour le moment.



oneAPI, ça fait deux ans qu’Intel bosse à fond dessus avec les partenaires notamment, leur intégration dans les stacks HPC, tout en reprenant l’existant open source qu’ils avaient déjà sous la main (et ça fait déjà du beau monde). Du coup ils arrivent avec un ensemble intéressant, et une stratégie globale sur Xe, mais aussi multi-chip/vendor assez intéréssante qui peut leur permettre de faire la différence avec un NVIDIA auto-centré dans son approche logicielle.



Mais bon c’est un travail sur 510 ans. Xe va sortir du bois très vite, du coup il faudra voir ensuite si Intel délivre ce qu’ils ont annoncé, on le saura vite puisque tout est à échéance 2021 pour le Pro (Xe arrivant fin 2020 pour le grand public)


En tout cas, cette fin d’année s’annonce super chargé et intéressante.



Magyar a dit:


En tout cas, cette fin d’année s’annonce super chargé et intéressante.




Et ce n’est que le début.
Au premier semestre 2021, on aura peut-être (déjà!) un refresh 7 nm des GPU Ampere GA102 and co (NVidia, semble-t-il a été obligé de passer à Samsung sur un node de 8nm, moins performant que le 7 nm de TSMC… raflé, entre autre par AMD qui semble avoir un sacré partenariat avec TSMC au grand damn de Nvidia, plutôt pas habitué à ça…)



Puis le 5 nm va arriver chez TSMC pour Hopper / Navi 3x (l’année prochaine T4?), suivi de ZEN 3+ ou Zen 4, et Alder Lake, côté Intel (=> durée de vie de Rocket Lake: comme Comet Lake, car toujours en 14nm; Alder Lake devrait être en 10nm, mais l’architecture big.LITTLE choisi par Intel va nécessiter des optimisations spécifiques côté Windows 10).



Bref, 2021 sera aussi très chargée, et ce n’es pas près de s’arrêter (en espérant qu’Intel sorte enfin quelque chose de viable côté Xe… en 2022 ?)



Magyar a dit:


En tout cas, cette fin d’année s’annonce super chargé et intéressante.




Oh, la fin de vacances va déjà l’être pas mal :D



David_L a dit:


Oh, la fin de vacances va déjà l’être pas mal :D




Nan mais, me dit pas que tu prends des vacances toi !? :eeek2:



Enfin, NXi en général même ! :eeek2:



the_Grim_Reaper a dit:


Nan mais, me dit pas que tu prends des vacances toi !? :eeek2:Enfin, NXi en général même ! :eeek2:




Moi non 😬



revker a dit:


Ca devient vraiment un luxe de jouer sur pc.




Faut pas sentir obligé de jouer en 4k 240FPS HDR toutafond™ non plus.
Si tu vise le 1080p 60fps, l’unité centrale te coûtera ~600€



David_L a dit:


ROCm d’AMD permet de faire de la réintégration de code CUDA (comme oneAPI), mais c’est rarement utilisé. Disons que ça peut servir pour aller chopper quelques clients spécifiques ici ou là. Mais le gros du travail doit être fait sur le fond et c’est là qu’AMD n’assure par pour le moment.oneAPI, ça fait deux ans qu’Intel bosse à fond dessus avec les partenaires notamment, leur intégration dans les stacks HPC, tout en reprenant l’existant open source qu’ils avaient déjà sous la main (et ça fait déjà du beau monde). Du coup ils arrivent avec un ensemble intéressant, et une stratégie globale sur Xe, mais aussi multi-chip/vendor assez intéréssante qui peut leur permettre de faire la différence avec un NVIDIA auto-centré dans son approche logicielle.Mais bon c’est un travail sur 510 ans. Xe va sortir du bois très vite, du coup il faudra voir ensuite si Intel délivre ce qu’ils ont annoncé, on le saura vite puisque tout est à échéance 2021 pour le Pro (Xe arrivant fin 2020 pour le grand public)




Intel doit faire ses preuves dans les GPU après deux échecs dont le récent larrabee



L’approche actuelle d’Intel ça été d’ajouter le support des instructions BFloat16 dans cooper lake donc ça évite dans certains cas d’avoir des GPUs en plus



xillibit a dit:





Larrabee n’a rien de récent et ce n’était pas vraiment un GPU ;) Bfloat16 dans les CPU, c’est bien pour une partie du marché, mais c’est pas franchement ça qui rend le GPU inutile.



David_L a dit:


mais c’est pas franchement ça qui rend le GPU inutile.




Pour ça y’a AVX512 :dd:



Charly32 a dit:


Pour ça y’a AVX512 :dd:




Ou pas :D On le voit assez bien dans un Blender par exemple ;) Mais quand tu veux un vecteur large du CPU…


21x2=42. Illuminati confirmed



MoonRa a dit:





SLI is back !


l’est bien loin le temps ou amd et ati avaient de la concurence…
3dfx et son glide, matrox et son super multi écran, les tentative d’hercules avec sa gamme kyro…
moins d’acteurs sur le marché=plus de prix élevés malheureusement.


it’s the final count down ;) (je peux plus éditer :( )