Connexion
Abonnez-vous

GeForce RTX 3070, 3080 et 3090 : les fuites de dernière minute se multiplient

J-1

GeForce RTX 3070, 3080 et 3090 : les fuites de dernière minute se multiplient

Le 31 août 2020 à 06h18

Il fallait s'y attendre, avec l'annonce demain de ses nouvelles GeForce, les fuites en provenance de ses partenaires se font plus nombreuses et précises. Caractéristiques et photos sont désormais sur la place publique. L'essentiel reste néanmoins à découvrir.

Dès que de nouveaux GPU sont mis sur le marché, c'est la même histoire : tous les partenaires, d'AMD ou NVIDIA selon les cas, préparent des dizaines de cartes et autant de visuels. Le tout est diffusé à leurs propres clients et aux canaux de distribution pour qu'ils se préparent, multipliant d'autant les personnes informées et donc les fuites.

Dernière ligne droite pour NVIDIA... et ses concurrents

Ce qui devait, arriva : on sait désormais à peu près tout des caractéristiques de base des prochaines GeForce RTX de série 30 qui seront dévoilés demain. Les modèles personnalisés sont attendus chez les revendeurs pour la mi-septembre, le 17 selon nos informations. Les RTX 3090 seront les premières proposées, les autres devant suivre.

Comme pour les RTX de série 20, la mise sur le marché des différentes déclinaisons s'étalera dans la durée, jusqu'à la fin de l'année. De quoi permettre à NVIDIA de monter progressivement en puissance, mais aussi de maintenir l'intérêt médiatique alors que les consoles de nouvelle génération arrivent, qu'Intel va de plus en plus communiquer autour de ses GPU Xe et que les nouvelles Radeon d'AMD doivent être dévoilées en octobre/novembre.

Dans ses documents, récupérés par Videocardz, Gainward confirme la compatibilité PCIe 4.0 des RTX de série 30, la finesse de gravure en 7 nm, l'utilisation de GDDR6X à 19 Gb/ps sur les modèles haut de gamme, de nouveaux RT Cores (2e génération) et Tensor Cores (3e génération), le HDMI 2.1. Peu d'autres éléments sont mis en avant.

Gainward GeForce RTX 3080Gainward GeForce RTX 3080 GSGainward GeForce RTX 3090Gainward GeForce RTX 3090 GS

Trois cartes déjà détaillées : de la RTX 3070 à la 3090

Côté unités et fréquences cela donne :

  • RTX 3080 : 4 352 CUDA Cores, 1740 MHz (Boost), 10 Go de mémoire, 320 bits, TGP de 320 watts
  • RTX 3090 : 5 248 CUDA Cores, 1725 MHz (Boost), 24 Go de mémoire, 384 bits, TGP de 350 watts

Précisons que NVIDIA communique là encore une consommation globale maximale de la carte (TGP), et non un TDP correspondant à une valeur thermique pour dimensionner le système de refroidissement. On reste sous les 375 watts autorisés par un connecteur 8 + 8 broches, mais on approche de sa limite. De quoi limiter l'overclocking ?

Il s'agit sans doute ici de modèles déjà overclockés, les fréquences étant supérieures à de précédentes fuites. Concernant les RTX 3070, il serait question de 2 944 CUDA Cores avec une interface mémoire de 256 bits et un TGP plus raisonnable de 220 watts. Mais la mémoire serait de la GDDR6 à 16 Gb/s. De quoi réduire aussi les coûts.

Autre point qui pourra avoir son importance : la RTX 3090 serait la seule à disposer d'un connecteur NVLink. Un élément qui aura son importance pour les amateurs de calcul sur GPU, notamment pour le rendu 3D. Des moteurs comme Cycles de Blender (dans sa version 2.90) profitent en effet de manière croissante de cette interface.

Côté visuels, on a déjà une idée de ce à quoi ressembleront les cartes Extreme, Trinity (HoLo) et TwinEdge de Zotac, à deux ou trois ventilateurs. Mais aussi le modèle ROG d'ASUS. Tous restent sur deux emplacements PCIe.

L'essentiel préservé par NVIDIA ?

Mais les nouvelles GeForce n'ont pas livré tous leurs secrets. L'évolution de l'architecture dans son ensemble reste à découvrir, des différentes unités de calcul et autres fonctionnalités, tant pour les jeux que l'accélération dans des applications professionnelles ou le moteur vidéo. On sait déjà que le support d'AV1 sera de la partie par exemple.

Rendez-vous demain soir pour en savoir plus... à moins d'autres fuites d'ici là.

Commentaires (43)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Entre les rumeurs sur les prix et les TDP délirants, je vais peut-être passer mon tour :)
La 1070 va continuer à tourner en attendant qu’AMD ne sorte de son état de mort cérébrale.

votre avatar

Obidoub a dit:



De toutes façons l’équivalent de la 1070 sera sans doute plutôt du côté de la 3060, à voir selon les prix.

votre avatar

David_L a dit:


De toutes façons l’équivalent de la 1070 sera sans doute plutôt du côté de la 3060, à voir selon les prix.


J’ai un peu du mal à concevoir des prix en dessous de 500 euros pour cette nouvelle gamme (et encore 500 euros ça me semble faible)

votre avatar

les gens qui attendent avant de renouveler leur matos, et qui espèrent un gap de perfs pour un prix identique, ils seront déçus comme d’hab ? les 20xx sont déjà arrêtées en prod mais pas toutes vendues, ça va faire quoi du coup ?
2070 = 3060 ? un truc du genre ?

votre avatar

Ça sent de la GeForce pour les pro qui ne veulent pas des quadro. Me tentent bien pour certaines stations de travail 😛

votre avatar

J’aimerais bien savoir ce que ça donne dans un boîtier eGPU.
A l’époque quand j’ai acheté le mien pour y mettre une 1080 on annonçait déjà 10% de pertes liées à la bande passante thunderbolt3, mais je ne sais pas si les cartes plus récentes ont besoin de plus de bande passante ou si la seule différence se fait au niveau du temps de calcul sur la carte, autrement dit si on doit s’attendre à plus de 10% de pertes sur les derniers modèles.



@David_L c’est envisageable un dossier sur le sujet eGPU un jour ?

votre avatar

Estya a dit:


les gens qui attendent avant de renouveler leur matos, et qui espèrent un gap de perfs pour un prix identique, ils seront déçus comme d’hab ? les 20xx sont déjà arrêtées en prod mais pas toutes vendues, ça va faire quoi du coup ? 2070 = 3060 ? un truc du genre ?


Si on se base juste sur les coeurs CUDA, la 3090 n’a pas d’équivalent en 2000, la 3080 c’est une 2080ti et la 3070 est une 2080. Donc on peut supposer que oui, la 2070 = 3060

votre avatar

Ben perso j’attends la 3070 pour profiter de Cyberpunk 😊

votre avatar

Je ne comprends pas, avec ma 1080Ti j’ai plus de mémoire que sur une RTX 3080.



Je pense que toutes les fuites sur la mémoire de cette carte doivent êtres fausses, sinon je ne comprends pas le positionnement en voyant la quantité astronomique de mémoire sur la 3090 …

votre avatar

Ba NXI avait parlé de 1400 pour la 3090 donc on devrait garder les mêmes tarifs non ?

votre avatar

stylersnico a dit:


Je ne comprends pas, avec ma 1080Ti j’ai plus de mémoire que sur une RTX 3080.Je pense que toutes les fuites sur la mémoire de cette carte doivent êtres fausses, sinon je ne comprends pas le positionnement en voyant la quantité astronomique de mémoire sur la 3090 …


Si j’ai bien compris sur la 3080 c’est de la GDDR6X d’où la différence.



Sinon j’attend de voir les prix de cette génération, je suis toujours avec ma vieille GTX970, qui fait toujours le café pour du 1080p, si la 3060 titille les 400€ (l’espoir fait vivre…) je vais peut-être passé le cap.

votre avatar

Raikiwi a dit:


Si j’ai bien compris sur la 3080 c’est de la GDDR6X d’où la différence.Sinon j’attend de voir les prix de cette génération, je suis toujours avec ma vieille GTX970, qui fait toujours le café pour du 1080p, si la 3060 titille les 400€ (l’espoir fait vivre…) je vais peut-être passé le cap.


Ça oui, mais dans l’idée si je change c’est pour passer en 4k à plus de 60hz en gsync et un peu de vram en rab ne serait pas trop je pense (j’en sais rien en fait, on verra les benchs).



J’ai l’impression que cette génération va encore être un pétard mouillé.

votre avatar

Je vois pas en quoi perdre 1Go par rapport à la 1080Ti est un problème.



Enfin j’imagine que nVidia sait ce qu’il fait et que la mémoire est dimensionnée pour ne pas brider le GPU.

votre avatar

stylersnico a dit:


Je ne comprends pas, avec ma 1080Ti j’ai plus de mémoire que sur une RTX 3080.Je pense que toutes les fuites sur la mémoire de cette carte doivent êtres fausses, sinon je ne comprends pas le positionnement en voyant la quantité astronomique de mémoire sur la 3090 …


Tu changes de gamme. Les Ti sont une gamme au dessus, un peu comme la 3090.



J’aimerais bien une news sur une CG supérieure à la 3090,



Par contre je ne vois pas ce que tu appelles un pétard mouillé si les gains attendus se concrétisent :D

votre avatar

patos a dit:


Tu changes de gamme. Les Ti sont une gamme au dessus, un peu comme la 3090.J’aimerais bien une news sur une CG supérieure à la 3090,Par contre je ne vois pas ce que tu appelles un pétard mouillé si les gains attendus se concrétisent :D


Je pense qu’au niveau du prix ça sera le même :D



Par contre, j’ai été tellement refroidi par les RTX 2000 dans la vraie vie que je me méfie de cette nouvelle gen, j’espère que ça donnera quelque chose de bien :francais:

votre avatar

Concrètement j’ai environ un budget de 500€ pour ma prochaine cg, je prend quoi ? Une nouvelle carte ou une ancienne neuve ? Une carte d’occaze ? Et concernant ces fameuses série 300 faut t’il prévoir un budget supplémentaire pour une alimentation ? Sa savoir qu’en général plus ça pompe et plus ça chauffe ?



Après ce qui pourrait faire pencher la balance c’est le DLSS car d’après ce que j’ai lu dans certains jeux il y à un boost d’environ 40% ? Mais d’un autre côté ce machin ne risque pas de devenir un standard et rendra les ancienne carte caduque ?



Par contre ( avis doigt mouillé ) je pense pas que le raytracing sois enfin utilisable, il faudra surement attendre la prochaine génération de carte, au moins. D’un autre côté quand je vois le boulot sur l’ia ces dernière années avec le denoising et compagnie, ça laisse rêveur.

votre avatar

(quote:49248:skankhunt42 )
Concrètement j’ai environ un budget de 500€ pour ma prochaine cg, je prend quoi ? Une nouvelle carte ou une ancienne neuve ? Une carte d’occaze ? Et concernant ces fameuses série 300 faut t’il prévoir un budget supplémentaire pour une alimentation ? Sa savoir qu’en général plus ça pompe et plus ça chauffe ?Après ce qui pourrait faire pencher la balance c’est le DLSS car d’après ce que j’ai lu dans certains jeux il y à un boost d’environ 40% ? Mais d’un autre côté ce machin ne risque pas de devenir un standard et rendra les ancienne carte caduque ?Par contre ( avis doigt mouillé ) je pense pas que le raytracing sois enfin utilisable, il faudra surement attendre la prochaine génération de carte, au moins. D’un autre côté quand je vois le boulot sur l’ia ces dernière années avec le denoising et compagnie, ça laisse rêveur.


Il faut attendre d’avoir plus d’info sur les 3000, mais au doigt mouillé, une 3060 ou 2070super. Sachant que les 3060 risquent de sortir que fin d’année, donc si tu trouves une bonne promo sur une 2070s, je penses ça peut valoir le coup.



Le raytracing est exploitable justement grace à DLSS, surtout depuis sa version 2.

votre avatar

ErGo_404 a dit:


J’aimerais bien savoir ce que ça donne dans un boîtier eGPU. A l’époque quand j’ai acheté le mien pour y mettre une 1080 on annonçait déjà 10% de pertes liées à la bande passante thunderbolt3, mais je ne sais pas si les cartes plus récentes ont besoin de plus de bande passante ou si la seule différence se fait au niveau du temps de calcul sur la carte, autrement dit si on doit s’attendre à plus de 10% de pertes sur les derniers modèles.@David_L c’est envisageable un dossier sur le sujet eGPU un jour ?


J’ai moi-même sauté le pas après m’être renseigné et avoir eu quelques réticences sur le sujet. Différentes raisons ont fait que je me suis séparé de ma grosse tour “gamer” j’utilise désormais un Dell XPS 15” (7590 de 2019) avec un razer core X chroma et une RTX 2060 Super à l’intérieur (en Thunderbolt 3 donc, je sais ce n’est pas un pc fait pour jouer, ce n’est pas la raison de son achat d’ailleurs mais il m’arrive de jouer encore occasionnellement).



Pas de problème de stabilité (le PC switch sans problème entre la partie graphique du processeur, la GTX 1650 du portable et la RTX 2060 automatiquement sans n’avoir eu aucun réglage à forcer)



Quant aux performances, sans surprise celles-ci sont bridées par rapport à la même carte montée dans une tour de pc “classique”, j’étais tombé sur ce test qui permet d’avoir une idée de la perte de perfs liée au manque de bande passante du Thunderbolt 3.



De mon point de vue, la perte de perf est acceptable et l’ensemble me permet tout de même de jouer dans de bonnes conditions.

votre avatar

Désolé pour le double post, je ne peux plus éditer celui au dessus. La différence de performance dans le test que j’ai mis est de 7 à 14% dans le cas d’une RTX 2060 en prenant le cas le moins défavorable sur du bench pur et jusqu’à 40% en jeu.



Ce qui est loin d’être négligeable, d’où le fait de m’être limité à une RTX 2060 Super. Mettre une 2080 Ti ou autre dans ce genre de boitier serait un non sens.

votre avatar

Près de 400 watts de conso.
Des cartes qui font min 30 cm de long.
Des radiateurs et ventilos qui grossissent sérieusement.
Des tarifs qui explosent…



Clairement, cette génération, elle sera pas pour moi.

votre avatar

js2082 a dit:


Près de 400 watts de conso. Des cartes qui font min 30 cm de long. Des radiateurs et ventilos qui grossissent sérieusement. Des tarifs qui explosent…Clairement, cette génération, elle sera pas pour moi.


Je l’ai déjà dit mais je comprends mal ce genre de commentaire. Ce qui doit intéresser dans une nouvelle gamme/archi, c’est le rapport perf/watt (on ne le connait pas). Si tu veux une carte avec une conso de 200 watts, il y en aura. A quel tarif, on verra (là aussi c’est le perf/€ qui sera intéressant à analyser).



Ton propos revient à dire “je ne veut pas acheter une Renault, parce qu’ils font de la Formule 1”.




stylersnico a dit:


Je ne comprends pas, avec ma 1080Ti j’ai plus de mémoire que sur une RTX 3080.


Disons que ça tombe bien, la mémoire n’est pas un facteur premier de performances. C’est un facteur marketing, à afficher en gros sur la boite pour donner l’impression qu’on fait mieux parce qu’il y a XX Go de plus que sur la carte d’en-dessous.



Même si c’est globalement inutilisé parce que “gnia gnia gnia les jeux de prochaine génération” (ce qui ne se vérifie jamais, le GPU est plus souvent une limite que la mémoire). Il y a certains usages Pro qui en profitent, mais c’est tout.




stylersnico a dit:


Je pense que toutes les fuites sur la mémoire de cette carte doivent êtres fausses, sinon je ne comprends pas le positionnement en voyant la quantité astronomique de mémoire sur la 3090 …


Replacer la Titan RTX qui avait 24 Go de GDDR6

votre avatar

David_L a dit:


Je l’ai déjà dit mais je comprends mal ce genre de commentaire. Ce qui doit intéresser dans une nouvelle gamme/archi, c’est le rapport perf/watt (on ne le connait pas). Si tu veux une carte avec une conso de 200 watts, il y en aura. A quel tarif, on verra (là aussi c’est le perf/€ qui sera intéressant à analyser).Ton propos revient à dire “je ne veut pas acheter une Renault, parce qu’ils font de la Formule 1”.Disons que ça tombe bien, la mémoire n’est pas un facteur premier de performances. C’est un facteur marketing, à afficher en gros sur la boite pour donner l’impression qu’on fait mieux parce qu’il y a XX Go de plus que sur la carte d’en-dessous.Même si c’est globalement inutilisé parce que “gnia gnia gnia les jeux de prochaine génération” (ce qui ne se vérifie jamais, le GPU est plus souvent une limite que la mémoire). Il y a certains usages Pro qui en profitent, mais c’est tout.Replacer la Titan RTX qui avait 24 Go de GDDR6


Merci pour la réponse. Y’a plus qu’à attendre les benchs ici pour savoir si ça vaut le coup de jeter la tirelire par la fenêtre donc :bravo:

votre avatar

David_L a dit:


Je l’ai déjà dit mais je comprends mal ce genre de commentaire. Ce qui doit intéresser dans une nouvelle gamme/archi, c’est le rapport perf/watt (on ne le connait pas). Si tu veux une carte avec une conso de 200 watts, il y en aura. A quel tarif, on verra (là aussi c’est le perf/€ qui sera intéressant à analyser).Ton propos revient à dire “je ne veut pas acheter une Renault, parce qu’ils font de la Formule 1”.Disons que ça tombe bien, la mémoire n’est pas un facteur premier de performances. C’est un facteur marketing, à afficher en gros sur la boite pour donner l’impression qu’on fait mieux parce qu’il y a XX Go de plus que sur la carte d’en-dessous.Même si c’est globalement inutilisé parce que “gnia gnia gnia les jeux de prochaine génération” (ce qui ne se vérifie jamais, le GPU est plus souvent une limite que la mémoire). Il y a certains usages Pro qui en profitent, mais c’est tout.Replacer la Titan RTX qui avait 24 Go de GDDR6


Après, à l’époque de la 5870, j’ai déjà été embêté avec les 1Go de mémoire (pas assez) sur BF3 par exemple.
Pareil avec ma 780 et Shadow of Mordor (3Go de mémoire).



Et franchement, payer une carte aussi cher, pour avoir moins de mémoires, alors que les jeux consommeront + et que tu pourra passer à la 4K, ça fait chier un peu, la mémoire si t’en a pas assez, le jeu fait du yoyo.

votre avatar

dylem29 a dit:



Comme dit, à moins d’avoir de quoi comparer entre deux modèles strictement identiques à la quantité de mémoire près, on ne peut jamais vraiment l’affirmer. Quand c’est le cas, on voit assez bien qu’en pratique, le GPU coince avant assez souvent (la 4K est un bon exemple :D).



C’est justement parce que c’est difficilement vérifiable et que c’est un argument assez “basique” (plus grosse mémoire, mieux) que les constructeurs jouent souvent là-dessus pour attirer celui qui voudra se rassurer. C’est toujours ça de pris en marge en plus.



Mais quand le design d’une carte est sous contrainte, ils font des choix plus pragmatiques et le marketing va se carapater ailleurs.

votre avatar

Ne pas oublier que le système de compression des données en mémoire est particulièrement efficace chez Nvidia depuis Pascal il me semble (AMD a surement sa propre solution aussi), pour peu qu’il est encore évolué, il est possible qu’une 30xx en 10Go soit plus à l’aise qu’une 1080Ti en 12Go sur l’aspect mémoire.

votre avatar

David_L a dit:


J.Disons que ça tombe bien, la mémoire n’est pas un facteur premier de performances. C’est un facteur marketing, à afficher en gros sur la boite pour donner l’impression qu’on fait mieux parce qu’il y a XX Go de plus que sur la carte d’en-dessous.Même si c’est globalement inutilisé parce que “gnia gnia gnia les jeux de prochaine génération” (ce qui ne se vérifie jamais, le GPU est plus souvent une limite que la mémoire).


Ah bah ma 770 ne serait pas contre un ou deux Go de plus sur GTA Online ^^

votre avatar

David_L a dit:


Comme dit, à moins d’avoir de quoi comparer entre deux modèles strictement identiques à la quantité de mémoire près, on ne peut jamais vraiment l’affirmer. Quand c’est le cas, on voit assez bien qu’en pratique, le GPU coince avant assez souvent (la 4K est un bon exemple :D).C’est justement parce que c’est difficilement vérifiable et que c’est un argument assez “basique” (plus grosse mémoire, mieux) que les constructeurs jouent souvent là-dessus pour attirer celui qui voudra se rassurer. C’est toujours ça de pris en marge en plus.Mais quand le design d’une carte est sous contrainte, ils font des choix plus pragmatiques et le marketing va se carapater ailleurs.


Ah oui c’est sûr que la mémoire c’est aussi du marketing, 10Go tu pense que ça suffira pour les jeux PS5 ?

votre avatar

David_L a dit:


Je l’ai déjà dit mais je comprends mal ce genre de commentaire. Ce qui doit intéresser dans une nouvelle gamme/archi, c’est le rapport perf/watt (on ne le connait pas). Si tu veux une carte avec une conso de 200 watts, il y en aura. A quel tarif, on verra (là aussi c’est le perf/€ qui sera intéressant à analyser).Ton propos revient à dire “je ne veut pas acheter une Renault, parce qu’ils font de la Formule 1”


A mes yeux de consommateur, le rapport perf/watt n’a de sens que si je peux utiliser le produit dans le cadre classique et admis de son utilisation.



Je m’explique: pour la quasi-totalité des joueurs, la CG est utilisée dans un boitier avec des caractéristiques communes (variant suivant les gens).



ici, nvidia détruit littéralement ce cadre:




  • va falloir changer ton alim pour du 900W (voir plus) et prévoir un refroidissement plus complexe: ce qui, a l’heure du réchauffement climatique et des économies d’énergies, est une absurdité totale, même une hérésie,

  • va falloir prévoir un boitier bien plus gros que la normale pour arriver à y caser les 30 cm de long et 15 cm de haut, ce qui est en totale contradiction avec l’esprit de miniaturisation des équipements, (pourtant nvidia avait fait des efforts avec les 10X0),

  • le tarif qui devient totalement délirant (1400 euros pour une 3090??)



Si tu veux faire une comparaison bagnolesque, ce serait comme si Renault se mettait à vendre à la place d’une mégane un Monster truck de 4m de haut qui te consomme 50 l aux 100 km: sans doute très performant pour faire le trajet maison/boulot, mais totalement inadapté pour ton utilisation.

votre avatar

Jungledede a dit:


Ça sent de la GeForce pour les pro qui ne veulent pas des quadro. Me tentent bien pour certaines stations de travail 😛


J’avoue, les 24GO et le NVlink, ça fait de l’œil, à quoi d’autre ça peut servir ? surement pas à jouer.




js2082 a dit:


Près de 400 watts de conso. Des cartes qui font min 30 cm de long. Des radiateurs et ventilos qui grossissent sérieusement. Des tarifs qui explosent…Clairement, cette génération, elle sera pas pour moi.


Ce qui est difficile à voir, c’est que les carte graphique n’arrête pas de monter en gamme comparativement au reste des composant d’un PC à chaque génération. Cependant en parallèle, le marché mets de plus en plus de pression sur les cartes graphiques : pour qu’un jeu soit vendeur, il faut que visuellement ça pète, on est dans la surenchère permanente.



Du coup, cette augmentation de gamme est difficile à voir “In Game”, il n’y a que physiquement et au niveau du porte monnaie que ça se ressent et que l’époque de la TNT2 est lointaine.

votre avatar

js2082 a dit:


A mes yeux de consommateur, le rapport perf/watt n’a de sens que si je peux utiliser le produit dans le cadre classique et admis de son utilisation.Je m’explique: pour la quasi-totalité des joueurs, la CG est utilisée dans un boitier avec des caractéristiques communes (variant suivant les gens).ici, nvidia détruit littéralement ce cadre: va falloir changer ton alim pour du 900W (voir plus) et prévoir un refroidissement plus complexe: ce qui, a l’heure du réchauffement climatique et des économies d’énergies, est une absurdité totale, même une hérésie, va falloir prévoir un boitier bien plus gros que la normale pour arriver à y caser les 30 cm de long et 15 cm de haut, ce qui est en totale contradiction avec l’esprit de miniaturisation des équipements, (pourtant nvidia avait fait des efforts avec les 10X0),* le tarif qui devient totalement délirant (1400 euros pour une 3090??)Si tu veux faire une comparaison bagnolesque, ce serait comme si Renault se mettait à vendre à la place d’une mégane un Monster truck de 4m de haut qui te consomme 50 l aux 100 km: sans doute très performant pour faire le trajet maison/boulot, mais totalement inadapté pour ton utilisation.


Il n’y a pas que la 3090 qui va sortir. Ce que David veut dire c’est que Renault vend des Twingo (ce que tu veux) et à côté fait des SUV (qui servent à rien), des Formule 1 et autres. Tu veux la Twingo, tu en aura une nouvelle cette année. Est-ce que son petit moteur sera aussi bien que les précédente version et ne consommera pas trop ? C’est ça qu’il te faudra analyser et pas le moteur de la formule 1 qui ne t’intéresse pas. Pour l’instant on a pas les chiffres des petites cartes, seulement les grosses

votre avatar

js2082 a dit:



Peux-tu expliquer ce que tu cherches et pour faire quoi ? Les GPU intégrés ne te suffisent pas ? AMD Radeon ne propose rien ? et le reste de la gamme de chez NVidia ?

votre avatar

js2082 a dit:


A mes yeux de consommateur, le rapport perf/watt n’a de sens que si je peux utiliser le produit dans le cadre classique et admis de son utilisation.Je m’explique: pour la quasi-totalité des joueurs, la CG est utilisée dans un boitier avec des caractéristiques communes (variant suivant les gens).ici, nvidia détruit littéralement ce cadre: va falloir changer ton alim pour du 900W (voir plus) et prévoir un refroidissement plus complexe: ce qui, a l’heure du réchauffement climatique et des économies d’énergies, est une absurdité totale, même une hérésie, va falloir prévoir un boitier bien plus gros que la normale pour arriver à y caser les 30 cm de long et 15 cm de haut, ce qui est en totale contradiction avec l’esprit de miniaturisation des équipements, (pourtant nvidia avait fait des efforts avec les 10X0),* le tarif qui devient totalement délirant (1400 euros pour une 3090??)Si tu veux faire une comparaison bagnolesque, ce serait comme si Renault se mettait à vendre à la place d’une mégane un Monster truck de 4m de haut qui te consomme 50 l aux 100 km: sans doute très performant pour faire le trajet maison/boulot, mais totalement inadapté pour ton utilisation.


On parle ici de cartes très haut de gamme…. Tu ne peux pas râler parce qu’on n’a des news d’abord sur le haut de gamme ^^

votre avatar

js2082 a dit:


A mes yeux de consommateur, le rapport perf/watt n’a de sens que si je peux utiliser le produit dans le cadre classique et admis de son utilisation.Je m’explique: pour la quasi-totalité des joueurs, la CG est utilisée dans un boitier avec des caractéristiques communes (variant suivant les gens).ici, nvidia détruit littéralement ce cadre:


Tu confonds deux choses : l’efficacité et la perf brute. L’important c’est l’efficacité avant tout. Quelle performance tu arrives à tirer d’un watt consommé, d’un euro dépensé, d’un mm² de surface de die. C’est ça qu’il faut regarder. Par contre ta comparaison “bagnolesque” ne tient pas.



Ce que tu dis, c’est que la perf brute ne t’intéresse pas passé un certain niveau. Soit, ça revient à dire que tu n’es pas client de la RTX 3090. Mais j’ai une nouvelle : c’est normal :D C’est pour ça qu’il y aura des 3060, 3070 et 3080.

votre avatar

Ho encore une fuite fortuite!

votre avatar

Je m’attends au pire perso de là a être plus enthousiaste pour les nouvelle console… assurément.
Partant d’une 1070 depuis un peu plus de 4 ans, turing et Vega on détruit mes espoirs concernant le gaming pc et ampere pourrait bien les achever définitivement.
Si on se retrouve avec un turing bis càd : un simple décalage de gamme par rapport à la série 20 couplé a une nouvelle augmentation de prix injustifiable (le RTX n’étant pas un argument valable), ce sera sans moi, je pense que je préfère voir ce que les consoles proposeront et y a de grande chance que ce soit mieux.

votre avatar

tazvld a dit:


Du coup, cette augmentation de gamme est difficile à voir “In Game”, il n’y a que physiquement et au niveau du porte monnaie que ça se ressent et que l’époque de la TNT2 est lointaine.


Suffit de regarder les jeux d’il y a 20 ans, 15 ans, 10 ans… on voit bien la différence : les graphismes (résolution) , la complexité des scènes, le nombre d’objets à l’écran, les éclairages…. la VR.



Bref, tu as raison, au quotidien, si on touche un peu à tous les jeux, depuis toujours, on ne voit qu’une légère progression… mais en fait, on a bien plus progressé que ca :D

votre avatar

adarion29 a dit:


Si on se retrouve avec un turing bis càd : un simple décalage de gamme par rapport à la série 20 couplé a une nouvelle augmentation de prix injustifiable


Si c’est ce que tu as retenu de Turing, tu t’es surtout focalisé sur le branding en passant à côté de tout ce qu’il y a de concret et qui touche à l’archi, au moteur vidéo, etc. Même au-delà des RT/Tensor Cores. Surtout que Turing, ce sont aussi les GTX 16 Series qui en sont dépourvues.




CryoGen a dit:


Suffit de regarder les jeux d’il y a 20 ans, 15 ans, 10 ans… on voit bien la différence : les graphismes (résolution) , la complexité des scènes, le nombre d’objets à l’écran, les éclairages…. la VR. Bref, tu as raison, au quotidien, si on touche un peu à tous les jeux, depuis toujours, on ne voit qu’une légère progression… mais en fait, on a bien plus progressé que ca :D


Sur les CPU, on a régulièrement le même genre de remarque. Ceux qui disent ça n’ont sans doute pas regardé les résultats d’un 2600K depuis longtemps, sa consommation, les accélérations intégrées aux CPU et ce qu’elles permettent désormais. “non mais sur CPUmark 99 on gagne pas tant que ça en fait” :D

votre avatar

Mowmow47 a dit:


J’ai moi-même sauté le pas après m’être renseigné et avoir eu quelques réticences sur le sujet. Différentes raisons ont fait que je me suis séparé de ma grosse tour “gamer” j’utilise désormais un Dell XPS 15” (7590 de 2019) avec un razer core X chroma et une RTX 2060 Super à l’intérieur (en Thunderbolt 3 donc, je sais ce n’est pas un pc fait pour jouer, ce n’est pas la raison de son achat d’ailleurs mais il m’arrive de jouer encore occasionnellement).Pas de problème de stabilité (le PC switch sans problème entre la partie graphique du processeur, la GTX 1650 du portable et la RTX 2060 automatiquement sans n’avoir eu aucun réglage à forcer)Quant aux performances, sans surprise celles-ci sont bridées par rapport à la même carte montée dans une tour de pc “classique”, j’étais tombé sur ce test qui permet d’avoir une idée de la perte de perfs liée au manque de bande passante du Thunderbolt 3.De mon point de vue, la perte de perf est acceptable et l’ensemble me permet tout de même de jouer dans de bonnes conditions.
Je n’ai pas de problèmes non plus (avec ma 1080 donc), à l’époque ça me permettait de jouer en 4K à Far Cry 5 et d’autres jeux assez gourmands. Je me demande juste si l’upgrade me ferait perdre plus de performances en pourcentage ou si ça serait similaire (et donc, si j’aurais une amélioration visible des performances en valeur absolue). Déjà à l’époque ils parlaient de 7 à 14% de pertes sur la 1080, donc ça n’a pas beaucoup bougé d’une gen à l’autre.


votre avatar

CryoGen a dit:


Suffit de regarder les jeux d’il y a 20 ans, 15 ans, 10 ans… on voit bien la différence : les graphismes (résolution) , la complexité des scènes, le nombre d’objets à l’écran, les éclairages…. la VR.Bref, tu as raison, au quotidien, si on touche un peu à tous les jeux, depuis toujours, on ne voit qu’une légère progression… mais en fait, on a bien plus progressé que ca :D


A ce titre, le dernier remake de Crysis illustre parfaitement tes propos…



… ou pas :D

votre avatar

CryoGen a dit:


Suffit de regarder les jeux d’il y a 20 ans, 15 ans, 10 ans… on voit bien la différence : les graphismes (résolution) , la complexité des scènes, le nombre d’objets à l’écran, les éclairages…. la VR.Bref, tu as raison, au quotidien, si on touche un peu à tous les jeux, depuis toujours, on ne voit qu’une légère progression… mais en fait, on a bien plus progressé que ca :D


Suffit de changer de CG tous les dix ans :)

votre avatar

Vivement ce soir…



Les rumeurs font état que la 3090 coûterait entre 1800-2000 €. On pourrait donc tabler sur une 3060 à 500 € minimum…



Je doute que les joueurs aient un budget illimité, ou l’envie d’acheter une usine à gaz onéreuse qui demandera une centrale nucléaire pour son fonctionnement. Le photo-réalisme va-t-il rencontrer sa limite ? (oui je suis un vieux con, et ma 1070 vous em* :D).

votre avatar

TheKillerOfComputer a dit:


Vivement ce soir…Les rumeurs font état que la 3090 coûterait entre 1800-2000 €. On pourrait donc tabler sur une 3060 à 500 € minimum…Je doute que les joueurs aient un budget illimité, ou l’envie d’acheter une usine à gaz onéreuse qui demandera une centrale nucléaire pour son fonctionnement. Le photo-réalisme va-t-il rencontrer sa limite ? (oui je suis un vieux con, et ma 1070 vous em* :D).


Si on part du postulat que la 3090 replace la Titan RTX, ça ferait une énorme baisse du prix vu que la TITAN était à 2900€

votre avatar

une 3070 super, un zen 3 dans 8 mois, roule ^^

GeForce RTX 3070, 3080 et 3090 : les fuites de dernière minute se multiplient

  • Dernière ligne droite pour NVIDIA... et ses concurrents

  • Trois cartes déjà détaillées : de la RTX 3070 à la 3090

  • L'essentiel préservé par NVIDIA ?

Fermer