NVIDIA officialise sa GeForce GTX 1650 à base de GDDR6

NVIDIA officialise sa GeForce GTX 1650 à base de GDDR6

One more !

Avatar de l'auteur
David Legrand

Publié dans

Hardware

06/04/2020 2 minutes
9

NVIDIA officialise sa GeForce GTX 1650 à base de GDDR6

La gamme Turing de NVIDIA continue de généraliser l'usage de la GDDR6 plutôt que la GDDR5, même dans l'entrée de gamme. Ce, au-delà des modèles « Super ».

L'architecture Turing continue d'être au centre du jeu chez NVIDIA, qui multiplie les références, quitte à perdre le consommateur. Introduite avec un décalage de ses références par rapport aux GeForce GTX de série 10 (Pascal) il y a près de deux ans, cette génération a déjà eu droit à plusieurs modifications d'ampleur.

On pense par exemple aux modèles « Super », dont l'introduction était surtout l'occasion d'un nouveau décalage des références, avec une baisse de prix à la clé. Un changement désormais étendu jusqu'aux PC portables. Cela avait eu un autre avantage : la GDDR6 dont la présence s'étendait à des modèles plus accessibles.

Mais il fallait au moins acheter une GeForce GTX 1650 Super, ou son équivalent la GTX 1660, pour y avoir droit. Désormais, ce n'est plus le cas, NVIDIA ayant officialisé une GTX 1650 à base de GDDR6. Sa bande passante mémoire passe de 128 Go/s à 192 Go/s (+50 %), grâce à l'utilisation de modules à 12 Gb/s plutôt que 8 Gb/s (toujours sur 128 bits). 

Pour « compenser » cet avantage, la fréquence du GPU a été réduite : de 1 410 à 1 590 MHz plutôt que de 1 485 à 1 665 MHz. Une baisse de 75 MHz, soit 5 % environ. Mais ce ne sera sans doute pas un problème en pratique, cela pouvant être facilement compensé par un overclocking manuel ou d'usine.

Les partenaires de NVIDIA ont ainsi multiplié les annonces de nouvelles cartes ces derniers jours. Il faudra voir lesquelles seront mises sur le marché en France, et sous quel délai, Covid-19 oblige.

Mais surtout, à quel tarif elles seront proposées. Car pour le père des GeForce, l'objectif est sans doute de redonner un peu de « pep's » à son offre GTX face aux Radeon d'AMD basées sur les GPU de la génération Navi, notamment les RX 5500 XT. Qui sera alors le grand vainqueur des cartes à petit prix des PC de la rentrée ? Nous le saurons bien assez vite.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Fermer

Commentaires (9)


Pour “compenser” on underclock volontairement un gpu… L’intérêt c’est quoi ? Proposer un demi produit car le consommateur ne mérite pas le meilleur ?



J’ai vraiment beaucoup de mal avec l’attitude de NVIDIA sur cette génération de gpu.


Je pense que c’est pour que deux produits qui ont le même nom aient les mêmes performances (ou à peu près). Mais rajouter GDDR6 dans le nom de la carte et profiter des perfs en plus ça me parait être une meilleure idée à moi aussi…



ockiller a dit:





C’est effectivement le choix courant pour disposer de perfs similaires à nom identique. Après il ne faut pas oublier une chose : les specs de NVIDIA sur de telles références existent surtout pour permettre aux constructeurs de proposer des modèles OC qui se comparent à ces specs. On a forcément toujours des modèles “de base” mais là aussi l’OC est facile.



Nerg34 a dit:


Pour “compenser” on underclock volontairement un gpu… L’intérêt c’est quoi ? Proposer un demi produit car le consommateur ne mérite pas le meilleur ?J’ai vraiment beaucoup de mal avec l’attitude de NVIDIA sur cette génération de gpu.




En même temps, une puce moins véloce sera également moins coûteuse à produire (car il y a moins de déchets de production). Ca leur permet peut être de contrebalancer le coût de la GDDR6 dans l’histoire.



Moi je m’en fous je ne suis pas concerné, je chie sur les 1650 à cause de leur encodeur vidéo ^^ mais ce n’est pas la priorité de tout le monde, je le conçois.
( https://developer.nvidia.com/video-encode-decode-gpu-support-matrix )



patos a dit:


En même temps, une puce moins véloce sera également moins coûteuse à produire (car il y a moins de déchets de production). Ca leur permet peut être de contrebalancer le coût de la GDDR6 dans l’histoire.Moi je m’en fous je ne suis pas concerné, je chie sur les 1650 à cause de leur encodeur vidéo ^^ mais ce n’est pas la priorité de tout le monde, je le conçois. ( https://developer.nvidia.com/video-encode-decode-gpu-support-matrix )




Pareil… Il m’ont gonflé mettre du nvenc Pascal dans du Turing… ça fait augmenter le tarif d’entrée pour du serveur Plex capable de transcoder du 4K hdr sans broncher ;)



patos a dit:


En même temps, une puce moins véloce sera également moins coûteuse à produire (car il y a moins de déchets de production). Ca leur permet peut être de contrebalancer le coût de la GDDR6 dans l’histoire.Moi je m’en fous je ne suis pas concerné, je chie sur les 1650 à cause de leur encodeur vidéo ^^ mais ce n’est pas la priorité de tout le monde, je le conçois. ( https://developer.nvidia.com/video-encode-decode-gpu-support-matrix )



GourouLubrik a dit:


Pareil… Il m’ont gonflé mettre du nvenc Pascal dans du Turing… ça fait augmenter le tarif d’entrée pour du serveur Plex capable de transcoder du 4K hdr sans broncher ;)




J’ai pas tout pigé, mais ca à l’air interessant votre problème. Vous pouvez détaillez un peu? Sur la page je vois que la 1650 sait tout faire sauf le “HEVC B Frame support”, c’est ca le problème? Ca signifie quoi “HEVC B Frame support” ?



ForceRouge a dit:


J’ai pas tout pigé, mais ca à l’air interessant votre problème. Vous pouvez détaillez un peu? Sur la page je vois que la 1650 sait tout faire sauf le “HEVC B Frame support”, c’est ca le problème? Ca signifie quoi “HEVC B Frame support” ?




En gros, la 1650, sortie en même temps que la 1660, possède l’encodeur vidéo de Volta/Pascal au lieu de Turing: y’a donc une génération de retard.
Les images “B” en h264/HEVC sont des images de prédiction, qui aident énormément à la compression. Un compresseur avec sera forcément meilleur que sans.
Je t’invite à lire ceci pour comprendre vaguement la différence: https://fr.wikipedia.org/wiki/Group_of_pictures , je n’ai pas trouvé de tuto francais sur la compression (HEVC et H264 ont la même théorie, HEVC est “juste” plus évolué pour les hautes résolutions.



Quand on réencode beaucoup du contenu de faible qualité sentimentale, le GPU est bien plus rapide malgré la perte de qualité (par rapport au CPU: 100 fois plus rapide pour un “piètre” rendu).



C’était la minute nvenc.


Sur les V100 (Tesla V100/Quadro GV100) l’encodage HEVC/H264 se fait à une vitesse folle… mais sans prise en charge des B frames.


Encoder en h265 met une sacrée claque à tout CPU. C’est la raison pour laquelle je suis passé un jour à Pascal. J’ai eu besoin d’encoder un jour, et je me suis pris une échelle de temps de calcul qui m’a démontré l’inutilité de l’approche. Donc, j’ai pris une 980ti d’alors.