Les GeForce GTX 1660 Ti et 1650 se dévoilent, AMD casse les prix
Des MX230 et MX250, ça vous tente ?
Le 21 février 2019 à 14h30
4 min
Hardware
Hardware
Après une fin 2018 focalisée sur le haut de gamme, NVIDIA va passer la première moitié de 2019 à proposer des déclinaisons plus accessibles de son architecture Turing. Les GeForce GTX 1660 Ti et 1650 semblent les premières candidates.
Même si le lancement des GeForce GTX 1660 Ti n'est pas attendu avant demain, on sait presque déjà tout de ces cartes. NVIDIA n'a semble-t-il pas su contenir les fuites sur ce produit.
La GTX 1660 Ti est déjà là
Ainsi, nos confrères de Videocardz ont déjà dévoilé de nombreux éléments qui restent à confirmer comme un prix de 279 dollars pour un GPU TU116 avec 1536 CUDA Cores et 6 Go de GDDR6 (192 bits). Des modèles Galax, Gigabyte, MSI, ou encore Palit ont déjà été exposés, ainsi que le GPU de la bête.
Les premières fuites de performances la placent au niveau de la GTX 1070, actuellement proposée dans les 300 euros. La GTX 1660 Ti devrait donc arriver chez les revendeurs dans les mêmes environs. Pour ce prix, on aura droit à une architecture plus efficace et sans doute légèrement moins gourmande en énergie.
NVIDIA devra néanmoins faire attention avec sa GeForce RTX 2060 proposée à 350/400 euros.
RTX 2060 or not RTX 2060 ?
Car le rapport performances/prix sera analysé de près, en prenant en compte que le GPU est moins coûteux à produire, les unités RT et Tensor (occupant une bonne moitié d'une puce Turing) ayant été retirées. Sans concurrence, le caméléon pourrait être tenté de faire peu d'efforts, ce sera alors au consommateur de lui rappeler ses priorités.
Le succès de la GTX 1660 Ti sera d'ailleurs lui-même intéressant à décortiquer face à celui des RTX 2060. Les joueurs préfèreront-ils économiser quelques euros pour une carte légèrement moins performante, ou miser sur l'avenir avec les unités RT et Tensor, qui pourront avoir leur utilité même hors des jeux vidéo ?
Affaire à suivre...
AMD casse le prix de sa Radeon RX Vega 56
Comme NVIDIA l'avait fait lors du lancement des Radeon VII, AMD a décidé de jouer les parasites. On a ainsi pu voir certaines Radeon Vega 56 passer opportunément sous la barre des 250 euros.
Il ne faudra pas s'étonner de voir le constructeur communiquer plus ouvertement sur le sujet dans les prochaines heures. Surtout que pour ce prix, on a droit à trois jeux offerts.
Reste que, malgré ses 8 Go de HBM2, cette carte a les défauts de sa génération, notamment pour ce qui est de la gourmandise en énergie. Si son rapport performances/prix peut paraître alléchant à court terme, c'est un point qu'il faudra prendre en considération au moment de votre choix.
1660, 1650 : la suite déjà dans les tuyaux ?
En attendant, les fuites ne cessent de se multiplier sur la suite des évènements. On apprend ainsi que NVIDIA pourrait dévoiler des modèles encore plus accessibles. Il est ainsi question de 1660 et 1650 pour le mois prochain, qui viendraient remplacer les actuelles GTX 1060 et 1050 Ti.
Des informations qui restent à confirmer, notamment pour ce qui est de l'utilisation d'une puce TU117 pour le modèle le moins cher. Cela semble néanmoins être la suite logique, notamment pour attaquer le marché PC pour joueur au budget limité d'ici le moment crucial de la rentrée. Une période où AMD pourrait dévoiler Navi.
MX230 et MX250 pour occuper le terrain sur le mobile
Dernières nouveautés en date, déjà évoquées par certains partenaires il y a quelques mois mais désormais officialisées par NVIDIA : les GeForce MX230 et MX250 sur l'entrée de gamme mobile.
On passe ici de Maxwell à Pascal, pour des machines à petit prix où l'intégré AMD/Intel n'est pas jugé suffisant. On s'étonnera d'ailleurs que la MX250 soit donnée pour 3,5x les performances d'un UH620 d'Intel, alors que la MX150 était donnée comme 4x plus performante. Une régression qui, si elle se confirme, serait regrettable.
Malheureusement, NVIDIA ne donne que peu de détails sur ces produits. Un manque de transparence que l'on ne peut que regretter.
Les GeForce GTX 1660 Ti et 1650 se dévoilent, AMD casse les prix
-
La GTX 1660 Ti est déjà là
-
RTX 2060 or not RTX 2060 ?
-
AMD casse le prix de sa Radeon RX Vega 56
-
1660, 1650 : la suite déjà dans les tuyaux ?
-
MX230 et MX250 pour occuper le terrain sur le mobile
Commentaires (30)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 21/02/2019 à 17h43
la RX vega 56, a 250€ c’est une excellente affaire !
Certe elle consomme beaucoup mais c’est tout de même aussi puissant qu’une GTX 1070 (voire meme un peu plus ou une RTX 2060, avec 8Go de VRAM elle est jamais emmerdée pour les grosses textures.
Et puis avec le freesync, ca fait un combo très performant et vraiment moins cher que la concurrence
Si vous pensez que la gourmandise en energie fais pencher la balance “prix” au long terme, je pense que sans se tromper, on peut dire qu’on atteindra “jamais” la neutralité
Calcul vite fait :
85 watt de difference selon Techpowerup
4h par jour a fond : 336Wh de plus par jour
soit 0.04€ par jour
Prix d’une 1070 : 440€ sur lldlc (soit 190€ de plus
egalité atteinte dans : 11 ans (ya 11, le nec plus ultra c’etait…la 9800GTX….ca met le contexte)
Bref, si vous etes sur le marché pour une carte graphique, c’est un excellent choix, genre vraiment
Le 21/02/2019 à 18h57
Après ça semble être un modèle infâme à base de blower.
Faut compter 250€ de plus pour un casque à réduction de bruit active à ce compte là.
Le 21/02/2019 à 19h39
Comme dit au-dessus, le souci vient de la conso/bruit sur ce genre de cartes. Après j’entends l’argument des 8 Go, mais comme on le voit souvent dans la pratique, lorsqu’ils sont exploités, la carte est déjà à genoux pour tout le reste (mais ça reste un argument qui porte facilement, donc utilisé par les services marketing).
Mais chacun est libre de ses critères et de ses choix. Il faut juste éviter de dire d’un tel produit qu’il est un très bon choix sans aucun discernement.
Le 21/02/2019 à 21h59
bonsoir ok les vega sont plus “ bruyantes ” que leurs équivalents nvidia mais de là à dire qu il faut acheter un casque reducteur de bruit c est se moquer du monde, arreter les délires sur le bruit.
j ai une asus 6970 4 go gddr5, je n entend pas le bruit de sont ventilo, j entend le bruit de mon noctua 120 mm qui sert a refroidir mon i7 4790K 4ghz (turbo boost 4,5 ghz desactiver dans le bios ) donc arrêtez le délire que les carte graphique font du bruits y a des composants bien plus bruyants que les cg niveau ventilo, que ce soit ventilo ventirad ou ventilo d alimentation.
Donc calmez vous avec les ventilo de cg parce que là c est un peu comme se plaindre dehors du bruit du vent quand il est a 40⁄60 km et que l’on dit rien quand c est la tempête a plus de 100 km (pr ce qui est du vent je connais bien je suis sur la côte d’albâtre )
Le 21/02/2019 à 23h01
Oui sauf que la c’est un modèle “de référence” AMD, pas de custom , donc une ventilation avec un blower de merde pour une carte qui lache un max de chaleur, c’est clairement très moyen et très bruyant pour en avoir entendu une.
Le 22/02/2019 à 05h30
Certaines cartes graphiques font du bruit, d’autres non. Certaines sont supportables, d’autres non (même si de ce point de vue ça peut dépendre de la tolérance de chacun). Les Vega de référence sont bruyantes.
Après, comme dit dans l’article, c’est un critère à prendre en compte au moment du choix, comme la chauffe. Certains s’en foutront, d’autres pas. Certains seront content d’économiser 50 balles, d’autres préféreront ne pas avoir une carte d’ancienne génération à l’architecture pas toujours au top. D’autres seront émerveillés par la capacité d’avoir 8 Go à côté de leur GPU.
Un achat c’est un choix, on est là pour exposer les différents critères.
PS : si tu es gêné par un 120 mm Noctua, tu as peut être un problème d’encrassage/chauffe sur ton CPU ;)
Le 22/02/2019 à 06h17
Il faut arrêter 5 minutes avec le bruit des cartes graphique.. . La consommation pareil, si quelques watts en plus font que tu peux pas acheter du matos, ça veut juste dire que t’es trop pauvre pour jouer sur pc achète une gameboy basta.
Le 22/02/2019 à 06h52
Mais si tu fonces sur une RX Vega 56 à prix cassé ça veut dire que tu es riche et malin ?
Le 22/02/2019 à 07h21
LA version “airboost” est légèrement meilleure, mais c’est clair que c’est pas une carte silencieuse, et en effet, les “résistance au bruit” différent selon les gens, mais d’un point de vue perf/prix on est vraiment très très bon, si bien que je pense honnêtement que supporter un bruit plus important (la vega 56 c’est pas si pire, la 64, c’est une autre affaire) pour économiser quasiment 200€ (et pas 50 :)), ça me parait “de façon générale” franchement un bon compromis…..
Concernant “l’ancienne génération”, la carte se débrouille excellemment bien sous DX 12 et Vulcain, et a assez de RAM pour activer l’option “texture ultra” sous tous les jeux le seul truc qui manque c’est le ray tracing (qui est encore pour quelques années gimmicky, et DLSS qui est un pétard mouillé.
Le 22/02/2019 à 07h34
Le souci c’est de confondre un choix personnel avec un fait général. Tu peux décider d’avoir le seul perfs/prix comme critère en te moquant du reste. D’autres pourront faire des choix différents. Partir du principe que seule ta position est la bonne est une erreur d’argumentation (concernant Tensor/RT, ne pas oublier que le jeu vidéo n’est pas le seul usage et q’une carte graphique ne sert pas qu’aux joueurs, au passage ;)).
Le 22/02/2019 à 10h18
Ils auraient pu faire un effort et sortir la Geforce GTX1664
Le 22/02/2019 à 12h04
249€ la Vega56, la je suis intéressé …
Le 22/02/2019 à 14h39
Pour avoir acheté cette fameuse MSI Vega56 à 250€, je peu confirmer qu’elle est bruyante, genre vraiment, dès qu’on lance un jeu, la carte passe les 70°C rapidement et le ventilateur commence à envoyer du lourd.
En général, je joue avec un casque donc ce n’est pas gênant, mais sans, c’est franchement désagréable, au repos aucun soucis, on ne l’entend pas.
Je l’ai acheté en connaissance de cause et uniquement car le prix était intéressant, ce n’est pas une carte que je compte garder longtemps, ça me permettra de me faire un avis sur les drivers AMD en attendant Navi qui j’espère viendra bousculer le petit monde des GPU.
Le 22/02/2019 à 15h55
Merci à Inpact Hardware de prendre en compte l’ensemble des critères d’achats dans leurs articles.
Me concernant, le bruit est un critère important. Je sacrifie volontiers quelques images par seconde pour épargner mes oreilles.
Le 22/02/2019 à 16h30
J’ai bien du mal à comprendre l’intérêt de la 1660Ti. En gros, elle offre les perfs d’une 1070, pour grosso modo le même prix qu’une 1070, et sans apporter de nouvelle technologies significative. À part gagner quelques watts, qu’est-ce qu’elle apporte de plus qu’une 1070 déjà dispo depuis des lustres ?
Le 22/02/2019 à 16h47
La 1070 est basée sur Pascal, la 1660 Ti sur Turing, donc avec une archi plus récente et certains avantages liés à ça (moteur vidéo, adaptative shading & co, efficacité, etc.). On a un papier complet là dessus et sur la nouvelle carte ;)
La 1070 n’est à ce prix que parce qu’elle a récemment baissé pour préparer l’arrivée des 1660 Ti et vider les stocks. Elle reste le plus souvent proposée plus chère que 300 euros et elle avait été lancée à 500 euros :
https://www.inpact-hardware.com/article/33/100219-les-geforce-gtx-1070-sont-disponibles-a-partir-499-euros
Après tu es libre de préférer l’ancienne génération à la nouvelle.
Le 22/02/2019 à 16h53
Ce qu’il faudrait, c’est que les tarifs des modèles custom (genre vega56 pulse) soit réajustés, et là, le débat sera plus facile à trancher ;)
Le 22/02/2019 à 16h56
Le but ça reste de vider les stocks des trucs qui ne se vendent pas au tarif normal hein
Le 22/02/2019 à 17h04
A priori AMD a officialisé la baisse de prix, donc pas de raison que les pulse qui sont encore dispos à 350 euros ne soient pas concernées :p
Le 22/02/2019 à 17h09
D’autant plus que la 1070 a 8Go de VRAM
Si je me base sur la consommatoin VRAM de certains jeux récents qui varie entre 4 et 6Go en 1080p, je trouve quand même que 6Go pour la 1660ti c’est mesquin et que cela reste un vrai argument pour la 1070 ou la vega56
Le 22/02/2019 à 17h10
Non, AMD a communiqué sur le modèle évoqué dans l’article et à redit depuis que ce n’était pas une baisse de prix, mais bien un remise sur certains modèles (et donc à durée limitée)
Le 22/02/2019 à 17h20
ok ca m’apprendra à lire cowcotland..
Le 22/02/2019 à 17h25
J’ai pas en tête des cas où une carte de 8 Go fait plus de perfs de manière significative et que ce soit lié à l’occupation mémoire (donc plus important que dans des cas où elle est peu utilisée).
Comme dit plus haut, c’est un argument facile dans le sens où les gros chiffres ça marche toujours sans que personne ne vérifie vraiment l’intérêt, mais le plus souvent abusif (parce que facile). Attention au passage sur la notion de “VRAM utilisée”, et les softs de monitoring qui ne sont pas spécialement précis là dessus et sur ce qu’ils affichent réellement comme info.
L’important c’est les perfs que l’on obtient (un peu comme AMD qui dit que 16 Go c’est utile, mais dans un mode où la Radeon VII fait 17 fps). De mon point de vue, on a plutôt besoin de 8 Go sur des modèles supérieurs, comme les 1070 Ti/1080, et encore dans certains titres et avec certaines définitions.
Comme dit dans l’article d’analyse sur la 1660 Ti, la question se pose sans doute un peu plus pour la 2060, mais NV a sans doute misé sur un coût plus raisonnable, laissant la 2070 8 Go avoir un perf/prix moins avantageux (ce qu’on excuse plus facilement dans cette gamme de prix).
Le 22/02/2019 à 18h39
Avec ma 1080Ti, j’ai pas le souvenir d’avoir vu l’utilisation de VRAM dépasser les 7GB, dans BF5 en 3840x2160 avec les textures en ultra, l’utilisation est en général entre 6 et 6.5GB relevés par GPU-Z ou Afterburner. Sinon, il y a quoi comme outil de monitoring qui serait vraiment précis sur l’utilisation de la VRAM ?
Le 25/02/2019 à 11h53
APrès tout dépend combien de temps on garde son gpu.
il n’y a pas si longtemps que ça on disait que 3go pour la 1060 c’était suffisant, de nos jours on voit très vite la limite…
Donc dans 3/4ans il n’est pas impossible que la différence entre 6⁄8 ressorte.
Le 25/02/2019 à 12h52
D’une 1060 à une 1660, y’a un saut jusqu’à 50% en terme de perfs. Qu’on remonte la mémoire en conséquence n’est pas une mauvaise idée. Le besoin en mémoire n’est pas absolu, il dépend pas mal du jeu, de la définition, des paramètres, etc.
La question c’est : avec des 1060 à même fréquence, on voit vraiment une différence entre le modèle 3 Go et 6 Go aujourd’hui, dans le 1080p pour lequel la carte est prévu ? ;)
Le 25/02/2019 à 12h56
Voilà. C’est bien gentil de dire que sur les jeux sortis fin d’année dernière ça suffit, mais les gens qui achètent des cartes dans cette catégorie de prix n’en changent pas tous les 6 mois. Qu’en sera-t-il dans 1 an, 2 ans, 4 ans voire plus ? Perso je commence seulement maintenant à envisager de changer ma HD 7850 de 2012… je me demande bien ce que vaudront 6Go dans 6-7 ans, sachant que déjà aujourd’hui on a des jeux qui sont pas loin de les consommer en intégralité.
Le 25/02/2019 à 13h08
Le souci c’est de penser qu’une carte achetée aujourd’hui dans les 200⁄300 euros sera dépassée dans 3⁄4 ans à cause de sa mémoire. Le besoin en puissance de calcul évolue plus vite que celui en mémoire. Les cartes qui sont dépassées le sont principalement parce que le GPU n’est pas assez puissant, pas parce qu’ils n’ont pas assez de mémoire.
Le 25/02/2019 à 15h49
@David (le mode citation ne fonctionne pas sous chromium, ma réponse n’apparait pas?)
Il y a une grosse différence de perf sous odysee et star citizen entre une 1060 3go et une 1060 6go. Alors ok la fréquence de la mémoire est inférieure sur une 3go, mais les perfs diminuent quand même de 50% pratiquement (si j’en crois certains tests croisés), quand ça ne devient pas totalement injouable (sous star citizen par exemple) vu le nombre de swap mémoire vers la mémoire interne du pc.
Et je ne pense pas que ça soit les seuls jeux, sur les jeux récents, les 3go de ram sont plus que insuffisant pour jouer en 1080, 6go ça va encore, mais pour combien de temps?
Le 26/02/2019 à 08h45
Vu que le modèle 3Go est légèrement castré (un SM de moins), suffit d’un jeu qui les utilise pas mal ou qui a besoin de plus de 3Go pour fonctionner correctement, et on voit la différence
C’est encore pire avec RE2 remake, si j’active toutes les fonctionnalités graphiques, faut 16Go facile rien que sur la carte graphique