Connexion
Abonnez-vous

NVIDIA signe une année record avec 1,67 milliard de dollars de bénéfices

Géant Vert

NVIDIA signe une année record avec 1,67 milliard de dollars de bénéfices

Le 13 février 2017 à 10h30

À son tour, NVIDIA a dévoilé ses résultats financiers pour le dernier trimestre de son exercice 2017. La marque au caméléon y affiche des chiffres record, grâce à la bonne santé de ses ventes de puces graphiques pour joueurs, mais aussi pour serveurs.

Le millésime 2017 devrait laisser de très bons souvenirs à NVIDIA. Avec le lancement des GeForce série 10xx, de ses initiatives dans le domaine de l'intelligence artificielle, et l'intégration d'une puce Tegra dans la Switch de Nintendo, les bonnes nouvelles se sont enchaînées, et cela se remarque dans les chiffres de vente de l'entreprise. 

Encore un trimestre record

Sur le quatrième trimestre de son exercice fiscal 2017 (terminé le 29 janvier 2017), la marque au caméléon a réalisé un chiffre d'affaires de 2,173 milliards de dollars, battant ainsi le record de 2,004 milliards établi trois mois plus tôt. Sur un an, la progression atteint 55 %, un chiffre que bien des concurrents aimeraient voir sur leurs propres comptes. 

Dans le même temps, NVIDIA est parvenu à faire grimper encore un peu plus sa marge brute, qui atteint désormais 60 %, contre 59 % il y a trois mois et 56,5 % il y a un an. Conséquence directe, le bénéfice net enregistré par la société explose et atteint, 655 millions de dollars sur le seul dernier trimestre, une valeur qui a plus que triplé en l'espace d'un an. 

Sur l'ensemble de l'année, la progression est également très nette. Avec 6,910 milliards de dollars de chiffre d'affaires, la marque au caméléon fait 38 % de mieux que l'an dernier. La marge moyenne sur l'année atteint 59,2 % contre 56,8 % sur l'exercice précédent, tandis que le bénéfice net est multiplié par 2,7, et atteint 1,666 milliard de dollars. 

Pour le prochain trimestre, l'entreprise s'attend à un chiffre d'affaires de 1,9 milliard de dollars, contre 1,3 milliard réalisé l'an passé à la même période. La marge devrait se maintenir autour de 59,5 %, de copieux bénéfices devraient donc suivre. Il sera intéressant de voir comment se portent les ventes de puces Tegra sur les trois prochains mois, afin d'estimer l'impact du lancement de la Nintendo Switch sur les résultats de la marque au caméléon. 

Les GeForce au sommet de leur forme

NVIDIA doit sa bonne santé à ses ventes de GPU, qui ont atteint 1,85 milliard de dollars au dernier trimestre, en hausse de 57 % sur un an, mais également aux ventes de Tegra, qui ont progressé de 64 % sur un an et de 7 % sur trois mois, pour atteindre 257 millions de dollars. 

Dans le détail, ce sont les produits destinés aux datacenters qui enregistrent la plus forte croissance, avec une progression de 205 % sur un an à 296 millions de dollars, grâce notamment au DGX-1, dédié aux travaux sur l'intelligence artificielle. 125 de ces appareils ont récemment été installés dans un supercalculateur, qui se revendique comme étant le plus efficace du monde, énergétiquement parlant.

Nvidia Q4 FY17

Les produits liés au gaming (gamme GeForce) ont quant à eux vus leurs ventes grimper de 66 % sur un an pour atteindre 1,348 milliard de dollars. La gamme Quadro n'a pendant ce temps progressé que de 11 % avec des ventes s'établissant à 225 millions de dollars. La branche automobile enfin, continue de prendre de l'importance avec une croissance de 38 % sur l'année et un chiffre d'affaires de 128 millions de dollars au dernier trimestre.

NVIDIA reste Zen

Ces copieux bénéfices ont permis à NVIDIA de garnir un peu plus ses réserves de liquidités, qui s'élèvent désormais à 6,8 milliards de dollars, contre 5 milliards il y a tout juste un an. Pendant ce temps, l'entreprise a tout de même souscrit cette année à 2 milliards de dollars de dettes, afin de se débarrasser d'un autre emprunt, payable en actions cette fois-ci. 

En bourse, la marque au caméléon a subi une baisse de 2,4 % de la valeur de son action lors de la séance qui a suivi la présentation de ses résultats trimestriels. L'entreprise reste néanmoins valorisée à près de 60 milliards de dollars, après avoir connu une hausse de 341 % sur les 12 derniers mois.

Commentaires (61)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Vu la marge, logique. Et avec tt ce pognon ils ne savent tj pas mettre a jours l’interface des options graphiques avancé??? qui est lente (très lente)

votre avatar

Avec un net avantage en parts de marché et en l’absence de concurrence sur le haut de gamme depuis l’été 2016, c’est plutôt logique.

votre avatar







kurgan187 a écrit :



Vu la marge, logique. Et avec tt ce pognon ils ne savent tj pas mettre a jours l’interface des options graphiques avancé??? qui est lente (très lente)





Et aussi vu la qualité du produit…



Par contre, il serait en effet temps de toucher a l’interface des pilotes… elle est ignoble et lente. 


votre avatar

En même temps si on veut une CG potable pour quelques années il faut vendre un rein de nos jours.

votre avatar







ITWT a écrit :



Leur dernière lubie d’obliger à être connecté (identifié) dans l’interface pour avoir accès aux fonctionnalités m’insupporte passablement.





Pas faux! Dans “Gforce experience” si tu veux pomper le dernier pilote on s’en fout de la connexion. On ne pompe pas des pilotes juste pour les collectionner. Mis à  part quelque geeks visiblement dérangés qui le feraient; ça ne risque pas de mettre par terre un seul serveur…



Coté développement ça grince un peu aussi. Autant de pognon en stock et pas vraiment d’amélioration dans les soft (notamment Linux) c’est un peu léger. Quand le support grince ça finira par coincer. L’avantage pour Linux étant de se passer du pilote “nouveau” et de pouvoir faire tourner le CUBE Compizien grâce aux fonctions 3D évolués. Et d’utiliser les outils de rendu supportant CUDA évidement (Blender).

 

Bref rien de catastrophique mais bon voila. Pour une entreprise bien bénéficiaire on pouvait s’attendre à une feuille sans tache. Ce n’est pas le cas.

 

 


votre avatar

Vu que même dans le milieu et bas de gamme ils ont une offre solide tant en terme de prix que performance avec leur référence 10x0, rien d’étonnant.

On peut supposer que la bonne forme des Tegra est du à la Switch en attendant les ventes définitive.

votre avatar







tazvld a écrit :



Surtout, la gamme X80 n’a pas beaucoup d’intérêt, c’est un très mauvais rapport puissance/prix, elle sera plus vite dépassé par les génération suivante pour beaucoup moins cher.

et mieux vaudra taper dans la carte de gamme inférieur.





Ouais enfin on disait la même sur la gamm  9XX parce que la finesse de gravure allait changer, c’est tout le temps la même rengaine, évidemment que la gamme X80 sera dépassée par la prochaine mais faut pas non plus s’attendre à des gains supérieurs à 30% ce qui restera toujours insuffisant pour jouer en ultra 4K 60fps.



Donc deux points, le premier c’est que le nombre de joueurs qui utilise cette résolution est marginal, ils ne représentent rien pour le moment, le 1080p reste et restera encore longtemps la résolution de référence et les joueurs qui tapent au dessus sont plutôt sur du 1440p et actuellement une carte de la gamme X80 suffit largement à tenir l’ultra dans cette résolution sans concession sans avoir à recourir au multi gpu.

 

Donc la gamme X80 est la première qui en mono gpu permet de jouer confortablement et sans concession en 1440p, elle n’est donc pas un mauvais rapport puissance/prix pour ceux qui jouent dans ces conditions.



Il est évident que ceux qui jouent en 4k doivent attendre encore au moins 2 ou 3 générations pour être tranquilles (conjugaison de la résolution mais aussi de l’évolution graphique des jeux).



Donc non la gamme X80 ne sera pas plus vite dépassée que les autres, absolument pas, elle fera comme les autres, c’est surtout lors d’un saut de finesse de gravure qu’ilrest urgent d’attendre.



Personnellement je suis un joueur high end, j’ai une titan X pascal Watercoolée et OC, je peux te dire que la prochaine génération ne la fera pas rougir de honte sans me tromper, si elle prend 10% dans la vue c’est le bout du monde et même si elle m’a couté un rein c’est un excellent investissement pour les quelques années à venir.



De toute façon vu l’optimisation en mousse des jeux c’est pas le GPU qui limite, quand je vois la gueule d’un jeu comme dishonored 2 ou Deus Ex mankind divided qui arrive à avoir des drops de fps en 1080p sur ma config j’ai envie de dire que même dans 10 générations tu auras toujours des jeux foutus de ramer en 4k tellement les devs sont parfois des feignasses (plus tu leur donne de puissance moins ils se font chier pour l’optimisation).


votre avatar

C’est bien, avec tout ce pognon ils vont peut-être pouvoir recruter des développeurs capables de coder une version de GameStream sans fuite de mémoire…

votre avatar

Si tu veux des prix intéressants faut pas acheter chez ASUS/MSI/etc faut regarder du côté des marques qui changent presque rien sur le GPU de base et là tu as des tarifs pas trop élevés.



Comme ici

votre avatar







Aces a écrit :



je comprends mieux ton point de vu et je suis assez d’accord.



Puisqu’on est dans NVidia (rien de sale), c’est normal que le pilote Nividia me fout certains jeux en résolution de con (2715*1527) alors que mon écran est un simple 1080p ???



Alors j’ai remi en 1080 mais bon, ça surprend quand on ne s’y attend pas !







Oui, on appelle ça le DSR. Le jeu est calculé dans une résolution plus haute mais rendu à la résolution de ton écran. Ça enlève souvent un peu d’aliasing alors s’ils te le conseille fait le. Ça me le fait sur pas mal d”anciens jeu” Borderlands 2, Batman Arkham Origins et même sur FIFA 17. C’est un petit plus appréciable.


votre avatar

Ils donnent une raison pour la large augmentation des revenus pour les cartes gaming? Q2 FY17 a Q3 et Q4 est impressionant

votre avatar

J’ai hâte à la prochaine version.



Ma GTX 1070 fait très bien en 4k, mais elle aimerait pouvoir souffler un peu.



Vivement la GTX 1170.

votre avatar







domFreedom a écrit :



<img data-src=" /> Entre 150€ et 300€ tu as tout ce qu’il te faut pour être tranquille un moment !

Ca a toujours été les tarifs des CG mainstream, niquel pour jouer “toutafon” en 1080p.

Sur des résolutions plus exigeantes, là faudra envisager la location d’organes… <img data-src=" />





A condition d’enlever le MSAA et encore. Avec ma 1070 GTX,&nbsp; je peine à maintenir le 1080p@60fps sur le dernier Deus Ex en mode “max”.



Les développeurs n’optimisent plus rien.


votre avatar







Moebius13100 a écrit :



Ouais enfin on disait la même sur la gamm &nbsp;9XX parce que la finesse de gravure allait changer, c’est tout le temps la même rengaine, évidemment que la gamme X80 sera dépassée par la prochaine mais faut pas non plus s’attendre à des gains supérieurs à 30% ce qui restera toujours insuffisant pour jouer en ultra 4K 60fps.



Donc deux points, le premier c’est que le nombre de joueurs qui utilise cette résolution est marginal, ils ne représentent rien pour le moment, le 1080p reste et restera encore longtemps la résolution de référence et les joueurs qui tapent au dessus sont plutôt sur du 1440p et actuellement une carte de la gamme X80 suffit largement à tenir l’ultra dans cette résolution sans concession sans avoir à recourir au multi gpu.

&nbsp;

Donc la gamme X80 est la première qui en mono gpu permet de jouer confortablement et sans concession en 1440p, elle n’est donc pas un mauvais rapport puissance/prix pour ceux qui jouent dans ces conditions.



Il est évident que ceux qui jouent en 4k doivent attendre encore au moins 2 ou 3 générations pour être tranquilles (conjugaison de la résolution mais aussi de l’évolution graphique des jeux).



Donc non la gamme X80 ne sera pas plus vite dépassée que les autres, absolument pas, elle fera comme les autres, c’est surtout lors d’un saut de finesse de gravure qu’ilrest urgent d’attendre.



Personnellement je suis un joueur high end, j’ai une titan X pascal Watercoolée et OC, je peux te dire que la prochaine génération ne la fera pas rougir de honte sans me tromper, si elle prend 10% dans la vue c’est le bout du monde et même si elle m’a couté un rein c’est un excellent investissement pour les quelques années à venir.



De toute façon vu l’optimisation en mousse des jeux c’est pas le GPU qui limite, quand je vois la gueule d’un jeu comme dishonored 2 ou Deus Ex mankind divided qui arrive à avoir des drops de fps en 1080p sur ma config j’ai envie de dire que même dans 10 générations tu auras toujours des jeux foutus de ramer en 4k tellement les devs sont parfois des feignasses (plus tu leur donne de puissance moins ils se font chier pour l’optimisation).





100% d’accord !


votre avatar







code a écrit :



sa veux Dire que Orange ou meme Free gagne plus , autant etre operateur





waouh…


votre avatar

Au moins trois : GTX 1080, GTX 1070, GTX 1060.

votre avatar

Alors qu’il leur suffirait de vendre des iPhone pour faire plein de pognon ! Qu’ils sont bêtes !

votre avatar

Ils n’avaient aucune nouvelle carte en FY 2016?

votre avatar

Je confirme. Je me suis pris une 1060 (version 6Go) à moins de 300euros et c’est largement suffisant pour tout bouffer en 1080/ultra/60fps sur tous les jeux.

votre avatar

D’après les tests, un SLI de 1080 fait tourner tous les jeux en 4K 60fps (à part, peut être, quelques exceptions mal codées pour le SLI), devant la titan X. Du coup je suis assez curieux de l’intérêt d’une titan X, coutant le même prix qu’un SLI de 1080, pour 10 à 30% de fps en moins en 4K.

&nbsp;

Après je n’ai jamais eu l’occasion de tester une config bi-gpu.

votre avatar

Ok.

votre avatar







Patch a écrit :



La 1060 3Go castrée <img data-src=" />



Certe, mais&nbsp;3Go suffit pour tous les jeux en&nbsp;1080p. C’est un super rapport qualité/prix, mais qui n’est pas du tout là pour monter une config très haut de gamme.





Moebius13100 a écrit :



Après 5 ans en bi-gpu je peux donc t’affirrmer qu’il y a plus d’inconvénients que d’avantages hélas.

Il y a de moins en moins de jeux qui prennent en charge le multi-gpu, il y a une latence perceptible, le scaling est très aléatoire sans parler de la chauffe et du bruit.



A 15% de perfs de différence je choisi le mono gpu, et c’est pas de gaieté de coeur parce que je suis du genre no limit sur mon matos, mais avec Direct X12 qui lorsqu’il est exploité ne prend presque jamais en charge le multi-gpu j’ai laissé tomber.&nbsp;

&nbsp;&nbsp;&nbsp;&nbsp;



Merci pour ton retour d’experience, je vais donc&nbsp;passer à une 1080 plutôt qu’un SLI de 1070.





wagaf a écrit :



J’ai un écran 4K et une 970 et les jeux auxquels je joue tournent tous à 60 FPS. Certes pas les derniers blockbusters avec tout au max (on parle de Talos Principle, Portal 2, Borderland 2, Civ V, Civ IV…).



On peut profiter de la 4K même sans prendre le plus haut de gamme ni même sans prendre la dernière génération (ça l’était quand j’ai pris la mienne).





Une 970 est très correcte, mais effectivement quand je parle de 4K, je parle avec les réglages à fond, car pour moi c’est ce qui a le plus de sens. Mais de toute façon ça dépend des jeux. Si tu joues à CS GO, tu pourras jouer en 4K avec une carte graphique de merde, car sur ce jeu c’est le CPU qui limitera. Quand on regarde les tests des cartes graphiques, c’est sûr des jeux récents, et en 4K c’est toujours avec les réglages&nbsp;à fond. Personnellement c’est là dessus que je me base pour estimer si la 4K passe ou est limite.


votre avatar







t0FF a écrit :



Certe, mais 3Go suffit pour tous les jeux en 1080p. C’est un super rapport qualité/prix, mais qui n’est pas du tout là pour monter une config très haut de gamme.



Tant qu’à faire, autant rajouter 20-30€ pour prendre une RX480 8Go plus performante (avec l’amélioration des pilotes elle fait maintenant jeu égal avec la 1060 6Go), et qui aura un peu plus de RAM pour dans 2-3 ans (et un meilleur suivi des pilotes aussi <img data-src=" /> )…


votre avatar







Moebius13100 a écrit :



De toute façon vu l’optimisation en mousse des jeux c’est pas le GPU qui limite, quand je vois la gueule d’un jeu comme dishonored 2 ou Deus Ex mankind divided qui arrive à avoir des drops de fps en 1080p sur ma config j’ai envie de dire que même dans 10 générations tu auras toujours des jeux foutus de ramer en 4k tellement les devs sont parfois des feignasses (plus tu leur donne de puissance moins ils se font chier pour l’optimisation).







C’est aussi pour ça que je me paie pas le top du top en config de jeu, même si je peux.



Quand j’ai testé la démo (oui oui, je dis démo car c’est exactement ce que c’est) de Ghost Recon Wildlands, et que j’ai vu sur les forums techniques que des gens avec, comme toi, une putain de Titan X, n’arrivaient pas à tenir 60 FPS en 1080p…ça m’a fait halluciner.



A cause de cela, je me vois pas du tout dépenser 3-4k€ dans une config de jeu ultra haut de gamme, malgré le fait que le jeu PC est quelque chose que j’adore.


votre avatar







Krutors a écrit :



C’est aussi pour ça que je me paie pas le top du top en config de jeu, même si je peux.



Quand j’ai testé la démo (oui oui, je dis démo car c’est exactement ce que c’est) de Ghost Recon Wildlands, et que j’ai vu sur les forums techniques que des gens avec, comme toi, une putain de Titan X, n’arrivaient pas à tenir 60 FPS en 1080p…ça m’a fait halluciner.



A cause de cela, je me vois pas du tout dépenser 3-4k€ dans une config de jeu ultra haut de gamme, malgré le fait que le jeu PC est quelque chose que j’adore.





C’était une bêta fermée, bêta ça veut bien dire ce que ça veut dire.

Une démo c’est une partie du jeu “final” jouable gratuitement.

Une bêta c’est le jeu tel qu’il est pensé et construit par les développeurs, qui est bourré de bugs qu’ils n’ont pas prévus (en théorie), qui permet à des joueurs de découvrir un maximum de ces bugs et d’aider l’équipe du jeu, tout ça gratuitement (et il y a eu un moment où les joueurs payaient pour ça…), avant la sortie officielle.

Les pilotes peuvent être la raison de soucis de performances aussi.



La bêta de Battlefield 3 c’était un sketch, on a bien ri. Le jeu final après ne serait-ce que 2 semaines après la sortie était parfaitement jouable et jouissif.

Si tu veux une démo faudra patienter jusqu’à la sortie du jeu et espérer que l’équipe ait corrigé les aberrations et prétende pouvoir vendre des copies en permettant aux septiques de tester le produit final.



Après il y a des jeux développés avec le maximum de filtres et d’effets existants, les mecs sont conscients qu’il faut une machine de guerre pour profiter du maximum mais ça se désactive fort heureusement, il suffit de regarder Crysis 3, The Division, The Witcher 3, Metro 2033, y a pas mal de trucs qui renforcent l’immersion mais qui mettent à mal les GPU et rendent le jeu injouable pour le commun des mortels si tout est à fond dans les graphismes.


votre avatar







[_Driltan_ a écrit :



]

4k en 120Hz j’espère. Non, parce que j’ai lu passionné. <img data-src=" />







Je crois pas qu’il y ait des TV 4k qui accepte le 120 Hz (plusieurs ont bien des panneaux 120 Hz mais s’en servent uniquement pour du motion processing .)



Du moins pas en OLED comme ma TV


votre avatar







t0FF a écrit :



Certe, mais 3Go suffit pour tous les jeux en 1080p.





Pas vraiment non, X-Plane est capable de t’atomiser la limite des 3Go même en 1024x768 si tu pousses un peu trop loin les options graphiques et la qualité/niveau de détail des textures, et j’imagine que c’est loin d’être le seul.


votre avatar

J’ai joué 5 ans sur une 6850 1go, je l’ai changé il y a un mois. J’ai toujours joué en&nbsp;1080p (et en ayant un deuxième 1080p).

Après bien sûr, il faut avoir des réglages cohérent, mais tant que je touchait pas à l’anti aliasing, ça passait.&nbsp;Ca n’a pas de sens de jouer en basse résolution avec l’anti aliasing, ça prendra plus de ressource que&nbsp;de monter en résolution, pour un résultat visuel moins bon. L’anti-aliasing&nbsp;n’a de sens que quand on est déjà à la résolution max de l’écran.

Je n’ai jamais essayé X-plane, mais j’ai essayé&nbsp;une grosse&nbsp;majorité des jeux multi qui passait.

&nbsp;

votre avatar







von-block a écrit :



Je crois pas qu’il y ait des TV 4k qui accepte le 120 Hz (plusieurs ont bien des panneaux 120 Hz mais s’en servent uniquement pour du motion processing .)



Du moins pas en OLED comme ma TV





Effectivement il n’y a pas l’air d’y avoir de 120hz natif dans l’immédiat dans le commerce. :(

Dommage parce qu’un vieux jeu (de 20102014) pourrait facilement tourner à + de 100hz sans avoir besoin d’un high end GPU.

Et quand on a goûté au 120/144hz c’est compliqué de tenir en 60hz.


votre avatar







gogo77 a écrit :



En même temps si on veut une CG potable pour quelques années il faut vendre un rein de nos jours.







<img data-src=" /> Entre 150€ et 300€ tu as tout ce qu’il te faut pour être tranquille un moment !

Ca a toujours été les tarifs des CG mainstream, niquel pour jouer “toutafon” en 1080p.

Sur des résolutions plus exigeantes, là faudra envisager la location d’organes… <img data-src=" />


votre avatar

C’est clair que l’interface des pilotes est un peu vieillotte.



Autre phénomène qui me laisse mi-figue mi-raisin sur la generation Pascal, c’est le bug affectant les GTX 1080 en mode compute.

En effet une GTX 1070 vient mettre une fessé à une 1080 pour une raison encore inexpliqué. Si quelqu’un à une explication. Du coté de nVIDIA cela fait 6 mois que c’est silence radio.

votre avatar

Une cg c’est un investissement, tu la garde pendant minimum 3-4 ans, j’ai changer la mienne apres 4ans, et celle d’avant apres 5 ans.

Et comme a dit @domFreedom, entre 150 et 300e tu as vraiment une bonne cg ‘potable’ !



Il faut pas mettre toutes les cg dans le meme sac, la 1080 est vraiment high end par exemple. T’as pas vraiment besoin de ca pour etre peignard pendant un moment, une 1060 ou meme la 480 est suffisante.

votre avatar

La 1060 est à 200€ neuve, et permet de faire tourner tous les jeux en full hd, avec tous les graphismes à fond.

Après si tu veux du 144fps ou de la 4K, alors là&nbsp;oui il faut y mettre le prix (1070 pour 144fps à 400€, et 1080&nbsp;à 650€ pour la 4K).

votre avatar







DacK1 a écrit :



Et aussi vu la qualité du produit…



Par contre, il serait en effet temps de toucher a l’interface des pilotes… elle est ignoble et lente.







Leur dernière lubie d’obliger à être connecté (identifié) dans l’interface pour avoir accès aux fonctionnalités m’insupporte passablement.


votre avatar

Ce qui a&nbsp;peut être changé, c’est que les écrans ont l’air de&nbsp;&nbsp;prendre de l’avance sur les cartes graphiques.&nbsp;

Le&nbsp;120hz et 144hz se démocratise pas mal, et&nbsp;des écrans 4K sortent alors que la&nbsp;CG la plus&nbsp;haut de gamme est vraiment limite pour cette définition.&nbsp;&nbsp;











ITWT a écrit :



Leur dernière lubie d’obliger à être connecté (identifié) dans l’interface pour avoir accès aux fonctionnalités m’insupporte passablement.





Juste pour le GeForce experience, qui franchement ne sert pas à grand chose, je l’ai virer assez vite.


votre avatar

Pour le 1080p, non, pas besoin.

J’ai un PC portable équipé d’une GTX980M qui a un peu plus de 2 ans et ça tourne tout à fond dans les jeux en 1080p.

votre avatar







Aces a écrit :



Pour le 1080p, non, pas besoin.

J’ai un PC portable équipé d’une GTX980M qui a un peu plus de 2 ans et ça tourne tout à fond dans les jeux en 1080p.





Je suis assez d’accord… Ce qui coûte un rein, c’est de vouloir jouer dans la cours des grands, en HCG, aux titres du moment. Et, dans ce cas, la CG n’est pas forcément le composant le plus cher de la conf.



En 1080, sur des titres pas trop récents (je passe beaucoup de temps sur diablo III, pour situer), ma Gigabyte GTX 750 Ti OC 2GI à 110€ me suffit amplement… D’autant que c’est une version grands ventilo donc silence donc parfaite aussi en mode htpc.


votre avatar

Ça manque de concurrence les CG depuis quelques années non ? J’ai pas de chiffres mais à part le marché des consoles qui leur reste acquis, je suppose qu’AMD n’a plus grand chose.

&nbsp;

Sinon j’hésitais à changer ma 770 mais quand j’ai vu les prix, j’ai hurlé <img data-src=" />



Ça attendra, mon gros doigt de pied gauche n’a pas encore trouvé preneur sur le bon coin.

votre avatar

sa veux Dire que Orange ou meme Free gagne plus , autant etre operateur

votre avatar

Essaye de trouver une 970 d’occas qui donnerais un coup de boost au pc sans trop ce ruiner. Pour le haut de gamme amd,cette année (vega) le milieu de gamme (rx 480) dispo depuis l’année dernière.

votre avatar







Aces a écrit :



Pour le 1080p, non, pas besoin.

J’ai un PC portable équipé d’une GTX980M qui a un peu plus de 2 ans et ça tourne tout à fond dans les jeux en 1080p.







Je parle surtout des prix par gamme en fait. Je sais que je n’ai pas besoin d’une 1080 pour jouer en 1080p. Sur ma précédente config où j’avais investi dans une 770 4GB sans me souvenir du prix exact je sais que j’étais plus entre 300€ et 350€ que entre 400€ et 500€ pour une 1070 aujourd’hui.



J’ai envie de dire encore heureux que les CG que je peux acheter plusieurs années après peuvent faire la même chose que ma 770 dans une gamme inférieure. Bref ce que je veux dire c’est que là où j’avais une expérience plutôt “haut de gamme” pour l’époque avec moins de 350€ aujourd’hui tu as juste une expérience que je considère simplement confortable en 2017


votre avatar

Y’avait de bonnes promos à l’occaz des fêtes.



Mais après c’est vrai que les gammes GTX 10XX sont très chères et augmentent à chaque fois..



On a un peu l’impression de se retrouver avec le phénomène Iphone qui consiste à rajouter 200€ de plus à chaque sortie de nouvelle gamme …

votre avatar

je comprends mieux ton point de vu et je suis assez d’accord.



Puisqu’on est dans NVidia (rien de sale), c’est normal que le pilote Nividia me fout certains jeux en résolution de con (2715*1527) alors que mon écran est un simple 1080p ???



Alors j’ai remi en 1080 mais bon, ça surprend quand on ne s’y attend pas !

votre avatar







kurgan187 a écrit :



Vu la marge, logique. Et avec tt ce pognon ils ne savent tj pas mettre a jours l’interface des options graphiques avancé??? qui est lente (très lente)





Ou de corriger shadowplay, ou d’améliorer la qualité de l’encodage. Après de source sure, plus tu est riche moins tu en branle surtout si tu à le monopole.&nbsp;

&nbsp;

&nbsp;



t0FF a écrit :



Ce qui a&nbsp;peut être changé, c’est que les écrans ont l’air de&nbsp;&nbsp;prendre de l’avance sur les cartes graphiques.&nbsp;

Le&nbsp;120hz et 144hz se démocratise pas mal, et&nbsp;des écrans 4K sortent alors que la&nbsp;CG la plus&nbsp;haut de gamme est vraiment limite pour cette définition.



&nbsp;

A un moment donné il va y avoir une génération bâtarde juste pour pouvoir suivre sur du 4k c’est clair. Concernant le GFE c’est devenu une usine à gaz pour trouver les réglages et le pire c’est le forcing pour créer un compte sur le forum nvidia. Du coup mon premier post à été de raler à propos de ça <img data-src=" />


votre avatar







SuperNarco a écrit :



Une cg c’est un investissement, tu la garde pendant minimum 3-4 ans, j’ai changer la mienne apres 4ans, et celle d’avant apres 5 ans.

Et comme a dit @domFreedom, entre 150 et 300e tu as vraiment une bonne cg ‘potable’ !



Il faut pas mettre toutes les cg dans le meme sac, la 1080 est vraiment high end par exemple. T’as pas vraiment besoin de ca pour etre peignard pendant un moment, une 1060 ou meme la 480 est suffisante.





Surtout, la gamme X80 n’a pas beaucoup d’intérêt, c’est un très mauvais rapport puissance/prix, elle sera plus vite dépassé par les génération suivante pour beaucoup moins cher.

et mieux vaudra taper dans la carte de gamme inférieur.


votre avatar

D’après les premières rumeurs ça ne va qu’être un refresh et il faudra attendre l’année prochaine pour de la vraie nouveauté (comme chez Intel avec leur Kaby Lake en fait)…

votre avatar

Les séries 900, mais process en 28 nm, les puces étaient grosses et coûteuses à produire, et peu d’évolution par rapport aux séries 700.

votre avatar

ok<img data-src=" />

votre avatar

Tu aurais pris une 1070 ou un 1060 à la place et tu l’aurais changé lorsque le besoin s’en aurait fait ressentir, ça n’aurait pas été plus économique ? Au prix de ta Titan, tu aurais pu changer 4 fois de GTX 1060 et 3 fois de GTX 1070 (enfin, si l’on reste dans la gamme de prix).



Quand je dit dépassé, je parle en terme de prix aussi.



Je ne dis cependant pas que ça n’a pas d’intérêt, juste que les intérêts sont très limité et pour la majorité des personne, il est mieux de tapé sur une gamme inférieur qui lui sera plus économique. En effet, ça a un intérêt si tu as besoin de cette puissance aujourd’hui.





Les jeux “rament” car, plus tu leur donnes de puissance, plus les dev sont tenté d’abuser de celle-ci, en activant en particulier plein d’effet qu’il ne maîtrise pas totalement.

J’étais par exemple tombé sur un dossier qui montrait comment la tessellation (technologie qui permet d’ajuster à la volé le niveau de détail du maillage d’un modèle 3D) était utilisé et qui montrait que trop souvent, elle ne servait que sur des détails insignifiants pour lequel une normal map (une technique d’optimisation permettant de réduire grandement le nombre de polygone d’un modèle mais en conservant quand même l’illusion de relief fin) aurait largement fait l’affaire.



Ensuite, une grandes partie de l’optimisation, ce n’est pas vraiment les dev du jeu qui sont responsable, c’est les dev du moteur de jeux. Comme dit plus haut, le moteur Source était à sa sortie l’un des moteur de jeu les plus impressionnant de sa génération, il permettait de faire tourner HL2 sur des config très modeste. Mais aujourd’hui, il n’est pas adapté aux normes actuelles, à coté d’un Unreal Engine 4, il fait palle figure.



En entre les 2, il y a aussi tous ce qui est modélisation 3D et game design. Malheureusement, pour les artistes, il faut savoir jongler entre détails et nombre de polygone, il y a certe des technique cité plus haut permettant de presque avoir les 2 en même temps, mais ça reste du travail, ça ne se fait pas automatiquement, il ne faudrait pas, par exemple qu’une articulation parte en vrille. Dans la même lignée, il faut faire particulièrement attention lors du développement des niveaux d’un jeu, du nombre des ennemis…, que l’on de dépasse pas une certaine limite. A l’époque des console 8 et 16bit, il y avait par exemple une limite de sprite affichable à l’écran (ainsi qu’une limite de sprite sur une même ligne). Les mondes étaient alors pensé pour éviter qu’un joueur normal dépasse cette limite (bon, derrière, ça à permis de faire des game abuse en speed run pour éviter que des ennemis apparaissent). Mais aujourd’hui, les jeux sont beaucoup plus grand mais aussi beaucoup plus ouvert (beaucoup moins scripté) qu’il est très difficile de tout prévoir.

votre avatar







t0FF a écrit :



La 1060 est à 200€ neuve, et permet de faire tourner tous les jeux en full hd, avec tous les graphismes à fond.

Après si tu veux du 144fps ou de la 4K, alors là oui il faut y mettre le prix (1070 pour 144fps à 400€, et 1080 à 650€ pour la 4K).



La 1060 3Go castrée <img data-src=" />


votre avatar







Obidoub a écrit :



Avec un net avantage en parts de marché et en l’absence de concurrence sur le haut de gamme depuis l’été 2016 2014, c’est plutôt logique.





<img data-src=" />

&nbsp;



SuperNarco a écrit :



Une cg c’est un investissement, tu la garde pendant minimum 3-4 ans, j’ai changer la mienne apres 4ans, et celle d’avant apres 5 ans.





Ça dépend de chacun, certains la gardent moins longtemps que ça. Et les prix sur le très haut de gamme s’est vraiment envolé, auparavant peux de cartes dépassaient les 600€, les bi-GPU mis à part.



&nbsp;





Ellierys a écrit :



Au moins trois : GTX 1080, GTX 1070, GTX 1060.





J’en vois une quatrième : Polaris <img data-src=" />

&nbsp;





t0FF a écrit :



D’après les tests, un SLI de 1080 fait tourner tous les jeux en 4K 60fps (à part, peut être, quelques exceptions mal codées pour le SLI), devant la titan X. Du coup je suis assez curieux de l’intérêt d’une titan X, coutant le même prix qu’un SLI de 1080, pour 10 à 30% de fps en moins en 4K.

&nbsp;

Après je n’ai jamais eu l’occasion de tester une config bi-gpu.





Une config Bi-GPU, c’est au mieux 80% de perfs en plus qu’un seul GPU, et au pire…0%

Ajouté à ça des petits bugs et devoir attendre la sortie de pilotes optimisés pour profiter d’un nouveau jeu. Le mono GPU est beaucoup plus facile à l’usage :)

&nbsp;





tazvld a écrit :



Surtout, la gamme X80 n’a pas beaucoup d’intérêt, c’est un très mauvais rapport puissance/prix, elle sera plus vite dépassé par les génération suivante pour beaucoup moins cher.

et mieux vaudra taper dans la carte de gamme inférieur.





Oui et non. Il est vrai qu’elle est proposé à un tarif rarement atteint pour un GPU haut de gamme, mais c’est aussi le produit les plus abordable du marché pour jouer en 1440p tout à fond ou titiller là 4k (la TItan X psacal étant hors concours).

Une version Ti un poil plus cher (~800€) pourrait représenter un meilleur rapport Q/P, mais en l’absence de concurrence sur le créneau, NV ne va pas de précipiter pour la sortir.


votre avatar







Charly32 a écrit :



J’en vois une quatrième : Polaris <img data-src=" />.





Bah techniquement, AMD a repris des parts de marché avec Polaris. Pas sur le haut de gamme, mais ça les aide déjà pas mal <img data-src=" />


votre avatar







Ellierys a écrit :



Bah techniquement, AMD a repris des parts de marché avec Polaris. Pas sur le haut de gamme, mais ça les aide déjà pas mal <img data-src=" />





Ils ont tout de même survendu leur truc, pour finalement être franchement derrière NV en terme d’efficacité énergétique et avec moins de latitude que prévu : nVidia a très vite décliné les 1060 avec une tarification agressive et dans un second temps a proposé les 1050/1050Ti. Finalement la 470 est dans le spot le plus intéressant hors promotions.

Donc avec un produit moins convaincant techniquement, sans gros avantage d’un point de vue tarification, ajouté aux casseroles que traine AMD (leur réputation sur les pilotes leur colle à la peau, l’histoire des la conso hors spec des 480), nVidia n’a finalement pas concédé grand chose, et la remontée d’AMD commence à flancher.

J’ai pas trouvé de chiffres précis sur leurs objectifs avec Polaris, ni sur le segment concerné, mais je ne serais pas étonné si les ventes de polaris étaient en deçà de leurs espérances.



Puis bon, j’essaie de cacher le fait que je suis un fanboy des rouges <img data-src=" />

&nbsp;


votre avatar

Je pense que je vais reformuler ma phrase :

la gamme X80 n’est pas un bon investissement pour le long terme.



En effet pour la grande majorité des joueurs, les cartes dans les gammes des x60 voir x70 (ainsi que les déclinaison Ti) sont largement suffisante pour la génération courante de jeux vidéo, et se défendent très bien sur le long terme tout en ayant un prix correct (par rapport au très haut de gamme).

Le gain de puissance de la gamme X80 ne garantie pas de tenir beaucoup plus longtemps que les gamme X60 et X70.



L’intérêt d’une X80 est, comme tu le dis, lorsque tu as besoin de ce surplus de puissance dans l’immédiat.


votre avatar

Ah oui en effet je comprend mieux :)

Je pense aussi que le “acheter du très haut de gamme pour changer moins souvent” n’est pas forcement le plus rentable financièrement, le rapport perf/prix étant de plus en plus mauvais à mesure que l’on monte en gamme. Je me suis toujours dit qu’il faudrait que je fasse l’exercice, de comparer du matos “moyen” vs “haut” de gamme sur la durée, pour voir si effectivement le “haut” durait bien plus longtemps :p

votre avatar

Cela aura surtout été l’année de l’absence d’amd!



Pour les cg, je commence à avoir le réflexe LBC, en ce moment, y a de la 980 founders edition a 150€ ;-)



Des que je trouve une 1080 sous les 400 roro, je switche la mienne (le 1440p, meme avec gsync, ça demande enfait !!!)

votre avatar

J’ai un écran 4K et une 970 et les jeux auxquels je joue tournent tous à 60 FPS. Certes pas les derniers blockbusters avec tout au max (on parle de Talos Principle, Portal 2, Borderland 2, Civ V, Civ IV…).



On peut profiter de la 4K même sans prendre le plus haut de gamme ni même sans prendre la dernière génération (ça l’était quand j’ai pris la mienne).

votre avatar







t0FF a écrit :



D’après les tests, un SLI de 1080 fait tourner tous les jeux en 4K 60fps (à part, peut être, quelques exceptions mal codées pour le SLI), devant la titan X. Du coup je suis assez curieux de l’intérêt d’une titan X, coutant le même prix qu’un SLI de 1080, pour 10 à 30% de fps en moins en 4K.

&nbsp;

Après je n’ai jamais eu l’occasion de tester une config bi-gpu.





Après 5 ans en bi-gpu je peux donc t’affirrmer qu’il y a plus d’inconvénients que d’avantages hélas.

Il y a de moins en moins de jeux qui prennent en charge le multi-gpu, il y a une latence perceptible, le scaling est très aléatoire sans parler de la chauffe et du bruit.



A 15% de perfs de différence je choisi le mono gpu, et c’est pas de gaieté de coeur parce que je suis du genre no limit sur mon matos, mais avec Direct X12 qui lorsqu’il est exploité ne prend presque jamais en charge le multi-gpu j’ai laissé tomber.



&nbsp;





tazvld a écrit :



Tu aurais pris une 1070 ou un 1060 à la place et tu l’aurais changé lorsque le besoin s’en aurait fait ressentir, ça n’aurait pas été plus économique ? Au prix de ta Titan, tu aurais pu changer 4 fois de GTX 1060 et 3 fois de GTX 1070 (enfin, si l’on reste dans la gamme de prix).



Quand je dit dépassé, je parle en terme de prix aussi.



Je ne dis cependant pas que ça n’a pas d’intérêt, juste que les intérêts sont très limité et pour la majorité des personne, il est mieux de tapé sur une gamme inférieur qui lui sera plus économique. En effet, ça a un intérêt si tu as besoin de cette puissance aujourd’hui.





Les jeux “rament” car, plus tu leur donnes de puissance, plus les dev sont tenté d’abuser de celle-ci, en activant en particulier plein d’effet qu’il ne maîtrise pas totalement.

J’étais par exemple tombé sur un dossier qui montrait comment la tessellation (technologie qui permet d’ajuster à la volé le niveau de détail du maillage d’un modèle 3D) était utilisé et qui montrait que trop souvent, elle ne servait que sur des détails insignifiants pour lequel une normal map (une technique d’optimisation permettant de réduire grandement le nombre de polygone d’un modèle mais en conservant quand même l’illusion de relief fin) aurait largement fait l’affaire.





Une 1070 ou une 1060 ne ferait pas tourner Gears of war 4 en 1440p en full ultra, même la 1080 ne le peut pas, et oui j’aime tous les petits effets graphiques qui bouffent et les fioritures, je suis un passionné, le high ne suffit pas, je veux tous les potards à fond et c’est bien pour ça que je ne joue pas en 4k mais en 1440p avec de l’AA.



Concernant la gamme y’a pas d’intérêt limité ou non, il n’y a que le budget, c’est tout, demain tu donnes un budget de 1500€ à un joueur il prend le top, prendre une 1060 c’est un arbitrage performances/budget, pas un rapport performances/prix.&nbsp;



Quant à l’optimisation on peut parler des moteurs, mais quand tu vois qu’Arkane studio arrive à faire ramer dishonored 2 avec un Fork de l’id Tech 5 c’est que ce sont des brèles et ils le reconnaissent eux mêmes en disant la main sur le cœur “achetez Prey, promis on ne fera pas les mêmes erreurs, le jeu sera bien optimisé”.

À côté tu as Gears of war 4 qui a une optimisation de dingue vu ce qui est affiché à l’écran.


votre avatar







Moebius13100 a écrit :



Une 1070 ou une 1060 ne ferait pas tourner Gears of war 4 en 1440p en full ultra, même la 1080 ne le peut pas, et oui j’aime tous les petits effets graphiques qui bouffent et les fioritures, je suis un passionné, le high ne suffit pas, je veux tous les potards à fond et c’est bien pour ça que je ne joue pas en 4k mais en 1440p avec de l’AA.



Concernant la gamme y’a pas d’intérêt limité ou non, il n’y a que le budget, c’est tout, demain tu donnes un budget de 1500€ à un joueur il prend le top, prendre une 1060 c’est un arbitrage performances/budget, pas un rapport performances/prix.&nbsp;



.







Je me considère aussi passionné et la raison pour lequel je préfère le 4k en high sur un écran tv géant plutôt que le 1440p en ultra c’est car le premier est à mes yeux 100 fois plus immersif et plus beau.



Comme quoi…


votre avatar

J’en ai enfin fini avec Nvidia de m apres plus de 10ans, je suis très bien chez AMD et jespere bientot passé sous RYZEN &lt;3

votre avatar







von-block a écrit :



Je me considère aussi passionné et la raison pour lequel je préfère le 4k en high sur un écran tv géant plutôt que le 1440p en ultra c’est car le premier est à mes yeux 100 fois plus immersif et plus beau.



Comme quoi…





4k en 120Hz j’espère. Non, parce que j’ai lu passionné. <img data-src=" />


NVIDIA signe une année record avec 1,67 milliard de dollars de bénéfices

  • Encore un trimestre record

  • Les GeForce au sommet de leur forme

  • NVIDIA reste Zen

Fermer