À son tour, NVIDIA a dévoilé ses résultats financiers pour le dernier trimestre de son exercice 2017. La marque au caméléon y affiche des chiffres record, grâce à la bonne santé de ses ventes de puces graphiques pour joueurs, mais aussi pour serveurs.
Le millésime 2017 devrait laisser de très bons souvenirs à NVIDIA. Avec le lancement des GeForce série 10xx, de ses initiatives dans le domaine de l'intelligence artificielle, et l'intégration d'une puce Tegra dans la Switch de Nintendo, les bonnes nouvelles se sont enchaînées, et cela se remarque dans les chiffres de vente de l'entreprise.
Encore un trimestre record
Sur le quatrième trimestre de son exercice fiscal 2017 (terminé le 29 janvier 2017), la marque au caméléon a réalisé un chiffre d'affaires de 2,173 milliards de dollars, battant ainsi le record de 2,004 milliards établi trois mois plus tôt. Sur un an, la progression atteint 55 %, un chiffre que bien des concurrents aimeraient voir sur leurs propres comptes.
Dans le même temps, NVIDIA est parvenu à faire grimper encore un peu plus sa marge brute, qui atteint désormais 60 %, contre 59 % il y a trois mois et 56,5 % il y a un an. Conséquence directe, le bénéfice net enregistré par la société explose et atteint, 655 millions de dollars sur le seul dernier trimestre, une valeur qui a plus que triplé en l'espace d'un an.
Sur l'ensemble de l'année, la progression est également très nette. Avec 6,910 milliards de dollars de chiffre d'affaires, la marque au caméléon fait 38 % de mieux que l'an dernier. La marge moyenne sur l'année atteint 59,2 % contre 56,8 % sur l'exercice précédent, tandis que le bénéfice net est multiplié par 2,7, et atteint 1,666 milliard de dollars.
Pour le prochain trimestre, l'entreprise s'attend à un chiffre d'affaires de 1,9 milliard de dollars, contre 1,3 milliard réalisé l'an passé à la même période. La marge devrait se maintenir autour de 59,5 %, de copieux bénéfices devraient donc suivre. Il sera intéressant de voir comment se portent les ventes de puces Tegra sur les trois prochains mois, afin d'estimer l'impact du lancement de la Nintendo Switch sur les résultats de la marque au caméléon.
Les GeForce au sommet de leur forme
NVIDIA doit sa bonne santé à ses ventes de GPU, qui ont atteint 1,85 milliard de dollars au dernier trimestre, en hausse de 57 % sur un an, mais également aux ventes de Tegra, qui ont progressé de 64 % sur un an et de 7 % sur trois mois, pour atteindre 257 millions de dollars.
Dans le détail, ce sont les produits destinés aux datacenters qui enregistrent la plus forte croissance, avec une progression de 205 % sur un an à 296 millions de dollars, grâce notamment au DGX-1, dédié aux travaux sur l'intelligence artificielle. 125 de ces appareils ont récemment été installés dans un supercalculateur, qui se revendique comme étant le plus efficace du monde, énergétiquement parlant.
Les produits liés au gaming (gamme GeForce) ont quant à eux vus leurs ventes grimper de 66 % sur un an pour atteindre 1,348 milliard de dollars. La gamme Quadro n'a pendant ce temps progressé que de 11 % avec des ventes s'établissant à 225 millions de dollars. La branche automobile enfin, continue de prendre de l'importance avec une croissance de 38 % sur l'année et un chiffre d'affaires de 128 millions de dollars au dernier trimestre.
NVIDIA reste Zen
Ces copieux bénéfices ont permis à NVIDIA de garnir un peu plus ses réserves de liquidités, qui s'élèvent désormais à 6,8 milliards de dollars, contre 5 milliards il y a tout juste un an. Pendant ce temps, l'entreprise a tout de même souscrit cette année à 2 milliards de dollars de dettes, afin de se débarrasser d'un autre emprunt, payable en actions cette fois-ci.
En bourse, la marque au caméléon a subi une baisse de 2,4 % de la valeur de son action lors de la séance qui a suivi la présentation de ses résultats trimestriels. L'entreprise reste néanmoins valorisée à près de 60 milliards de dollars, après avoir connu une hausse de 341 % sur les 12 derniers mois.
Commentaires (61)
#1
Vu la marge, logique. Et avec tt ce pognon ils ne savent tj pas mettre a jours l’interface des options graphiques avancé??? qui est lente (très lente)
#2
Avec un net avantage en parts de marché et en l’absence de concurrence sur le haut de gamme depuis l’été 2016, c’est plutôt logique.
#3
#4
En même temps si on veut une CG potable pour quelques années il faut vendre un rein de nos jours.
#5
#6
C’est clair que l’interface des pilotes est un peu vieillotte.
Autre phénomène qui me laisse mi-figue mi-raisin sur la generation Pascal, c’est le bug affectant les GTX 1080 en mode compute.
En effet une GTX 1070 vient mettre une fessé à une 1080 pour une raison encore inexpliqué. Si quelqu’un à une explication. Du coté de nVIDIA cela fait 6 mois que c’est silence radio.
#7
Une cg c’est un investissement, tu la garde pendant minimum 3-4 ans, j’ai changer la mienne apres 4ans, et celle d’avant apres 5 ans.
Et comme a dit @domFreedom, entre 150 et 300e tu as vraiment une bonne cg ‘potable’ !
Il faut pas mettre toutes les cg dans le meme sac, la 1080 est vraiment high end par exemple. T’as pas vraiment besoin de ca pour etre peignard pendant un moment, une 1060 ou meme la 480 est suffisante.
#8
La 1060 est à 200€ neuve, et permet de faire tourner tous les jeux en full hd, avec tous les graphismes à fond.
Après si tu veux du 144fps ou de la 4K, alors là oui il faut y mettre le prix (1070 pour 144fps à 400€, et 1080 à 650€ pour la 4K).
#9
#10
Ce qui a peut être changé, c’est que les écrans ont l’air de prendre de l’avance sur les cartes graphiques.
Le 120hz et 144hz se démocratise pas mal, et des écrans 4K sortent alors que la CG la plus haut de gamme est vraiment limite pour cette définition.
#11
Pour le 1080p, non, pas besoin.
J’ai un PC portable équipé d’une GTX980M qui a un peu plus de 2 ans et ça tourne tout à fond dans les jeux en 1080p.
#12
#13
Ça manque de concurrence les CG depuis quelques années non ? J’ai pas de chiffres mais à part le marché des consoles qui leur reste acquis, je suppose qu’AMD n’a plus grand chose.
Sinon j’hésitais à changer ma 770 mais quand j’ai vu les prix, j’ai hurlé " />
Ça attendra, mon gros doigt de pied gauche n’a pas encore trouvé preneur sur le bon coin.
#14
sa veux Dire que Orange ou meme Free gagne plus , autant etre operateur
#15
Essaye de trouver une 970 d’occas qui donnerais un coup de boost au pc sans trop ce ruiner. Pour le haut de gamme amd,cette année (vega) le milieu de gamme (rx 480) dispo depuis l’année dernière.
#16
#17
Y’avait de bonnes promos à l’occaz des fêtes.
Mais après c’est vrai que les gammes GTX 10XX sont très chères et augmentent à chaque fois..
On a un peu l’impression de se retrouver avec le phénomène Iphone qui consiste à rajouter 200€ de plus à chaque sortie de nouvelle gamme …
#18
je comprends mieux ton point de vu et je suis assez d’accord.
Puisqu’on est dans NVidia (rien de sale), c’est normal que le pilote Nividia me fout certains jeux en résolution de con (2715*1527) alors que mon écran est un simple 1080p ???
Alors j’ai remi en 1080 mais bon, ça surprend quand on ne s’y attend pas !
#19
#20
#21
#22
Vu que même dans le milieu et bas de gamme ils ont une offre solide tant en terme de prix que performance avec leur référence 10x0, rien d’étonnant.
On peut supposer que la bonne forme des Tegra est du à la Switch en attendant les ventes définitive.
#23
#24
C’est bien, avec tout ce pognon ils vont peut-être pouvoir recruter des développeurs capables de coder une version de GameStream sans fuite de mémoire…
#25
Si tu veux des prix intéressants faut pas acheter chez ASUS/MSI/etc faut regarder du côté des marques qui changent presque rien sur le GPU de base et là tu as des tarifs pas trop élevés.
Comme ici
#26
#27
Ils donnent une raison pour la large augmentation des revenus pour les cartes gaming? Q2 FY17 a Q3 et Q4 est impressionant
#28
J’ai hâte à la prochaine version.
Ma GTX 1070 fait très bien en 4k, mais elle aimerait pouvoir souffler un peu.
Vivement la GTX 1170.
#29
#30
#31
#32
Au moins trois : GTX 1080, GTX 1070, GTX 1060.
#33
Alors qu’il leur suffirait de vendre des iPhone pour faire plein de pognon ! Qu’ils sont bêtes !
#34
Ils n’avaient aucune nouvelle carte en FY 2016?
#35
Je confirme. Je me suis pris une 1060 (version 6Go) à moins de 300euros et c’est largement suffisant pour tout bouffer en 1080/ultra/60fps sur tous les jeux.
#36
D’après les tests, un SLI de 1080 fait tourner tous les jeux en 4K 60fps (à part, peut être, quelques exceptions mal codées pour le SLI), devant la titan X. Du coup je suis assez curieux de l’intérêt d’une titan X, coutant le même prix qu’un SLI de 1080, pour 10 à 30% de fps en moins en 4K.
Après je n’ai jamais eu l’occasion de tester une config bi-gpu.
#37
D’après les premières rumeurs ça ne va qu’être un refresh et il faudra attendre l’année prochaine pour de la vraie nouveauté (comme chez Intel avec leur Kaby Lake en fait)…
#38
Les séries 900, mais process en 28 nm, les puces étaient grosses et coûteuses à produire, et peu d’évolution par rapport aux séries 700.
#39
ok" />
#40
Tu aurais pris une 1070 ou un 1060 à la place et tu l’aurais changé lorsque le besoin s’en aurait fait ressentir, ça n’aurait pas été plus économique ? Au prix de ta Titan, tu aurais pu changer 4 fois de GTX 1060 et 3 fois de GTX 1070 (enfin, si l’on reste dans la gamme de prix).
Quand je dit dépassé, je parle en terme de prix aussi.
Je ne dis cependant pas que ça n’a pas d’intérêt, juste que les intérêts sont très limité et pour la majorité des personne, il est mieux de tapé sur une gamme inférieur qui lui sera plus économique. En effet, ça a un intérêt si tu as besoin de cette puissance aujourd’hui.
Les jeux “rament” car, plus tu leur donnes de puissance, plus les dev sont tenté d’abuser de celle-ci, en activant en particulier plein d’effet qu’il ne maîtrise pas totalement.
J’étais par exemple tombé sur un dossier qui montrait comment la tessellation (technologie qui permet d’ajuster à la volé le niveau de détail du maillage d’un modèle 3D) était utilisé et qui montrait que trop souvent, elle ne servait que sur des détails insignifiants pour lequel une normal map (une technique d’optimisation permettant de réduire grandement le nombre de polygone d’un modèle mais en conservant quand même l’illusion de relief fin) aurait largement fait l’affaire.
Ensuite, une grandes partie de l’optimisation, ce n’est pas vraiment les dev du jeu qui sont responsable, c’est les dev du moteur de jeux. Comme dit plus haut, le moteur Source était à sa sortie l’un des moteur de jeu les plus impressionnant de sa génération, il permettait de faire tourner HL2 sur des config très modeste. Mais aujourd’hui, il n’est pas adapté aux normes actuelles, à coté d’un Unreal Engine 4, il fait palle figure.
En entre les 2, il y a aussi tous ce qui est modélisation 3D et game design. Malheureusement, pour les artistes, il faut savoir jongler entre détails et nombre de polygone, il y a certe des technique cité plus haut permettant de presque avoir les 2 en même temps, mais ça reste du travail, ça ne se fait pas automatiquement, il ne faudrait pas, par exemple qu’une articulation parte en vrille. Dans la même lignée, il faut faire particulièrement attention lors du développement des niveaux d’un jeu, du nombre des ennemis…, que l’on de dépasse pas une certaine limite. A l’époque des console 8 et 16bit, il y avait par exemple une limite de sprite affichable à l’écran (ainsi qu’une limite de sprite sur une même ligne). Les mondes étaient alors pensé pour éviter qu’un joueur normal dépasse cette limite (bon, derrière, ça à permis de faire des game abuse en speed run pour éviter que des ennemis apparaissent). Mais aujourd’hui, les jeux sont beaucoup plus grand mais aussi beaucoup plus ouvert (beaucoup moins scripté) qu’il est très difficile de tout prévoir.
#41
#42
#43
#44
#45
Je pense que je vais reformuler ma phrase :
la gamme X80 n’est pas un bon investissement pour le long terme.
En effet pour la grande majorité des joueurs, les cartes dans les gammes des x60 voir x70 (ainsi que les déclinaison Ti) sont largement suffisante pour la génération courante de jeux vidéo, et se défendent très bien sur le long terme tout en ayant un prix correct (par rapport au très haut de gamme).
Le gain de puissance de la gamme X80 ne garantie pas de tenir beaucoup plus longtemps que les gamme X60 et X70.
L’intérêt d’une X80 est, comme tu le dis, lorsque tu as besoin de ce surplus de puissance dans l’immédiat.
#46
Ah oui en effet je comprend mieux :)
Je pense aussi que le “acheter du très haut de gamme pour changer moins souvent” n’est pas forcement le plus rentable financièrement, le rapport perf/prix étant de plus en plus mauvais à mesure que l’on monte en gamme. Je me suis toujours dit qu’il faudrait que je fasse l’exercice, de comparer du matos “moyen” vs “haut” de gamme sur la durée, pour voir si effectivement le “haut” durait bien plus longtemps :p
#47
Cela aura surtout été l’année de l’absence d’amd!
Pour les cg, je commence à avoir le réflexe LBC, en ce moment, y a de la 980 founders edition a 150€ ;-)
Des que je trouve une 1080 sous les 400 roro, je switche la mienne (le 1440p, meme avec gsync, ça demande enfait !!!)
#48
J’ai un écran 4K et une 970 et les jeux auxquels je joue tournent tous à 60 FPS. Certes pas les derniers blockbusters avec tout au max (on parle de Talos Principle, Portal 2, Borderland 2, Civ V, Civ IV…).
On peut profiter de la 4K même sans prendre le plus haut de gamme ni même sans prendre la dernière génération (ça l’était quand j’ai pris la mienne).
#49
#50
#51
J’en ai enfin fini avec Nvidia de m apres plus de 10ans, je suis très bien chez AMD et jespere bientot passé sous RYZEN <3
#52
#53
Ok.
#54
#55
#56
#57
#58
#59
#60
J’ai joué 5 ans sur une 6850 1go, je l’ai changé il y a un mois. J’ai toujours joué en 1080p (et en ayant un deuxième 1080p).
Après bien sûr, il faut avoir des réglages cohérent, mais tant que je touchait pas à l’anti aliasing, ça passait. Ca n’a pas de sens de jouer en basse résolution avec l’anti aliasing, ça prendra plus de ressource que de monter en résolution, pour un résultat visuel moins bon. L’anti-aliasing n’a de sens que quand on est déjà à la résolution max de l’écran.
Je n’ai jamais essayé X-plane, mais j’ai essayé une grosse majorité des jeux multi qui passait.
#61