Connexion
Abonnez-vous

Trimestre record pour NVIDIA grâce aux puces GeForce

Tous les signaux sont au vert chez les verts

Trimestre record pour NVIDIA grâce aux puces GeForce

Le 06 novembre 2015 à 09h30

Tout va très bien chez NVIDIA sur le plan financier. Pour son troisième trismestre, la marque au caméléon signe un chiffre d'affaires « record » de 1,3 milliard de dollars. Une performance que le constructeur doit à ses bonnes ventes dans le domaine des cartes graphiques pour joueurs.

Les trimestres se suivent et se ressemblent chez NVIDIA, même si le précédent avait fait figure d'exception. Il y a trois mois la société avait en effet annoncé un bénéfice net en forte baisse, à cause des coûts de restructuration de sa branche dédiée aux télécoms : Icera. Une restructuration qui s'est notamment traduite par le licenciement d'environ 500 personnes, dont environ 120 en France.

Les verts restent dans le vert

Sur les trois derniers mois, NVIDIA a réalisé un chiffre d'affaires de 1,305 milliard de dollars, en hausse de 13 % par rapport au trimestre précédent, et de 7 % sur un an. Il s'agit d'après la marque d'un « record » qui pourrait bien être battu dès le prochain trimestre, les fêtes de fin d'année étant habituellement favorables aux ventes de cartes graphiques. La marque s'attend d'ailleurs à réaliser 1,3 milliard de dollars de CA, avec une incertitude toutefois de 2 % du dernier quart de l'année.

Le caméléon a également profité du dernier trimestre pour revoir sa marge brute à la hausse. De 55,2 % l'an passé, elle vient d'atteindre 56,3 %, de quoi, en théorie, s'assurer de coquets bénéfices. C'est justement bien le cas, la société ayant enregistré un résultat net positif de 246 millions de dollars. À titre de comparaison, au dernier trimestre, la marge brute de son concurrent AMD n'était que de 23 %. 

Les GeForce font le beurre de NVIDIA

Dans le détail, on apprend qu'une fois encore, ce sont les ventes de GPU qui ont tiré ses résultats vers le haut. Avec 1,110 milliard de dollars, elles comptent pour 85 % de ses revenus, en hausse de 12 % sur un an. Selon les précisions apportées par le constructeur, cette progression n'est due qu'aux bons résultats enregistrés par les GPU dédiés au jeu vidéo (GeForce) dont les ventes ont augmenté de 40 % en un an.

Dans le même temps, les ventes de cartes Quadro ont fondu de 8 % a 190 millions de dollars, tandis que les revenus issus des branches Tesla et GRID ont atteint 80 millions de dollars, c'est 13 % de mieux qu'il y a trois mois mais 8 % de moins que l'an passé.

Etonnamment, la société ne pipe le moindre mot au sujet des ventes de sa Shield Android TV, mais précise que les ventes de processeurs Tegra sont en hausse de 1 % sur trois mois mais en baisse de 23 % sur un an, à 129 millions de dollars. NVIDIA est plus bavarde par contre que les revenus issus de l'automobile sont en pleine explosion a 79 millions de dollars, soit 50 % de mieux que l'an passé.

Petit trésor de guerre deviendra grand

NVIDIA a également annoncé que son stock de liquidités continuait de grandir. La société est ainsi assise sur 4,728 milliards de dollars de réserves, de quoi lui assurer un certain confort dans les trimestres à venir, et pourquoi pas de se lancer dans quelques acquisitions. Ce n'est toutefois pas exactement ce qui est prévu. L'entreprise ambitionne plutôt de reverser 1 milliard de dollars à ses actionnaires l'an prochain, contre environ 800 millions de dollars cette année. 

Un argument qui a visiblement fait mouche, l'action NVIDIA grimpant de près de 10 points après la clôture de la dernière séance à Wall Street. De quoi valoriser la société à plus de 16 milliards de dollars. Presque dix fois plus que son concurrent de toujours : AMD.

Commentaires (42)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Il serait temps que AMD se réveil, parce que avec sa place de numéro NVIDIA se permet de vendre des cartes graphiques de plus en plus cher.

votre avatar



Presque dix fois plus que son concurrent de toujours : AMD.



Sur le segment de l’entrée de gamme/mobile, Intel est à l’affut!











dump a écrit :



Il serait temps que AMD se réveil, parce que avec sa place de numéro

NVIDIA se permet de vendre des cartes graphiques de plus en plus cher.





Quand les rouges proposaient des produits au rapport perf(calc&enrgetiques)/prix compétitif et que c’était la catastrophe chez nVidia, ce dernier vendait mieux grâce à son image.


votre avatar

Et ça quand nVidia n’a plus le contrat de fabrication des GPU des consoles de SONY.



AMD quand à lui a Microsoft et Sony sous le coude des liquidités garantie pour au moins 5 ans

votre avatar

Quand tu vois le prix de la nano, c’est proche d’une Nvidia quand même.

Honnêtement j’trouve les prix assez proches de manière général (à perf. équivalente).

votre avatar

Reste qu’avec une contrat “6ans de console garantie” je doute qu’AMD fasse de grosse marge.

votre avatar

Il faudra ce qu’il en est dans le concret avec l’implémentation de dx12 : sur le 1er test les cartes AMD étaient devant les nVidia il me semble.



Et voir aussi la prochaine génération de carte (2016 pour nVidia, pas sûr quand pour AMD)

votre avatar

J’espère juste que la génération Pascal sera vraiment optimisé pour DirectX12 et notamment l’async compute qui n’avait pas l’air d’être très bien géré avec les cartes/pilote actuel..

votre avatar







dump a écrit :



Il serait temps que AMD se réveil, parce que avec sa place de numéro NVIDIA se permet de vendre des cartes graphiques de plus en plus cher.





Surtout, faudrait qu’AMD arrête avec ses renommages intempestifs et ses dénominations totalement incompréhensibles qui ne servent à rien du tout à part brouiller et tromper le consommateur.



Les RX 2XX et 3XX sont un bordel monstre, à tel point que je les regarde même plus.


votre avatar

AMD a surtout un déficit d’image assez terrifiant, dont on voit mal comment ils peuvent se relever.

votre avatar

Les geforce-960m-950m-940m-930m-920m est du renommage à l’arrache.

Que ce soit l’un ou l’autre idem

Geforce 770 est en réalité une 680 boosté ect ect (l’aurais pu l’appelé 680Ti)

Mais c’est vrai que AMD en GPU dextop est un vrai bordel

votre avatar

Puis de toute facon Avec Maxwell, NVIDIA ne change pas fondamentalement la donne par rapport

à ses précédentes architectures et notamment face au Kepler des GeForce

600 et 700.



Phrase copié d’un article désolé ^^

votre avatar

Je comprend pas cette phrase.



 “NVIDIA est plus bavarde par contre que les revenus issus de l’automobile

sont en pleine explosion a 79 millions de dollars, soit 50 % de mieux

que l’an passé.”

votre avatar

Pendant ce temps chez AMD…



<img data-src=" />

votre avatar

Le premier qui sort sa carte en 16nm va faire très mal, et a mon avis ça sera Nividia avec l’architecture Pascal.

votre avatar







kurgan187 a écrit :



Les geforce-960m-950m-940m-930m-920m est du renommage à l’arrache.



Que ce soit l'un ou l'autre idem      

Geforce 770 est en réalité une 680 boosté ect ect (l'aurais pu l'appelé 680Ti)

Mais c'est vrai que AMD en GPU dextop est un vrai bordel







Ya du renomage sur les carte mobile mais pour celles destinées au fixe il me semble que Nvidia ne fait pas trop de renommage en ce moment, il y a bien des différences de fabrications.&nbsp;

Pour les cartes fixes, il me semble au contraire que c’est AMD qui s’y est essayé ces dernier temps. <img data-src=" /><img data-src=" />


votre avatar

Le PC c’est pas ce fameux marché qui est mort depuis des années, réservé à une élite de gamers/nerds/geeks. Bref encore un truc de niche les jeux PC…

Oh wait bientôt la sortie de SC2 Legacy of the void…

votre avatar

Pas étonnant vu la qualité des dernières livraisons et l’absence de concurrence avec un rapport prix/chauffe/perfs intéressant.



Peut être un effet witcher3 aussi…

votre avatar

Prenons la référence des joueurs PC : Steam.



Pour le mois d’octobre 2015 le GPU Gamer en 1ere place est la GTX 970



source :&nbspstore.steampowered.com Steam

votre avatar

Cela fait désormais plusieurs semestres que le mainstream Nvidia est basé sur des architectures professionnelles avec des bus de données castrés. Egalement, le cycle de développement d’une nouvelle génération est en train de glisser. Malgré cela, les chiffres sont bons.



Une seule explication: Nvidia est en situation de quasi-monopole.



Les autorités de la concurrence toujours si promptes à se saisir des dossiers de monopole feraient bien de regarder celui présumé de Nvidia de plus prés.

votre avatar

AMD me fait rire tout de même surtout sur la sortie de la fury



Belle présentation toussa toussa , belle techno toussa toussa



Mais…



c’est sans compter le prix de l’alim , là où une config verte équivalente m’aurait demandé une alim de 600W , la j’ai du prendre une 750W , obligé de bidouiller pour éviter du tearing dans tous les jeux , j’ai même du changer de boitier pour faire tenir mon 280x tri X (32cm)

Fin bref c’est pas le sujet de la news mais ma prochaine carte sera une verte.

Marre de se faire fumer dans le moyenne gamme par de simple 970 , c’est pas ma faute si les devs acceptent des chèques de nvidia pour favoriser leur tech hein ? je ne suis pas un philanthrope mais un gamer…




votre avatar







GérardMansoif a écrit :



Les autorités de la concurrence toujours si promptes à se saisir des dossiers de monopole feraient bien de regarder celui présumé de Nvidia de plus prés.





Et tu voudrais qu’elles fassent quoi ? Obliger Nvidia à baisser ses parts de marché ? Obliger AMD à en gagner ? Y’a-t-il entente sur les prix (avec qui ?) ? Y’a-t-il monopole sur des ventes liées ? …


votre avatar

Une chose formidable serait un accord entre amd/nvidia pour utiliser leurs&nbsp; optimisations sur tous les jeux AAA.



Gameworks aux oubliettes.



On peux hélas toujours courir …



Je pense que le coups de Half life 2 Nvidia ne le digère toujours pas <img data-src=" />

votre avatar

En même temps la 970 est la concurrente de la 290X et non de la 280X.

C’est pas uniquement une question de pilotes pour le coup.



GTX 970 : 5,2 milliards de transistors | 64 ROPs | 58.8 GPixel/s | 109 GTexel/s

280X : 4,313 milliards de transistors | 32 ROPs | 27.2 GPixel/s | 109 GTexel/s

290X : 6,2 milliards de transistors | 64 ROPs | 64.0 GPixel/s | 176 GTexel/s



Par contre c’est clair que la taille des cartes AMD moyen de gamme (et ex-haut de gamme) ainsi que les consommation électrique font froid dans le dos. La chauffe et du coup le GPU qui se downclock automatiquement…<img data-src=" />

votre avatar

2966 degré R9 280X Asus 10001500.




Jamais eu de&nbsp; downclock :)     





Sans te contredire sur gpuz il indique 32.0 gpixel et texture filrate 128 Go texel/s



C’est un modèle (non oc)





&nbsp;

votre avatar

oui bien sur mais je ne comparais pas mon 280x aux 970 , c’était juste pour la taille dans le boitier ^^



Ce que je voulais dire c’est que nous les utilisateurs ati sur des titres comme gta 5 , witcher 3 le moindre milieu de gamme nous met une volée de bois vert (^^) même à du haut de gamme ati , il n’y bien que le 295x2 qui dépasse un simple 970 qui lui hélas n’existe plus , je pensais voir un 395x2 mais non…

J’estime que c’est pas normal vu que sur le papier ça se tient dans un mouchoir de poche



Au passage mon 280x c’est une saphhire trix OC d’origine (serie toxic) , c’est déjà du renommage de la 7970 (ou7950 je sais plus) ghz edition , quid de la serie r9 3xx ?

votre avatar

R9 280x (7970ghz) R9 380x(R9 290x)



<img data-src=" />



Vivement 20162017

votre avatar







Wikus a écrit :



Et tu voudrais qu’elles fassent quoi ? Obliger Nvidia à baisser ses parts de marché ? Obliger AMD à en gagner ? Y’a-t-il entente sur les prix (avec qui ?) ? Y’a-t-il monopole sur des ventes liées ? …





Je pense que tu n’y es pas du tout. Le but d’une autorité de la concurrence est de veiller à ce qu’une entreprise ne squatte pas le marché au détriment du consommateur et de la concurrence. La société Bell était devenu tellement gigantesque, étouffant la concurrence et imposant ce qu’elle voulait au consommateur que le régulateur américain lui avait demandé de créer quatre sociétés indépendantes.

Ce sont des mécanismes de régulation des marchés évoqués par Adam Smith en son temps.

De la littérature relative à cela se trouve sur le net.


votre avatar

Je vois qu’un concurrent possible pour nVidia, Intel. Franchement si demain ils mettaient le paquet sur les GPU ils pourraient faire mieux qu’nVidia, j’en suis sûr.

votre avatar

J’ai pris l’info ici, ce qui est censé être le modèle de référence donc après je n’ai pas de validation GPU-Z de ce modèle pour pouvoir confirmer ce qu’ils disent, je te crois. <img data-src=" />

GPU-Z m’affiche 65.2 GPixel/s et 121.2 GTexel/s pour ma 970 (KFA² EXOC BE OC)



Pour ce qui est du downclock, ça se produit sur la 290X afin de réduire la chauffe et la consommation de l’engin lorsque la température devient un poil affolante. <img data-src=" />

votre avatar

… ils ont des cartes qui supportent correctement DirectX12 (mais bizarrement personne n’en parle)

&nbsp;

… ils ont de nouveaux drivers qui permettent à la Fury X de prendre l’ascendant sur la 980 Ti en hautes résolutions (mais bizarrement personne n’en parle)



etc

votre avatar

Ah bah d’ailleurs, erreur, j’ai mis 64 ROPs pour la 970, c’est 56, my bad <img data-src=" />

Need café !

votre avatar

je m’y retrouve plus avec tous les renommages…





@loser



Fury X , 980 ti on tombe dans le déraisonnable là <img data-src=" /> presque un rein…



Quoi que sur materiel il y a une msi 980ti à 650€ , mais cela reste encore trop cher…

votre avatar

un positionnement à 250€ la R9 380X possède un GPU Antigua XT ?




 &nbsp;Des info sur cette architecture?     





Apparemment ce n’est pas du renommage



Une hypothétique GTX 960 Ti sortiras pour répondre à AMD meme si une R9 280x reste devant une 960.



Quel bordel …

votre avatar

Quand on voit la jungle des GPU,on va garder notre bonne vielle (7970ghz) un bon moment <img data-src=" />

votre avatar

qq1 a fait du lynchage gratuit ?



1&gt;perso j’ai critiqué la taille et le tdp d’un 280x et j’ai pas vu de critique d’autres inpactiens dans ce sens

2&gt;si il y a une hégémonie des verts c’est surement dans nos têtes hein ? ne pas confondre stats papier et résultats in game…

3&gt;je ne sais plus si c’est sur hardware ou tom’s qui avait testé l’ensemble R9 2xx vs r9 3xx et ce n’était pas glorieux du tout au mieux 5 à 10% de gain .

4&gt;Dx12 ? il reste tout à prouver mais il me semble que les cartes à base de 77xx et 78xx le sont déjà pleinement compatible



Tient cadeau mais il y en a d’autres dans le genre



http://www.tomshardware.fr/articles/test-radeon-r9-390x,1-56556.html



Ces cartes n’ont donc pas d’autre atout que d’officialiser l’overclocking de vieux GPU, dont la gravure est désormais parfaitement maîtrisée. La consommation atteint des sommets : nous avons mesuré un maximum de 492 W sur la R9 390X Gaming 8 Go, 292 W pour la R9 380 Gaming 2 Go et 172 W pour la R7 370 Gaming 2 Go.



en effet , de beau progrès sur la conso , au passage un 280x demande 62A sur une ligne/rail rien que pour lui…



Dans mon cas une 390/390x (histoire d’avoir un gain significatif ça se limiterait à au mieux 15% , 15% qui valent tout de même 400€ sans compter la fichu optimisation des devs sur les cartes vertes…

Pour qq1 qui a commencé sur une mach64 puis par les différentes all in wonder ouais la pilule passe mal…




votre avatar

oué oué , dis donc pourquoi c’est pas l’inverse avec les rouges en tête de vente ? les gens sont des moutons ?



fin bon tiens



http://www.hardware.fr/focus/110/msi-radeon-r9-390x-gaming-8-go-test.html

Pour une carte se voulant être du haut de gamme et du renouveau de la gamme c’est pas brillant , je ne compte pas les fury qui sont loin d’être à la portée de toutes les bourses



étrange la 970 ne se fait pas vraiment taper mis à part 2 jeux (hitman , evolve) pour une carte d’ancienne génération c’est pas mal…quand à taper une 980 , mise à part les jeux sus cité gros lol (je ne compte pas non plus les ti qui n’ont leur place qu’avec les fury)



et encore la 390 sz msi c’est pas une version stock



Encore plus étrange les conso c’est les mêmes que tom’s à savoir 453w pour une 390x



ah puis ça aussi



http://www.tomshardware.fr/articles/comparatif-carte-graphique-geforce-radeon,2-…



Après libre à toi de croire tes sites bigmac (joke spotted) perso vu le ton ça m’a l’air d’être du placement de produit surtout qu’au final on retombe quasi sur la même conclusion que hardware



Fin bon ça c’est basé sur les 390 et 390x , on ne va pas parler des autres r9 3xx



Si tu ne sais pas pourquoi nvidia caracole en tête des ventes moi je le sais maintenant….



Au final dommage que dans la gamme il n’y ai pas de 395X2 , la donne aurait surement changé…

votre avatar
votre avatar

Pour info ce n’est pas le monopole qui est condamnable mais l’abus de position dominante.



Par ex. si NVidia utilisai sa position pour obliger les devs à faire des jeux compatibles qu’avec des carte Nvidia.



&nbsp;“De la littérature relative à cela se trouve sur le net”

votre avatar

Ton message si dessus est un peu comment dire Direct ^^ @ winston



On parle souvent de pilotes AMD comme étant un échec



Ce que je retient aujourd’hui c’est la manière donc amd gère(toujours) les ancienne génération de GPU(7970) 2011 (R9 280X) 2013



Du coté de Nvidia c’est un peu différent d’après certain Bench les 770/780/ti sont largué par la génération juste au dessus (970980) sur des jeux comme (the witcher 3) Sur d’autre bench ca tiens la route (encore heureux pour du haut de gamme de l’époque … C’était combien encore le prix d’une 780 ^^



&nbsp;



&nbsp;

votre avatar

Hey péon je ne te permet pas , non je ne suis pas sous coke , prends pas ton cas pour une généralité





je vais quoter car visiblement tu as du mal à lire toi aussi



Un petit mot au sujet de l’overclocking de la MSI R9 390X Gaming. De toute évidence, MSI a épuisé presque toute la marge d’overclocking en poussant sa carte de 1050 à 1100 MHz. Sans augmentation de la tension GPU, nous n’avons même pas pu gagner 25 MHz. Avec +0.025V nous sommes passés à 1125 MHz et avec +0.100V à 1150 MHz. Quant à la mémoire, elle était stable jusqu’à 1650 MHz.



Un gain minimum donc mais qui se paye au prix fort en terme de consommation. Elle atteint alors 453W dans Anno 2070 et 406W dans Battlefield 4 contre 359W et 307W par défaut.



puis ça



Reste que sur le plan tarifaire, il faut compter 450€ pour les R9 390X les moins chères et à peu près 475€ pour la MSI R9 390X Gaming que nous venons de tester. C’est certes compétitif face à la GTX 980, à condition de fermer les yeux sur la consommation, mais pour près de 100€ de moins, la Radeon R9 290X affiche un rapport performances/prix nettement plus intéressant. Et sur ce segment nous n’accordons que peu d’intérêt à la mémoire vidéo plus importante de ces nouvelles solutions proposées exclusivement avec 8 Go.



Alors que les soldes approchent, il est bien entendu difficile de vous conseiller de vous ruer sur ces Radeon R9 390X. Il sera de toute évidence plus intéressant de profiter des offres de fin de vie des R9 290.



et encore ça







Par rapport aux précédentes Radeon, une MSI R9 390X Gaming affiche un gain de 9% par rapport à la Sapphire R9 290X Tri-X OC







Tu appelles ça du renouveau ? 9% qui te coute 450€ ah ok !



Pour finir je pourrais citer le comparatif de tom’s qui a aucun moment préconise l’achat d’une R7/R9 3xx , a chaque fois et de loin c’est une serie 2xx qui a le meilleur rapport qualité/prix



Fin de com pour ma part

votre avatar

Je me souviens surtout de l’époque ou j’avais acheté une Geforce fx 5600 256 mo pour half life 2. Je me suis retrouvé à joué en directx 8.1 … en direcx 9 c’etait injouable un comble pour du milieux de gamme que j’avais payer (159 euros). problème avec les pixel shaders 2.0&nbsp; donc l’histoire avec par exemple les faux 4GO de la 970 est de la pisse de chat à coté

Je me suis donc rabattu sur une 9600 pro puis par la suite une 6600GT/9600GT/6870/ CfX 6870/R9 280X <img data-src=" />



Perso je trouve que dans le passé d’une génération de GPU&nbsp; à une autre on avait une puissance/prix incomparable à aujourd’hui…Mais bon 20162017 va corriger tt ca il était temps.(Finfet,HBM …)



ps:Je suis d’accord avec Winston le rapport puissance/prix aujourd’hui&nbsp; est une insulte



&nbsp;

votre avatar

il faut avoir suivis les générations GPU 20002015 pour avoir une maitrise du sujet actuel des puces graphiques



Laelen Winston hop plongez vous dans de la lecture ^^



cela éviterais du copié/collé



Bon vais écouter du ac/ dc <img data-src=" />

<img data-src=" />

++

Trimestre record pour NVIDIA grâce aux puces GeForce

  • Les verts restent dans le vert

  • Les GeForce font le beurre de NVIDIA

  • Petit trésor de guerre deviendra grand

Fermer