Connexion
Abonnez-vous

NVIDIA aussi améliore les performances de ses cartes grâce à ses pilotes

Hey, moi aussi je peux le faire !

NVIDIA aussi améliore les performances de ses cartes grâce à ses pilotes

Le 23 octobre 2012 à 16h00

Comme une réaction aux Catalyst 12.11 bêta d'AMD publiés ce matin, NVIDIA vient d'annoncer la mise en ligne de ses pilotes 310.33 bêta. Ceux-ci sont pensés pour améliorer les performances des cartes de la génération Kepler, jusqu'à 15 %.

NVIDIA ne pouvait sans doute pas laisser AMD annoncer une amélioration massive des performances de ses Radeon HD 7000 sans réagir. Le caméléon a donc décidé d'annoncer la branche 310 de ses pilotes qui vise le même but, pour ses cartes de la gamme Kepler.

 

GeForce 310.33 beta GeForce 310.33 beta

 

Par rapport à la précédente branche 306, on nous annonce jusqu'à 15 % de gain (pour les GTX 680 dans The Chronicles of Riddick: Assault on Dark Athena en 2560x1600), mais il est plutôt question de 2 à 5 % dans la majorité des cas évoqués. Voici quelques exemples :

 

GeForce GTX 660 :

  • Jusqu’à 6% de performances supplémentaires dans The Elder Scrolls V :Skyrim
  • Jusqu’à 3% de performances supplémentaires dans Batman:Arkham City
  • Jusqu’à 4% de performances supplémentaires dans Dragon Age II
 

GeForce GTX 680 :

  • Jusqu’à 11% de performances supplémentaires dans The Elder Scrolls V :Skyrim
  • Jusqu’à 6% de performances supplémentaires dans StarCraft 2.
  • Jusqu’à 6% de performances supplémentaires dans Batman : Arkham City 

De nouveaux profils 3D Vision et SLi sont aussi au programme, tout comme dans le support de l'occlusion ambiante  qui arrive pour plusieurs titres. Vous trouverez tous les détails ainsi que le pilote en question via ce lien. Il est disponible sous Windows XP, Vista, 7 et 8, uniquement pour les GeForce 8 et les modèles supérieurs.

Commentaires (45)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar







Guiguiolive a écrit :



Hey oh, les gars, vous oubliez un truc: c’est du bonus, c’est gratuit.



Quand je lis “ouais, c’est nul, c’est que 4%”, je me demande ce qui vous gene…

Vous prefereriez quoi? Vous avez acheter votre carte graphique bien chere, elle a ses performances d’usine, et puis c’est tout?



Donc si on vous optimise les petits performances aux petits oignons et qu’on vous trouve quelques pourcentages de perfs en plus, gratuitement, vous vous plaigniez?



C’est quoi l’idée? Si les perfs de la carte ne sont pas doublées, vous n’en voulez pas?

Une fois la carte vendue, nVidia ne gagne plus d’argent. Pourtant, ils continuent a bosser pour ameliorer toujours le bazar, et vous vous plaigniez parce que ce n’est pas assez?

Quand vous avez acheté la carte, on vous a promis qu les FPS allaient doubler avec la sortie du prochain pilote?



Alors evidement que c’est du marketing, evidement que c’est de l’annonce de perfomances en hausse exceptionnelle sur la plaquette publicitaire, mais on est tous des grandes personnes, et on le sait tous ca.



Toujours est il que ca va dans le bon sens.



Le jour ou ils arreteront d’optimiser les drivers en continu, vous ferez quoi? Vous cesserez d’acheter des cartes graphiques? Vous mettrez votre ordi a la cave et irez jouer a Angry Bird sur votre telephone?



Non. Vons continuerez a les acheter tout pareil, et a jouer tout pareil, mais cette fois ci, sans avoir une equipe qui bosse en permanence pour offrir toujours mieux, pour corriger les bugs, etc.





Quand on vous donne de 2 a 15% en plus de perfs gratuites, sans rien faire, essayez de pas avoir le reflexe de vous plaindre juste pour vous plaindre, et evitez de dire “quoi? que 5%? mais c’est nul!” <img data-src=" />





<img data-src=" /> Quand mes pilotes nvidia propriétaires linux offriront les mêmes performances que leurs équivalents windows j’arrêterai de râler.



Et si ils arrêtent d’améliorer leurs pilotes j’irai voir chez la concurrence si l’herbe est plus verte (et éventuellement, je continuerai de me plaindre).





une equipe qui bosse en permanence



Ben voyons, et la marmotte met le chocolat dans le papier d’alu.


votre avatar







Winderly a écrit :



<img data-src=" /> Quand mes pilotes nvidia propriétaires linux offriront les mêmes performances que leurs équivalents windows j’arrêterai de râler.





Tu peux la mettre en veilleuse vu les tests de steam avec Left4dead


votre avatar







CaptainDangeax a écrit :



Tu peux la mettre en veilleuse vu les tests de steam avec Left4dead





Je la mettrai en veilleuse (peut être) quand ce sera effectivement le cas en situation réelle.

Pour l’instant ce sont des mesures faites en laboratoire.


votre avatar







Winderly a écrit :



Je la mettrai en veilleuse (peut être) quand ce sera effectivement le cas en situation réelle.

Pour l’instant ce sont des mesures faites en laboratoire.





C’est juste parce que je m’inquiète du bon état de tes cordes vocales, à râler comme ça.


votre avatar







CaptainDangeax a écrit :



C’est juste parce que je m’inquiète du bon état de tes cordes vocales, à râler comme ça.





Pour l’instant mes cordes vont très bien vu que je les ai pas utilisées, c’est seulement du texte tapé sur un clavier.



Mais franchement, ces pilotes améliorés comment sérieusement à se faire attendre.


votre avatar



Au passage si les devs de jeux faisaient leur boulot correctement en respectant à la lettre les API standards au lieu de bosser comme des porcs les constructeurs de CG ne seraient pas obligés d’inclure dans leurs pilotes des “optimisations” spécifiques pour chaque jeu (en fait des bidouilles pour rattraper au mieux le coup suite à des jeux codés avec les pieds) et on ne verrait plus cette course à l’optimisation au % près jeu par jeu (avec le risque qu’une optimisation pour l’un casse celle pour l’autre) ni de pilotes graphiques pesant plusieurs centaines de Mo car devant inclure du code spécifique pour des centaines de jeux différents.







c’est une des raisons pour lesquelles les cartes “pro” sont sur le plan de specs moins puissantes que les versions “consumers” car les applis associées sont nettement plus clean. En y ajoutant des drivers en effet un peu plus léchés, ça donne des perfs excellentes dans les domaines concernés: Design, CAD, Science, GIS etc etc etc…

votre avatar







John Shaft a écrit :



Si je ne dis pas de bêtises, Dishonored tourne sous UE3. Depuis 5 ans qu’il est exploité, on peut espérer que le machin soit un poil optimisé maintenant <img data-src=" />







Tu peux utiliser un moteur optimisé et performant et coder le jeu tellement mal qu’il ramera quand même d’un côté.

Sauf que Dishonored est un mauvais exemple tant la qualité graphique équivaut celle d’une console d’ancienne génération (à peine exagéré), alors y’a légèrement intérêt que ça tourne bien.









Guiguiolive a écrit :



Hey oh, les gars, vous oubliez un truc: c’est du bonus, c’est gratuit.



Quand je lis “ouais, c’est nul, c’est que 4%”, je me demande ce qui vous gene…

Vous prefereriez quoi? Vous avez acheter votre carte graphique bien chere, elle a ses performances d’usine, et puis c’est tout?



Donc si on vous optimise les petits performances aux petits oignons et qu’on vous trouve quelques pourcentages de perfs en plus, gratuitement, vous vous plaigniez?



C’est quoi l’idée? Si les perfs de la carte ne sont pas doublées, vous n’en voulez pas?

Une fois la carte vendue, nVidia ne gagne plus d’argent. Pourtant, ils continuent a bosser pour ameliorer toujours le bazar, et vous vous plaigniez parce que ce n’est pas assez?

Quand vous avez acheté la carte, on vous a promis qu les FPS allaient doubler avec la sortie du prochain pilote?



Alors evidement que c’est du marketing, evidement que c’est de l’annonce de perfomances en hausse exceptionnelle sur la plaquette publicitaire, mais on est tous des grandes personnes, et on le sait tous ca.



Toujours est il que ca va dans le bon sens.



Le jour ou ils arreteront d’optimiser les drivers en continu, vous ferez quoi? Vous cesserez d’acheter des cartes graphiques? Vous mettrez votre ordi a la cave et irez jouer a Angry Bird sur votre telephone?



Non. Vons continuerez a les acheter tout pareil, et a jouer tout pareil, mais cette fois ci, sans avoir une equipe qui bosse en permanence pour offrir toujours mieux, pour corriger les bugs, etc.





Quand on vous donne de 2 a 15% en plus de perfs gratuites, sans rien faire, essayez de pas avoir le reflexe de vous plaindre juste pour vous plaindre, et evitez de dire “quoi? que 5%? mais c’est nul!” <img data-src=" />









Sauf que dans une condition réelle d’utilisation le gain en FPS n’est plus du tout significatif. On gagne le plus de FPS pour des jeux dont ça ne fait plus vraiment de différence.



Et puis forcément, ce sont les gains pour une configuration super-ultra-top gamme, donc encore moins significatif. Ah, et c’est sans dire aussi quelle sont les qualités graphique sélectionnées dans les jeux. Oh, et puis forcément le suivi des pilote ne semble toucher que les cartes sous architecture Kepler. <img data-src=" />



Ca fait beaucoup de restrictions quand même.


votre avatar







phacyde a écrit :



Bah quand t’es un acheteur un minimum avertie les perf et les maj des drivers sur une CG c’est quasi aussi important que la carte elle même, donc dire que c’est bonus (genre si y’en avait pas se serai pas grave) voir qu’on nous fait une fleur je trouve ça un peu hors de propos.







Ce n’est pas ce que je dis.

Je dis que les types qui ecrivent “ouais, c’est que 5%, c’est nul” devraient avoir une analyse un poil plus intelligente de la situation.







zogG a écrit :



Ça n’a rien de gratuit, le support, le suivi, c’est compris dans le prix. Si ils le font c’est parce que les clients ont payé pour ça. Pour avoir un suivi, des MaJ, des améliorations. La correction de bug n’est pas un bonus.



Quand un constructeur ne fera plus ça, et qu’une carte sera à la rue à cause de bug, plus personne ne l’achètera.







L’optimisation n’est pas due… Pour preuve, rares sont les boites qui bossent sur leur pilotes en continu. Et d’ailleurs, ne te fait pas d’illusion, c’est uniquement parce que les pilotes des cartes “anciennes” sont unifiés avec ceux des cartes a venir qu’il y a une evolution dans le bon sens. Si les drivers etaient differents, il ne seraient plus touchés au bout de quelques semaines.



Ah, on me dit dans l’oreillette que si tu as une carte de la generation precedante, personne n’a parlé de performances supplementaires… Etrange, vu que quand on lit certains commentaires, c’est uniquement un effet d’annonce et du marketing… Je pense que si c’etait effectivement aussi simple, ils seraient ravis de pouvoir dire qu’ils font exploser les performances des cartes sorties en 2010, et qui correspondent d’ailleurs a une grosse partie des gens qui vont mettre a jour le pilote, quand il sortira…

(Bah oui, le cycle de renouvellement d’une config de jeu n’est certainement pas de 6 mois…)





votre avatar







RinDman a écrit :



Torvalds : “ AMD : Fuck You !” <img data-src=" />



Hummm, je crois pas …



Heu chez AMD, il n’ y a pas plus de liberté concernant les pilotes linux ?









J’ai eu du mal à comprendre Torvalds la-dessus, car franchement Nvidia fourni pas mal de technos pour Gnu/Linux et même FreeBSD. La partie soft n’est pas open-source certes, mais le support est bon (je pense au HPC en particulier). La question qui était posée au Linus concernait Optimus, mais Nvidia ne peut pas grand chose en l’état donc il n’a pas été des plus subtile sur ce point.


votre avatar







Guiguiolive a écrit :



Ce n’est pas ce que je dis.

Je dis que les types qui ecrivent “ouais, c’est que 5%, c’est nul” devraient avoir une analyse un poil plus intelligente de la situation.







L’optimisation n’est pas due… Pour preuve, rares sont les boites qui bossent sur leur pilotes en continu. Et d’ailleurs, ne te fait pas d’illusion, c’est uniquement parce que les pilotes des cartes “anciennes” sont unifiés avec ceux des cartes a venir qu’il y a une evolution dans le bon sens. Si les drivers etaient differents, il ne seraient plus touchés au bout de quelques semaines.



Ah, on me dit dans l’oreillette que si tu as une carte de la generation precedante, personne n’a parlé de performances supplementaires… Etrange, vu que quand on lit certains commentaires, c’est uniquement un effet d’annonce et du marketing… Je pense que si c’etait effectivement aussi simple, ils seraient ravis de pouvoir dire qu’ils font exploser les performances des cartes sorties en 2010, et qui correspondent d’ailleurs a une grosse partie des gens qui vont mettre a jour le pilote, quand il sortira…

(Bah oui, le cycle de renouvellement d’une config de jeu n’est certainement pas de 6 mois…)







L’amélioration ne concerne généralement que la nouvelle génération car l’ancienne à déjà été améliorée pendant sa phase de commercialisation.



Mais je pense que le terme amélioration c’est du marketing. Correction serait plus juste, mais effectivement moins vendeur.


votre avatar

C’était un “taunt” en toute amitié je suppose … Ou bien un petit coup de pub, bref tout est question de politique hein =)



Il ne parle que de 660 et 680, la 670 est passé aux oubliettes ou elle fait partie de la 680 ? <img data-src=" />

votre avatar







RinDman a écrit :



Il ne parle que de 660 et 680, la 670 est passé aux oubliettes ou elle fait partie de la 680 ? <img data-src=" />







Tu parle de la carte qui coûte 20% moins cher pour 4% de performance de moins ?



votre avatar







Guiguiolive a écrit :



L’optimisation n’est pas due… Pour preuve, rares sont les boites qui bossent sur leur pilotes en continu. Et d’ailleurs, ne te fait pas d’illusion, c’est uniquement parce que les pilotes des cartes “anciennes” sont unifiés avec ceux des cartes a venir qu’il y a une evolution dans le bon sens. Si les drivers etaient differents, il ne seraient plus touchés au bout de quelques semaines.





L’optimisation n’est pas due certes mais les corrections de bugs si et la plupart du temps les gros soucis de perfs sont plus dus à des bugs qu’à un manque d’optimisation (autant du coté des pilotes graphiques que des jeux d’ailleurs)



Au passage si les devs de jeux faisaient leur boulot correctement en respectant à la lettre les API standards au lieu de bosser comme des porcs les constructeurs de CG ne seraient pas obligés d’inclure dans leurs pilotes des “optimisations” spécifiques pour chaque jeu (en fait des bidouilles pour rattraper au mieux le coup suite à des jeux codés avec les pieds) et on ne verrait plus cette course à l’optimisation au % près jeu par jeu (avec le risque qu’une optimisation pour l’un casse celle pour l’autre) ni de pilotes graphiques pesant plusieurs centaines de Mo car devant inclure du code spécifique pour des centaines de jeux différents.





D’autres part pilotes unifiés ne veux pas dire que c’est la même partie du pilote qui s’occupe de toutes les cartes, surtout quand on parle de cartes avec des générations de GPU différentes avec parfois des architectures qui n’ont pas grand chose à voir entre elles.



C’est pas parceque tout est regroupé dans les mêmes librairies que tout le monde utilise les mêmes parties du code et du coup c’est loin d’être gagné que les optimisations mises en place pour un type de carte précis profite à l’ensemble des cartes supportées par le pilote tant les optimisations sont souvent ultra spécifiques à une architecture de GPU précise et à un jeu en particulier.



D’ailleurs, et ça à peu près tout le monde a déja pu le constater, c’est pas pour rien qu’au bout d’un moment il ne sert plus à grand chose de mettre à jour les pilotes d’une CG un peu ancienne car sauf correction de bug bien spécifique la partie du code la concernant n’évolue plus voir parfois les optimisations apportées dans les routines communes pour les nouveaux modèles provoquent des bugs pour les anciens.


votre avatar







WereWindle a écrit :



“c’est moi qu’j’ai la plus groooosseuuuuuh” <img data-src=" />



je suis franchement perplexe sur le niveau de développement global de l’humanité…





C’est le discours typique du mec qui en a une petite<img data-src=" />







Je parle de carte graphique,bien sûr <img data-src=" /><img data-src=" /><img data-src=" />


votre avatar







ActionFighter a écrit :



C’est le discours typique du mec qui en a une petite<img data-src=" />







Je parle de carte graphique,bien sûr <img data-src=" /><img data-src=" /><img data-src=" />





c’est un radeon hd6950… j’ai bien galéré pour la caser dans la tour

je sais ce qu’on dit sur ceux qui ont une grande carte <img data-src=" />

(à ma décharge, je roule en clio, hein <img data-src=" />)


votre avatar







WereWindle a écrit :



c’est un radeon hd6950… j’ai bien galéré pour la caser dans la tour

je sais ce qu’on dit sur ceux qui ont une grande carte <img data-src=" />

(à ma décharge, je roule en clio, hein <img data-src=" />)





Du coup tu compenses le fait de rouler en clio par une grosse carte <img data-src=" />



Moi, je roule en ford fiesta, et j’ai une Geforce 610M technologie “Fuck you, NVidia” <img data-src=" />



Mai j’ai un gros ampli basse <img data-src=" />


votre avatar







iRyusa a écrit :



Pendant ce temps la les gtx600 sont toujours pas compatibile sur l’encodage GPU sur Sony Vegas :( Et aucune des deux parties se bougent pour corriger ça :/







J’ai le même souci sur Expression Encoder Pro de Microsoft, tout ce qu’ils me répondent c’est que c’est de la faute à NVidia, résultat, j’ai acheté une 600 pour un CUDA que je peux même pas utiliser &gt;.&lt;¤.


votre avatar







Emralegna a écrit :



Tu peux utiliser un moteur optimisé et performant et coder le jeu tellement mal qu’il ramera quand même d’un côté.







<img data-src=" />



Néanmoins, quand tu fais un jeu sous UE3 (et non l’UDK), tu payes surtout le support des ingénieurs d’Epic.



Bon pour la qualité graphique, je n’ai pas encore le jeu donc je ne m’étendrai pas sur ce point. Néanmoins, sur ce screen la qualité graphique est plutôt bonne (même si l’éclairage dynamique est un manque). <img data-src=" />


votre avatar

Au moins ils n’ont pas fait les même graphiques biaisé qu’AMD <img data-src=" />



Je suis passé sous AMD avec ma dernière CG et pour le moment je ne regrette pas, j’avais pas mal de soucis avec ma vieille GTX295 sous win7 et les drivers qui plantent puis récup par win…

votre avatar

<img data-src=" /> Le Marketing des gens qui Serve a Rien…

votre avatar







bombo a écrit :



J’ai le même souci sur Expression Encoder Pro de Microsoft, tout ce qu’ils me répondent c’est que c’est de la faute à NVidia, résultat, j’ai acheté une 600 pour un CUDA que je peux même pas utiliser







Apparemment faut installer le kit dev CUDA ou tester des anciennes versions de pilotes -&gt;.https://developer.nvidia.com/cuda-downloads


votre avatar
votre avatar







WereWindle a écrit :



et le rendu du jeu est comment ?

J’ai vu des cas (aucun nom qui me vienne à l’esprit là tout de suite, en revanche) qui réussissaient l’exploit de mettre la carte à genou tout en étant moche à crever…

La qualité du code des fois ça compte aussi.









Sur le coup j’ai trouvé ça vraiment, mais vraiment très moche, malgré les reproches, je m’attendais à mieux.



Bon je n’ai joué qu’une heure environ, je le trouve encore moche graphiquement, heureusement, la direction artistique et l’originalité des décors réussi à sauver le jeu.





Metro 2033, sans être moche, nécessite un SLI de gtx 690 pour pouvoir jouer à 60FPS, le code ça compte.


votre avatar

Heu.. c’est du foutage de gueule là. Riddick c’est un jeu qui utilise le moteur de Doom3, j’y jouais avec une GeForce FX5700 Ultra puis une ATI X700 ça remonte à un bon paquet d’années. Alors optimiser ce jeu pour une GTX600 ça me fait bien rire. Pour la prochaine je leur suggère de s’attaquer à Quake 3 c’est un jeu plus connu…



Les autres chiffres c’est bidon, 3% sur des jeux qui tournent à 30-40FPS ça rentre dans les marges d’erreur des benchmark et ça ne fait même pas 2FPS de différence.



Arrêtez de nous prendre pour des moules un peu.

votre avatar







Obidoub a écrit :



Heu.. c’est du foutage de gueule là. Riddick c’est un jeu qui utilise le moteur de Doom3, j’y jouais avec une GeForce FX5700 Ultra puis une ATI X700 ça remonte à un bon paquet d’années.









Reste que même pas 60 FPS pour un jeu de ce temps, ya comme un problème.


votre avatar







Obidoub a écrit :



Heu.. c’est du foutage de gueule là. Riddick c’est un jeu qui utilise le moteur de Doom3, j’y jouais avec une GeForce FX5700 Ultra puis une ATI X700 ça remonte à un bon paquet d’années. Alors optimiser ce jeu pour une GTX600 ça me fait bien rire.







Sauf que l’on parle de Dark Athena, le remake de Riddick et son nouvel épisode sortie en 2009 et bien plus beau / goumand.

Ensuite il utilise le Starbreeze Engine (utilisé dans le dernier Syndicate) et non l’Id tech 4 de Doom 3.

Renseignez vous avant de troll <img data-src=" />


votre avatar







Obidoub a écrit :



Heu.. c’est du foutage de gueule là. Riddick c’est un jeu qui utilise le moteur de Doom3, j’y jouais avec une GeForce FX5700 Ultra puis une ATI X700 ça remonte à un bon paquet d’années. Alors optimiser ce jeu pour une GTX600 ça me fait bien rire. Pour la prochaine je leur suggère de s’attaquer à Quake 3 c’est un jeu plus connu…



Les autres chiffres c’est bidon, 3% sur des jeux qui tournent à 30-40FPS ça rentre dans les marges d’erreur des benchmark et ça ne fait même pas 2FPS de différence.



Arrêtez de nous prendre pour des moules un peu.







C’est pas le même, là on parle de la suite, qui date de 2009 et utilise un moteur maison… Mais ça reste un jeu de 2009.


votre avatar

<img data-src=" />oh punaise sont vraiment grave avec leur pilotes de la mort

votre avatar







von-block a écrit :



Metro 2033, sans être moche, nécessite un SLI de gtx 690 pour pouvoir jouer à 60FPS, le code ça compte.







Si je ne dis pas de bêtises, Dishonored tourne sous UE3. Depuis 5 ans qu’il est exploité, on peut espérer que le machin soit un poil optimisé maintenant <img data-src=" />


votre avatar

Attention, ces chiffres sont très peu fiables dans l’absolu.

En effet, les constructeurs communiquent toujours sur les performances positives par rapport au driver précédent, jamais sur les perfs négatives.



Exemple (fictif, c’est juste pour illustrer)

Driver 260 : +10% Skyrim, +15% Batman AA

Driver 280 : +15% WoW (mais -12% Skyrim et -5% Batman AA mais chut)

Driver 300 : +12% Skyrim



Au total, différence entre v260 et v300 : 0% Skyrim, la version 300 a juste corrigé une régression de perf sur la 280 pour ce jeu, mais ça, on ne vous le dit pas…

votre avatar







von-block a écrit :



La carte reste en mode basse performance à 800mhz (contrairement à 1201) durant le jeu, utilisant selon afturburner seulement 15-20% de sa puissance….





J’avais exactement le même cas sur toutes les applis OpenGL avec mon ex ATI HD4870 : le pilote gardait la carte en mode 2D “basse consommation” et du coup j’avais des perfs complètement pourries, largement inférieures à la Nvidia 2 générations plus ancienne qu’elle remplaçait.



C’était un bug de driver, jamais corrigé en un peu plus d’1 an malgré la quantité de plaintes d’utilisateurs sur leur forum (les messages étant chaque fois rapidement effacés par les modos, comme par hasard … <img data-src=" />), du coup je suis repassé “chez les verts” et tout est rentré dans l’ordre.


votre avatar







Guinnness a écrit :



J’avais exactement le même cas sur toutes les applis OpenGL avec mon ex ATI HD4870 : le pilote gardait la carte en mode 2D “basse consommation” et du coup j’avais des perfs complètement pourries, largement inférieures à la Nvidia 2 générations plus ancienne qu’elle remplaçait.



C’était un bug de driver, jamais corrigé en un peu plus d’1 an malgré la quantité de plaintes d’utilisateurs sur leur forum (les messages étant chaque fois rapidement effacés par les modos, comme par hasard … <img data-src=" />), du coup je suis repassé “chez les verts” et tout est rentré dans l’ordre.







Ah ouais, je ne connais pas trop AMD pour les gpu



Non, mais moi c’est seulement car le jeu ne demande pas de ressource.



Il est à 60 FPS constant.


votre avatar

Hey oh, les gars, vous oubliez un truc: c’est du bonus, c’est gratuit.



Quand je lis “ouais, c’est nul, c’est que 4%”, je me demande ce qui vous gene…

Vous prefereriez quoi? Vous avez acheter votre carte graphique bien chere, elle a ses performances d’usine, et puis c’est tout?



Donc si on vous optimise les petits performances aux petits oignons et qu’on vous trouve quelques pourcentages de perfs en plus, gratuitement, vous vous plaigniez?



C’est quoi l’idée? Si les perfs de la carte ne sont pas doublées, vous n’en voulez pas?

Une fois la carte vendue, nVidia ne gagne plus d’argent. Pourtant, ils continuent a bosser pour ameliorer toujours le bazar, et vous vous plaigniez parce que ce n’est pas assez?

Quand vous avez acheté la carte, on vous a promis qu les FPS allaient doubler avec la sortie du prochain pilote?



Alors evidement que c’est du marketing, evidement que c’est de l’annonce de perfomances en hausse exceptionnelle sur la plaquette publicitaire, mais on est tous des grandes personnes, et on le sait tous ca.



Toujours est il que ca va dans le bon sens.



Le jour ou ils arreteront d’optimiser les drivers en continu, vous ferez quoi? Vous cesserez d’acheter des cartes graphiques? Vous mettrez votre ordi a la cave et irez jouer a Angry Bird sur votre telephone?



Non. Vons continuerez a les acheter tout pareil, et a jouer tout pareil, mais cette fois ci, sans avoir une equipe qui bosse en permanence pour offrir toujours mieux, pour corriger les bugs, etc.





Quand on vous donne de 2 a 15% en plus de perfs gratuites, sans rien faire, essayez de pas avoir le reflexe de vous plaindre juste pour vous plaindre, et evitez de dire “quoi? que 5%? mais c’est nul!” <img data-src=" />

votre avatar

Bah quand t’es un acheteur un minimum avertie les perf et les maj des drivers sur une CG c’est quasi aussi important que la carte elle même, donc dire que c’est bonus (genre si y’en avait pas se serai pas grave) voir qu’on nous fait une fleur je trouve ça un peu hors de propos.

votre avatar

ATI/AMD j’évite parce que :

-drivers linux pourris

-supression de la partie accélération 2D, et ça se sent sous Word, Excel comme Libreoffice, et c’est chiant

Alors je reste chez les verts, la GTX660Ti va bien, merci. Et les enfants sont contents d’avoir récupéré la GTX260 pour leur PC.

votre avatar







Guiguiolive a écrit :



Hey oh, les gars, vous oubliez un truc: c’est du bonus, c’est gratuit.



Quand je lis “ouais, c’est nul, c’est que 4%”, je me demande ce qui vous gene…

Vous prefereriez quoi? Vous avez acheter votre carte graphique bien chere, elle a ses performances d’usine, et puis c’est tout?



Donc si on vous optimise les petits performances aux petits oignons et qu’on vous trouve quelques pourcentages de perfs en plus, gratuitement, vous vous plaigniez?



C’est quoi l’idée? Si les perfs de la carte ne sont pas doublées, vous n’en voulez pas?

Une fois la carte vendue, nVidia ne gagne plus d’argent. Pourtant, ils continuent a bosser pour ameliorer toujours le bazar, et vous vous plaigniez parce que ce n’est pas assez?

Quand vous avez acheté la carte, on vous a promis qu les FPS allaient doubler avec la sortie du prochain pilote?



Alors evidement que c’est du marketing, evidement que c’est de l’annonce de perfomances en hausse exceptionnelle sur la plaquette publicitaire, mais on est tous des grandes personnes, et on le sait tous ca.



Toujours est il que ca va dans le bon sens.



Le jour ou ils arreteront d’optimiser les drivers en continu, vous ferez quoi? Vous cesserez d’acheter des cartes graphiques? Vous mettrez votre ordi a la cave et irez jouer a Angry Bird sur votre telephone?



Non. Vons continuerez a les acheter tout pareil, et a jouer tout pareil, mais cette fois ci, sans avoir une equipe qui bosse en permanence pour offrir toujours mieux, pour corriger les bugs, etc.





Quand on vous donne de 2 a 15% en plus de perfs gratuites, sans rien faire, essayez de pas avoir le reflexe de vous plaindre juste pour vous plaindre, et evitez de dire “quoi? que 5%? mais c’est nul!” <img data-src=" />







Ça n’a rien de gratuit, le support, le suivi, c’est compris dans le prix. Si ils le font c’est parce que les clients ont payé pour ça. Pour avoir un suivi, des MaJ, des améliorations. La correction de bug n’est pas un bonus.



Quand un constructeur ne fera plus ça, et qu’une carte sera à la rue à cause de bug, plus personne ne l’achètera.


votre avatar

Torvalds : “ AMD : Fuck You !” <img data-src=" />



Hummm, je crois pas …



Heu chez AMD, il n’ y a pas plus de liberté concernant les pilotes linux ?



@Guiguiolive : Exemple encore plus simple : Windows, tu ne veux pas non plus qu’il soit devenu une gruyère ? Le support de garantie ou SAV est compris dans tout type de produit, et les optimisations en font parti, ça peut paramètre débile une boucle de merde en prog, mais c’est comme un bug, une merde dans ton code <img data-src=" />




votre avatar

Ouais et bien



Les nouveaux driver de nvidia me cause des soucis.



SUr dishonored j’ai un glitch de son à chaque 7 secondes. une micro coupure.



Retour au ancien et problème réglé.



C’est du beta aussi, je ne suis pas offusqué.

votre avatar

Comme quoi attendre avant de jouer aux derniers titres…

votre avatar

“c’est moi qu’j’ai la plus groooosseuuuuuh” <img data-src=" />



je suis franchement perplexe sur le niveau de développement global de l’humanité…

votre avatar







Arona a écrit :



Comme quoi attendre avant de jouer aux derniers titres…







Enfin attendre pour gagner 2% de 60 FPS soit 1 image par seconde au bas mot <img data-src=" /> …..


votre avatar

Pendant ce temps la les gtx600 sont toujours pas compatibile sur l’encodage GPU sur Sony Vegas :( Et aucune des deux parties se bougent pour corriger ça :/

votre avatar

Attention au marketing qui repasse par dessus les résultats des équipes techniques, avec les “jusqu’à xx% de performances”



Comme c’est écrit dans l’article, ils prennent les meilleurs gains pour une ou deux cartes, dans une résolution particulière, pour certains jeux.



Il vaut mieux retenir les résultats moyens.

votre avatar

Hors sujet ou presque



Dishonored sur ma gtx 670 en 2560*1440 m’a bien fait marrer.



La carte reste en mode basse performance à 800mhz (contrairement à 1201) durant le jeu, utilisant selon afturburner seulement 15-20% de sa puissance….



Vivement la prochaine génération de console


votre avatar







von-block a écrit :



Hors sujet ou presque



Dishonored sur ma gtx 670 en 2560*1440 m’a bien fait marrer.



La carte reste en mode basse performance à 800mhz (contrairement à 1201) durant le jeu, utilisant selon afturburner seulement 15-20% de sa puissance….



Vivement la prochaine génération de console





et le rendu du jeu est comment ?

J’ai vu des cas (aucun nom qui me vienne à l’esprit là tout de suite, en revanche) qui réussissaient l’exploit de mettre la carte à genou tout en étant moche à crever…

La qualité du code des fois ça compte aussi.


NVIDIA aussi améliore les performances de ses cartes grâce à ses pilotes

Fermer