Connexion
Abonnez-vous

Selon NVIDIA, les consoles ne seront plus jamais à la hauteur du PC

Quand on loupe deux contrats, on se justifie comme on peut

Selon NVIDIA, les consoles ne seront plus jamais à la hauteur du PC

Le 25 septembre 2013 à 07h33

NVIDIA est très certainement le grand perdant sur la huitième génération de consoles. Alors qu'AMD a raflé la mise sur la Xbox One et la PlayStation 4 avec ses APU, le constructeur au caméléon ne voit en effet ses produits intégrés dans aucune des dernières consoles. La firme se défend toutefois en précisant que l'industrie du PC est à la pointe et que c'est ce qui l'intéresse le plus.

NVIDIA GeForce GTX 780

 

« Il n'est plus possible pour une console d'être plus performante sur le plan des graphismes qu'un PC », s'enthousiasme Tony Tamasi, vice-président sénior chez NVIDIA, devant nos confrères de chez PC PowerPlay. Une déclaration qui n'aura rien de surprenant pour certains, mais jusqu'ici, l'équation n'était pas aussi évidente que cela, tout du moins jusqu'à la sortie des consoles de la génération actuelle. 

 

« Dans le passé, notamment à l'époque de la première PlayStation et de la PlayStation 2, il n'y avait pas vraiment de bons graphismes sur PC. Autour du lancement de la PlaySation 2 (NDLR : en mars 2000), la 3D a commencé à apparaître sur PC, mais avant cela, la 3D était le domaine de Sillicon Graphics et d'autres stations de travail. Sony, Sega ou Nintendo pouvaient investir pour amener la 3D aux consommateurs. En fait, la PS2 était plus rapide qu'un PC », explique le dirigeant. Il est vrai qu'en l'an 2000, une époque où la GeForce 2 GTS était une carte haut de gamme et que des titres comme Age of Empires II, Diablo II ou Midtown Madness étaient au top de la création sur PC, les graphismes d'une PlayStation 2 ne pouvaient que donner envie. 

 

Sont venues ensuite les PlayStation 3 et Xbox 360, que l'homme qualifie d'équivalentes aux PC lors de leurs sorties. « Si vous regardez à l'intérieur, vous verrez qu'elles sont mues par les technologies graphiques d'AMD ou NVIDIA, parce qu'à ce moment-là, l'innovation était apportée par les fabricants de puces graphiques pour PC », assure le responsable. L'ère de Sillicon Graphics était donc révolue. Les fabricants de consoles n'ont pas eu non plus les reins assez solides pour se lancer dans la création de leurs propres puces graphiques si l'on en croit NVIDIA. « Nous dépensons 1,5 milliard de dollars chaque année en recherche et développement. Sur le cycle de vie d'une console de jeux, cela représente 10 milliards de dollars. Sony et Microsoft ne peuvent tout simplement pas se permettre de dépenser autant pour ça ».

La consommation est une contrainte sur consoles, le prix aussi

Autre point de détail : selon Tony Tamasi, les consoles de salon ont des contraintes sur le plan thermique et une consommation plus importantes que sur PC, où dans les machines haut de gamme, la place ne manque pas. Ainsi, l'homme nous explique que le budget consommation total d'une console de jeux se situe entre 200 et 300 watts, ce qui interdit de fait l'utilisation d'un GPU réclamant 250 watts à pleine puissance comme un GK110 par exemple.

 

Le responsable oublie toutefois un point crucial pour justifier cet écart de performances entre un PC haut de gamme et une console de nouvelle génération : le prix. Aucun constructeur, qu'il s'agisse de Sony, Microsoft ou Nintendo ne peut se permettre d'opter pour un GPU haut de gamme, vendu près de 600 dollars dans le commerce, pour l'intégrer dans une machine vendue 399 ou 499 dollars. Le seul moyen de le faire serait d'augmenter drastiquement le prix de ces appareils, mais probablement personne n'avait envie de revivre l'épisode de la sortie de la PlayStation 3, dont le prix flirtait avec la barre des 700 euros.

Commentaires (241)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar



« Il n’est plus possible pour une console d’être plus performante sur le plan des graphismes qu’un PC vu qu’elles sont pas équipées du tout avec nos puces <img data-src=" />»





<img data-src=" /> bye

votre avatar







Cara62 a écrit :



PS : La puce graphique de la PS3 c’est NVidia. <img data-src=" />







Yep, plus ou moins une GeForce 6700 <img data-src=" />



Le grand drame des développeurs au début de la PS3: carte graphique très dépassée (contrairement à la X360 qui était en AMD), et manque de pratique pour déporter efficacement les calculs impossibles sur la cg vers les SPU…



Sinon, il semblerait que NVIDIA ait raté ou soit en passe de rater le coup de la Steambox et soir occupé à revoir sa copie concernant les pilotes libres.


votre avatar







yeagermach1 a écrit :



Honnetement je trouve pas le jeu si impressionnant que cela. C’est un <img data-src=" /> de couloir avec quasiment pas d’IA et tres peu d’ennemies. Alors oui les couloirs sont beaux …







Comme disait un autre un IMpactien, la ram de la PS3. (Sony inside \o/)







xxSeize a écrit :



C’est un lieu commun “the last of us = beau”, perso je trouve ça hyper inégale. De jolies phases quand on veut les montrer, et puis t’explore, et tu vois le cache misère.



Pour “PC gamer gamme moyenne”, juste “non”. Un PC gamer moyen gamme, ça fait tourner Crysis 3 en HD, 60 FPS et de l’AA (je parle même pas des autres filtres, gestion de lumière dynamique) ? Nope.

Aussi, c’est combien d’€ un PC gamer moyen ? On en reparle quand BF4, Watchdogs, The Witcher 3 seront sur le marché ?







J’ai refait ma config cette année, pour 1k€, et BF4 tournera sans soucis (c’est une config similaire que BF3)



Hônnetement à part Witcher 3, ou pour le faire tourner à fond faut plutôt un pc de guerre.

Comme j’ai dit, les jeux s’adaptent aux consoles, donc du moment où tu arriveras à faire tourner les jeux comme sur la PS4, tu es tranquille pendant des années.



Après bien sûr tu peux faire le kikoo, et acheter une Titan pour pouvoir jouer à Crysis 3 au max.



Pour finir, les jeux sur consoles next -gen tournerons en 720p (pour EA), voir en 1080p max.

Donc pas de 4K, pas besoin d’une super Carte Graphique de la mort.


votre avatar







xxSeize a écrit :



C’est un lieu commun “the last of us = beau”, perso je trouve ça hyper inégale. De jolies phases quand on veut les montrer, et puis t’explore, et tu vois le cache misère.



Pour “PC gamer gamme moyenne”, juste “non”. Un PC gamer moyen gamme, ça fait tourner Crysis 3 en HD, 60 FPS et de l’AA (je parle même pas des autres filtres, gestion de lumière dynamique) ? Nope.

Aussi, c’est combien d’€ un PC gamer moyen ? On en reparle quand BF4, Watchdogs, The Witcher 3 seront sur le marché ?



Ah oui et puis :

google.fr Google





Cela fait juste 6 mois que la news est sortie chez les autres sites, c’est beau le recyclage.


votre avatar







Cara62 a écrit :



Comme disait un autre un IMpactien, la ram de la PS3. (Sony inside \o/)







J’ai refait ma config cette année, pour 1k€, et BF4 tournera sans soucis (c’est une config similaire que BF3)



Hônnetement à part Witcher 3, ou pour le faire tourner à fond faut plutôt un pc de guerre.

Comme j’ai dit, les jeux s’adaptent aux consoles, donc du moment où tu arriveras à faire tourner les jeux comme la PS4, tu es tranquille pendant des années.







1k€ (j’imagine sans écran), c’est plus du moyen gamme imo. BF4 tournera sans doute, mais n’oublie pas les récents partenariats entre Nvidia (et AMD je suppose) avec Ubisoft, je pense que ça n’est qu’un début, mais on peut espérer que Watchdogs sera une vraie version PC, comme FarCry 3 l’a été.


votre avatar







yeagermach1 a écrit :



Cela fait juste 6 mois que la news est sortie chez les autres sites, c’est beau le recyclage.







Je sais mais c’est l’article qui pop en premier en recherche google :)


votre avatar







xxSeize a écrit :



1k€ (j’imagine sans écran), c’est plus du moyen gamme imo. BF4 tournera sans doute, mais n’oublie pas les récents partenariats entre Nvidia (et AMD je suppose) avec Ubisoft, je pense que ça n’est qu’un début, mais on peut espérer que Watchdogs sera une vraie version PC, comme FarCry 3 l’a été.





Avec 1k (sans ecran), tu as un très bon proc et un très bon GPU. Perso j’ai refait l’année dernière et pour cette somme, j’ai BF3 qui tourne taf (aa 2x et pas d’ambient) a 60fps.


votre avatar







Niktareum a écrit :



Un jeu console 75€, le même en pc 45€….Voila voila…







Quand on a un train de retard sur les nouveautés, c’est largement inférieur à 45€ sur Steam…



votre avatar







yeagermach1 a écrit :



Cela fait juste 6 mois que la news est sortie chez les autres sites, c’est beau le recyclage.





Ah bah c’est GameBlog hein <img data-src=" />


votre avatar







xxSeize a écrit :



1k€ (j’imagine sans écran), c’est plus du moyen gamme imo. BF4 tournera sans doute, mais n’oublie pas les récents partenariats entre Nvidia (et AMD je suppose) avec Ubisoft, je pense que ça n’est qu’un début, mais on peut espérer que Watchdogs sera une vraie version PC, comme FarCry 3 l’a été.







Oui sans écran/Clavier/Souris, j’avais déjà tout ça. :)



Pour moi si Watchdogs tourne très bien et que j’ai un rendu minimum comme sur PS4 (qui est loin d’être dégueulasse en plus), c’est bon en gros je suis tranquille quelques années.



On verra, encore quelques semaines. :p



Et sinon Moyen/Haut de gamme, comme d’habitude c’est selon appréciation de chacun. (En parlant de PC Monté soit même, pas venant de carrouf <img data-src=" /> )



Edit : Sinon un point que tu soulèves aussi, c’est l’optimisation sur PC, au temps sur console c’est un hardware Fixe, au temps sur PC, le jeu doit s’adapter sur des milliers de configs. SWTOR, je pense à toi !

Et BF3 est pour moi un très bon exemple d’ailleurs, quand je vois qu’il tourne super bien sur non PC Portable (qui n’est pas gamer), j’ai été impressionné.



SWTOR, je pense à toi !


votre avatar







xxSeize a écrit :



Je sais mais c’est l’article qui pop en premier en recherche google :)





Non mais c’est pas contre toi, c’est plus contre julienC qui fait un recyclage honteux. Ce mec c’est le morandini du jeux video.


votre avatar

Aaah, le bon vieux mauvais perdant. Autant ils ont perdu au niveau des consoles, autant au niveau du HPC, Nvidia ratatine AMD il me semble. Sauf erreur de ma part, je n’entend parler que de CUDA et de nouveau cluster GPU à base de chipset Nvidia… (mais on ne peut pas faire de jeux vidéo avec les cluster <img data-src=" />)

votre avatar







yeagermach1 a écrit :



Avec 1k (sans ecran), tu as un très bon proc et un très bon GPU. Perso j’ai refait l’année dernière et pour cette somme, j’ai BF3 qui tourne taf (aa 2x et pas d’ambient) a 60fps.







Ah mais je ne dis pas le contraire, mais pour moi 1k€ sans screen, on rentre dans la grosse cours niveau PC, on dépasse le budget moyen game.



Je ne parle pas d’avoir une Titan pour frimer, ou une 780 (c’est ce que je vais acheter, mais je l’ai moitié prix par une connaissance …), ça peut être un achat intelligent qui permet de sauter beaucoup de génération de GPU avant de voir la carte à genoux.







Cara62 a écrit :



Oui sans écran/Clavier/Souris, j’avais déjà tout ça. :)



Pour moi si Watchdogs tourne très bien et que j’ai un rendu minimum comme sur PS4 (qui est loin d’être dégueulasse en plus), c’est bon en gros je suis tranquille quelques années.



On verra, encore quelques semaines. :p



Et sinon Moyen/Haut de gamme, comme d’habitude c’est selon appréciation de chacun. (En parlant de PC Monté soit même, pas venant de carrouf <img data-src=" /> )







La première vidéo E3 était sur PC, le reste sur console, perso j’étais un peu mitigé. Mais faut attendre, entre les stands consoles qui sont en réalités des PC avec des 780 … je préfère pas m’avancer.



votre avatar







dodo021 a écrit :



Donc l’oculus Rift et tous les jeux indépendant c’est grâce au console ?





L’oculus rift on verra quand ça sera dans toutes le chaumières…



Pour les jeux indé je suis d’accord.



Mais si tu regardes les jeux à l’heure actuelle ils sont presque tous pensés pour la console.



A part Starcraft 2 et quelques autres RTS( Civilization <img data-src=" /> ) je ne vois pas de gros titres PC non pensés pour la console, même Diablo y est passé…



Après c’est pas de la faute de l’a plateforme en elle même c’est un choix de rentabilité des éditeurs.


votre avatar

Moi je dis que les 2 cohabiteront, les console c’est bien pour Mr tout le monde.

Mais c’est vrai que si on recherche un niveau plus élevé en graphisme et bien PC pour moi,

en plus la jouabilité sur les FPS est tout de même plus pratique/precis sur PC avec les combo Clavier/Souris, les pads ne sont pas assez réactif precis apr rapport a un clavier Souris

Et le PC a l’avantage de suivre les évolutions techniques, car le matos peut se mettre a jour. Par contre pour les console, une fois que l’on a atteint le Max et bien après faut attendre la prochaine gen (PS5, 6, Etc….)

votre avatar

Oui, le monsieur a raison pour des questions de prix et de consommation électrique.

Et alors?

La puissance graphique est importante dans une expérience vidéoludique mais elle ne fait pas tout.

De plus :




  • les consoles actuelles (PS3, 360) n’exploitent pas encore le 1080p

  • les écrans TV ne seront pas, en majorité, 4K avant au moins 3 ans



    Donc avoir une carte qui fait du 2560x1440 à 120fps avec AA et AF c’est un peu overkill pour le salon.



    Oui, les “next gen” sont des PC moyen de gamme mais c’est un saut important en terme de puissance par rapport à la génération précédente et c’est en phase avec les technos disponibles dans la majorité des salons.

votre avatar







xxSeize a écrit :



Ah mais je ne dis pas le contraire, mais pour moi 1k€ sans screen, on rentre dans la grosse cours niveau PC, on dépasse le budget moyen game.



Je ne parle pas d’avoir une Titan pour frimer, ou une 780 (c’est ce que je vais acheter, mais je l’ai moitié prix par une connaissance …), ça peut être un achat intelligent qui permet de sauter beaucoup de génération de GPU avant de voir la carte à genoux.







La première vidéo E3 était sur PC, le reste sur console, perso j’étais un peu mitigé. Mais faut attendre, entre les stands consoles qui sont en réalités des PC avec des 780 … je préfère pas m’avancer.







La première vidéo oui PC, mais cette année (E3 2013 si je me trompe pas), c’était bien sur PS4 (ou X1 du coup j’ai un doute). Et c’était vraiment beau, il y a quand même un bon gap graphique. Après est-ce que ça poussera les gens à acheter la next gen je n’en sais rien.



Après, oui, je ne doute pas que sur PC il sera mieux.



Sinon si tu veux savoir ma config en résumé :





  • i5 4570K @ 3,2Ghz (j’ai pas OC)

  • GTX 760 OC

  • 8Go Ram @ 1800Mhz

  • indice kikoo perf Windows, 7.4



    Au passage ce que demande BF4, en recommandé, c’est i5 et GTX 660 (ou équivalent AMD)


votre avatar







Nithril a écrit :



Un lévrier tétraplégique couriracourra de toute façon plus vite qu’un chihuahua <img data-src=" />





<img data-src=" />

Je mourirai pour toi Groland

:amphore:







Soltek a écrit :



Tiens puisque tu as l’air de kiffer Wikipedia : oh un stick analogique dans les années ‘70.





Y’a toujours en 2013 des gens pour confondre la date de création d’une technologie et sa date de popularisation ? <img data-src=" />

<img data-src=" />


votre avatar



Aucun constructeur, qu’il s’agisse de Sony, Microsoft ou Nintendo ne peut se permettre d’opter pour un GPU haut de gamme, vendu près de 600 dollars dans le commerce, pour l’intégrer dans une machine vendue 399 ou 499 dollars. Le seul moyen de le faire serait d’augmenter drastiquement le prix de ces appareils, mais probablement personne n’avait envie de revivre l’épisode de la sortie de la PlayStation 3, dont le prix flirtait avec la barre des 700 euros.





Sauf qu’un GPU haut de gamme ne coûte pas forcément plus cher à produire qu’un GPU milieu de gamme, et bien souvent les deux proviennent des mêmes wafers mais n’ont simplement pas la même tolérance à des fréquences élevées, ou bien une partie de la puce ne fonctionne pas bien et est désactivée.



Donc le prix des GPU haut de gamme est assez artificiel, et je doute que de gros constructeurs de console aient à payer le prix fort pour des millions de GPU haut de gamme.



Quant aux PC, d’aussi loin que je me souvienne ils ont toujours été plus puissants que les consoles de jeu de la même époque.

votre avatar







Niktareum a écrit :



LA technologie oui, mais le cable hdmi qui sort de ma carte graphique et va sur la tv, ben g pas de son…

D’ailleurs, ej vois pas d’ou il pourait venir, la cg fait pas de son, et ma x-fi n’est pas relié a la cg.



A moins d’un truc incroyable qui permet d’avoir le son de l’ordi, géré par l’os ou chepaquoi qui envoie le son dolby digital de ma cg sur l’hdmi de la cg vers la tv, faut m’expliquer… <img data-src=" />







Tu as de grandes chances d’avoir du son qui passe dans ton port HDMI, il faut simplement installer le bon pilote. De mémoire les cartes ATI et Intel le font.


votre avatar

La carte graphique nvidia qui permettait d’égaler une PS3 ou une 360 à l’époque de leur sortie était la GeForce 7600 GT, qui peut dire qu’il arrive à jouer agréablement à Call of Duty Black Ops 2 sur ce type de carte ? Alors que la PS3 le fait tourner sans problèmes…

J’ai un i7 4471, une GTX780 et un SSD où j’installe mes jeux, mais ça ne m’empêche pas de jouer + souvent sur mes PS3/360 que sur mon PC.

Tout le monde n’a pas les moyens de mettre 1000€ tous les 12-24 mois dans un upgrade PC.

Peut-être que la future architecture PS3/X1 permettra un meilleur portage PC, mais rien n’est moins sûr, on considèrera dans 6-7 ans les GTX760 (carte qu’on met dans un PC gamer à 1000€ de nos jours) comme les GeForce 7600GT maintenant, et les développeurs se foutent royalement que leur jeu tourne bien ou pas sur une 7600 <img data-src=" />

En jeu PC on a plusieurs choix, soit on achète un monstre à 2-3000€ qu’on remplace complètement après 3 ans, soit on achète un PC moyen à 1000€ et on l’upgrade au fil du temps, mais on arrive au même total.

Sur consoles on achète la console quand elle sort à 400-600€, et lorsqu’elle tombe en panne après sa garantie on la remplace par la même dont le prix a chuté à 200-300€ entretemps.

Bref ce sont deux mondes différents, qui - pour le moment - ont toutes les raisons de cohabiter vu les différences tarifaires et les exclusivités.

votre avatar

Pour le son sur la sortie HDMI :





  • Click Droit sur le petit haut parleur blanc Windows en bas à droite (pas le haut parleur que certains pilotes rajoutent)

  • périphériques de lecture

  • trouver la bonne sortie HDMI NVIDIA/ATI dans la liste qui apparait

  • click droit dessus + activer et/ou définir comme périphérique par défaut.

  • Appliquer / OK



    Attention cela ne fait que 3 ou 4 ans que les cartes graphiques ont un contrôleur de son intégré. Les premières ayant un HDMI avaient besoin d’un pontage SPDIF qui allait de la carte son à la carte graphique.

votre avatar







oudi1974 a écrit :



La carte graphique nvidia qui permettait d’égaler une PS3 ou une 360 à l’époque de leur sortie était la GeForce 7600 GT, qui peut dire qu’il arrive à jouer agréablement à Call of Duty Black Ops 2 sur ce type de carte ? Alors que la PS3 le fait tourner sans problèmes…

J’ai un i7 4471, une GTX780 et un SSD où j’installe mes jeux, mais ça ne m’empêche pas de jouer + souvent sur mes PS3/360 que sur mon PC.

Tout le monde n’a pas les moyens de mettre 1000€ tous les 12-24 mois dans un upgrade PC.

Peut-être que la future architecture PS3/X1 permettra un meilleur portage PC, mais rien n’est moins sûr, on considèrera dans 6-7 ans les GTX760 (carte qu’on met dans un PC gamer à 1000€ de nos jours) comme les GeForce 7600GT maintenant, et les développeurs se foutent royalement que leur jeu tourne bien ou pas sur une 7600 <img data-src=" />

En jeu PC on a plusieurs choix, soit on achète un monstre à 2-3000€ qu’on remplace complètement après 3 ans, soit on achète un PC moyen à 1000€ et on l’upgrade au fil du temps, mais on arrive au même total.

Sur consoles on achète la console quand elle sort à 400-600€, et lorsqu’elle tombe en panne après sa garantie on la remplace par la même dont le prix a chuté à 200-300€ entretemps.

Bref ce sont deux mondes différents, qui - pour le moment - ont toutes les raisons de cohabiter vu les différences tarifaires et les exclusivités.





Pour rappel la PS3 avait une GTX 7900 boostée et la Xbox l’équivalent d’une Radeon 2K sans le support DX10…



Donc on est loin d’une 7600GT.<img data-src=" />


votre avatar

Après 7 ou 8 ans, la différence entre 7600 et 7900 c’est peanuts quand on la compare aux cartes actuelles.

Sur un graphique de cartes actuelles sur jeux actuels, en 1080p réglages moyens, il y aurait un gouffre immense, sur du 60 i/s garantis en réglages moyens sur une GTX760 (voire + sur un écran 120Hz) on tomberait sans doute à 5 et 8 i/s sur les 7600 et 7900 (voire moins), si la différence est bien de 20 ou 30%, c’est injouable dans les deux cas ;)

votre avatar







Niktareum a écrit :



LA technologie oui, mais le cable hdmi qui sort de ma carte graphique et va sur la tv, ben g pas de son…

D’ailleurs, ej vois pas d’ou il pourait venir, la cg fait pas de son





Euh bien sûr que si, depuis des années.



Edit : grillé par oudi1974 avec explications de comment faire là.


votre avatar

Leur puissance brute est encore tout à fait honorable, mais la différence est que les développeurs optimisent encore leurs jeux pour les 7900 et Radeon 2K des deux consoles, mais pas pour les mêmes chipsets présents dans les PC. Ce qui fait qu’on obtiendra difficilement le rendu d’un GTA5 PS3 sur un PC équipé d’une 7900

votre avatar







oudi1974 a écrit :



Pour le son sur la sortie HDMI :





  • Click Droit sur le petit haut parleur blanc Windows en bas à droite (pas le haut parleur que certains pilotes rajoutent)

  • périphériques de lecture

  • trouver la bonne sortie HDMI NVIDIA/ATI dans la liste qui apparait

  • click droit dessus + activer et/ou définir comme périphérique par défaut.

  • Appliquer / OK











    Soltek a écrit :



    Edit : grillé par oudi1974 avec explications de comment faire là.









    Ooohhh, marci lay gens <img data-src=" />

    Vais regarder ca ce soir, sauf que…. Comme j’ai déménagé il y a peu, mon pc n’est plus relié a la tv <img data-src=" />, je pourrais jamais savoir si ca marche <img data-src=" />


votre avatar







Soltek a écrit :



Ok moi aussi je vais juste quote un passage et faire abstraction du reste en faisant semblant de pas comprendre ton message.

Tiens puisque tu as l’air de kiffer Wikipedia : oh un stick analogique dans les années ‘70.









ludo0851 a écrit :



Y’a toujours en 2013 des gens pour confondre la date de création d’une technologie et sa date de popularisation ? <img data-src=" />

<img data-src=" />





Non seulement ça, mais il se plante complètement en plus. ;)

Ce qu’on désigne par “stick analogique” en langage courant, même si c’est techniquement imprécis (voire impropre), c’est le périphérique d’entrée qui traduit dans son input à destination du jeu en respectant l’amplitude du mouvement du pouce/doigt (donc de l’angle du stick par rapport à sa position initiale). Autrement dit, non pas un input binaire mais progressif.



Le truc qu’il met en lien, n’est absolument pas progressif (j’ai déjà joué à des consoles de cette époque). Soit dit en passant, je ne suis pas sûr non plus que l’Atari 5200 ait proposé un périphérique de la même nature que celui de la n64, mais je n’y ai jamais joué.



Et pour replacer le fil dans son contexte, je rappelle que je citais (entre autres) le stick de la n64 de Nintendo, en réaction à son commentaire selon lequel les consoles n’avaient apporté aucune innovation.

En revanche, on pourra peut-être y opposer le joystick, qui pour le coup suit exactement le même principe de fonctionnement (juste avec la main plutôt que le pouce), et qui est certainement antérieur (même si le stick analogique reste un beau progrès de miniaturisation, ce n’est pas une révolution). :)


votre avatar







oudi1974 a écrit :



Pour le son sur la sortie HDMI :





  • Click Droit sur le petit haut parleur blanc Windows en bas à droite (pas le haut parleur que certains pilotes rajoutent)

  • périphériques de lecture

  • trouver la bonne sortie HDMI NVIDIA/ATI dans la liste qui apparait

  • click droit dessus + activer et/ou définir comme périphérique par défaut.

  • Appliquer / OK



    Attention cela ne fait que 3 ou 4 ans que les cartes graphiques ont un contrôleur de son intégré. Les premières ayant un HDMI avaient besoin d’un pontage SPDIF qui allait de la carte son à la carte graphique.





    Merci pour l’astuce. ;)

    En revanche, tu ne m’en voudras pas trop j’espère de ne pas citer ton troll bien gras façon “je connais rien au rapport prix/perf donc je balance des conneries plus grosses que le compte en banque de S”. <img data-src=" /><img data-src=" />


votre avatar

Je n’ai trollé à aucun moment, le troll c’est pour les pro-marque, et perso je joue sur tout, même sur smartphone dans le bus :)

Je voudrais que tu me cites car je ne comprends pas la remarque <img data-src=" />

Je ne sais pas si ça concernait les GT7600 et GTX7900, mais à l’heure actuelle, je ne pense pas qu’on puisse dire “Aaah tu as une GTX7900 !!! Tu as de la chance je n’ai qu’une GT7600 !! Espèce de bourge !!”



Je rajoute encore un avantage incontestable aux consoles : l’occasion.

Acheter 10€ un jeu d’il y a 4 ans et le revendre au même prix dès qu’on l’a fini, c’est impossible en PC.

Perso je ne regarde pas à la dépense au niveau matériel, mais je refuse de donner + de 25-30€ pour un jeu fini en 8h. (je précise que le multi m’indiffère, hormis le multi local en écran splitté).

votre avatar







oudi1974 a écrit :



Je n’ai trollé à aucun moment, le troll c’est pour les pro-marque, et perso je joue sur tout, même sur smartphone dans le bus :)

Je voudrais que tu me cites car je ne comprends pas la remarque <img data-src=" />

Perso je ne regarde pas à la dépense au niveau matériel, mais je refuse de donner + de 25-30€ pour un jeu fini en 8h. (je précise que le multi m’indiffère, hormis le multi local en écran splitté).









oudi1974 a écrit :



La carte graphique nvidia qui permettait d’égaler une PS3 ou une 360 à l’époque de leur sortie était la GeForce 7600 GT, qui peut dire qu’il arrive à jouer agréablement à Call of Duty Black Ops 2 sur ce type de carte ? Alors que la PS3 le fait tourner sans problèmes…

J’ai un i7 4471, une GTX780 et un SSD où j’installe mes jeux, mais ça ne m’empêche pas de jouer + souvent sur mes PS3/360 que sur mon PC.

Tout le monde n’a pas les moyens de mettre 1000€ tous les 12-24 mois dans un upgrade PC.

Peut-être que la future architecture PS3/X1 permettra un meilleur portage PC, mais rien n’est moins sûr, on considèrera dans 6-7 ans les GTX760 (carte qu’on met dans un PC gamer à 1000€ de nos jours) comme les GeForce 7600GT maintenant, et les développeurs se foutent royalement que leur jeu tourne bien ou pas sur une 7600 <img data-src=" />

En jeu PC on a plusieurs choix, soit on achète un monstre à 2-3000€ qu’on remplace complètement après 3 ans, soit on achète un PC moyen à 1000€ et on l’upgrade au fil du temps, mais on arrive au même total.

Sur consoles on achète la console quand elle sort à 400-600€, et lorsqu’elle tombe en panne après sa garantie on la remplace par la même dont le prix a chuté à 200-300€ entretemps.

Bref ce sont deux mondes différents, qui - pour le moment - ont toutes les raisons de cohabiter vu les différences tarifaires et les exclusivités.





Le troll il est là : devoir dépenser 1000 euros par an en moyenne, c’est du grand n’importe quoi.

Cela n’était pas trop loin de la vérité à l’époque des générations de console n64/PS, et encore. Tous les joueurs PC ne sont pas intéressés par le concours de bite. Mais avec la génération PS360, on a vu la conjonction de deux phénomènes :




  • le gain de perfs d’une génération à l’autre de carte graphique, x fois supérieur au gain qu’on pouvait constater entre les premières générations

  • la tendance lourde des éditeurs à faire du multiplate-forme en prenant la 360 (ou PS3 plus rarement) pour base.



    Ce qui a amené un bénéfice inattendu mais bienvenu pour le joueur : toute carte de milieu/haut de gamme 2010 suffit pour faire tourner 95% des jeux récents, en Full HD, avec un minimum d’effets.

    Les 5% restant couvrant quelques jeux vraiment demandeurs niveau CPU (encore que) et surtout les quelques jeux codés avec les pieds par, au choix, des incapables ou des équipes à qui on n’a pas donné les moyens de réussir (Crysis, GTA4, Civ 5, etc.).

    Et je ne parle même pas des progrès des CPU, de la RAM ou des supports de stockage…



    Au final, un pc qui t’aura coûté entre 600 et 700 euros il y a 4 ans, qui t’en coûterait 300 grand max aujourd’hui, ne va montrer ses limites que l’année prochaine au minimum, avec l’arrivée des jeux conçus pour les nouvelles générations de plate-forme. Et même là, à moins de faire partie de ceux qui veulent juste bander sur la technique, tu pourras toujours largement jouer dans de bonnes conditions (notamment réso Full HD native, là ou PS3 et X360 proposent souvent uniquement du 720p), et bien souvent pour un rendu supérieur aux consoles. Autrement, il suffira de racheter une carte à 200 euros.



    Quant au prix des jeux… Je suis tenté de dire, on a pas besoin d’occasion, vu que les prix partent de moins haut et fondent plus rapidement…



    D’où mon point : tu ne peux pas prétendre connaître le marché PC pour sortir une énormité pareille.

    Après, sur le fait qu’il s’agit de deux univers qui se complètent, je te rejoins totalement (même si ça m’emmerde personnellement parce que je manque plein de jeux qui ont l’air top <img data-src=" />). <img data-src=" />

    Personnellement l’avantage que je vois aux consoles : plus de simulations de sport ou course, RPG japonais, multi en local splitté (même si ça tend à disparaître), et autres exclusivités à tomber (Last of Us, Uncharted, le super jeu / film interactif dont j’ai oublié le nom, etc…).


votre avatar







ludo0851 a écrit :



Y’a toujours en 2013 des gens pour confondre la date de création d’une technologie et sa date de popularisation ? <img data-src=" />

<img data-src=" />





Ça doit être la 3ème fois que je le précise mais bon : on parlait innovation, donc création d’une techno, c’est pourquoi j’ai pris un exemple (peut-être mal choisi vu les explications ci-dessous) d’un techno certes popularisé plus tard, mais qui existait déjà.







Citan666 a écrit :



Ce qu’on désigne par “stick analogique” en langage courant, même si c’est techniquement imprécis (voire impropre), c’est le périphérique d’entrée qui traduit dans son input à destination du jeu en respectant l’amplitude du mouvement du pouce/doigt (donc de l’angle du stick par rapport à sa position initiale). Autrement dit, non pas un input binaire mais progressif.



Le truc qu’il met en lien, n’est absolument pas progressif (j’ai déjà joué à des consoles de cette époque).





C’est vrai tu as raison, l’exemple est sûrement mal choisi, mais :







Citan666 a écrit :



Et pour replacer le fil dans son contexte, je rappelle que je citais (entre autres) le stick de la n64 de Nintendo, en réaction à son commentaire selon lequel les consoles actuels n’avaient apporté aucune innovation.





Voilà, j’aurais du être plus précis dans mon premier commentaire mais vu qu’on parlait de nVidia qui trollait à la base les consoles actuels et futur je ne pensais pas à la genèse des consoles quand je disais ça.

Évidement que les consoles ont développé des choses nouvelles et en particulier Nintendo, c’est ma marque préféré, j’ai eu toutes leurs consoles des Game & Watch à la DS ou Wii (pas la Wii U par contre <img data-src=" />). Mais là j’ai eu l’impression de voir des gens s’extasier devant une PS3/PS4 autant que ceux qui voit dans un iPhone LE smartphone, non, ils l’ont “juste” popularisé (ce qui est en soit un grand truc aussi je ne le nie pas !).

J’espère avoir été plus clair là parce qu’on est d’accord en fait <img data-src=" />


votre avatar







Soltek a écrit :



Ça doit être la 3ème fois que je le précise mais bon : on parlait innovation, donc création d’une techno, c’est pourquoi j’ai pris un exemple (peut-être mal choisi vu les explications ci-dessous) d’un techno certes popularisé plus tard, mais qui existait déjà.





C’est vrai tu as raison, l’exemple est sûrement mal choisi, mais :





Voilà, j’aurais du être plus précis dans mon premier commentaire mais vu qu’on parlait de nVidia qui trollait à la base les consoles actuels et futur je ne pensais pas à la genèse des consoles quand je disais ça.

Évidement que les consoles ont développé des choses nouvelles et en particulier Nintendo, c’est ma marque préféré, j’ai eu toutes leurs consoles des Game & Watch à la DS ou Wii (pas la Wii U par contre <img data-src=" />). Mais là j’ai eu l’impression de voir des gens s’extasier devant une PS3/PS4 autant que ceux qui voit dans un iPhone LE smartphone, non, ils l’ont “juste” popularisé (ce qui est en soit un grand truc aussi je ne le nie pas !).

J’espère avoir été plus clair là parce qu’on est d’accord en fait <img data-src=" />





Ok j’avais mal compris ton propos en effet. <img data-src=" />


votre avatar







Niktareum a écrit :



Ce qu’il faut pas lire comme conneries !!!

Tomb raider 2 par exemple (pour avoir bien joué aux versions pc et console) sur un bon pc gamer de l’époque était 20 milliards de fois plus beau que sur la Playstation premiere du nom.



Et j’etais sur ma 3dfx voodoo 1 (amd k6-2 233, 8mo de ram et 2.4go de hdd <img data-src=" />) !





Tu t’emballes… <img data-src=" /> <img data-src=" /> le jeu était plus fin, sans clipping avec des textures non baveuses mais les seins de lara étaient toujours 2 gros triangles…


votre avatar

Parler de différence de prix entre console et PC c’est sans rapport. On compare pas une petite boite de plastique fermé et verrouillé avec un engin ouvert qui peut évoluer et qui fait autre chose que du jeu.









cyrano2 a écrit :



Ils vont sortir de quoi convertir des PC en vrai consoles ?



Si ils fournissent un “kit” pour transformer un PC en console, comme par exemple le système de Steam, cela peut marcher :)



A voir, si ils veulent un PC posé sur un bureau ou de salon (écran TV plus grand, pas de 2ième écran mais ni clavier ni souris).







Transformer un PC en console mais WTF ? La console ne fait que reprendre une partie de ce que fait déjà le PC. Branche lui une manette et tu as une console, branche le sur ta TV si tu veux un plus grand écran. <img data-src=" />







jpaul a écrit :



Et comme les PCs sont ammenés à disparaitre au profil des tablettes





<img data-src=" />


votre avatar







jpaul a écrit :



Edit: une NVidiaBox sous SteamOS monsieur le caméléon ?





Une PlayBoxOne ? <img data-src=" />


votre avatar

Que diront-ils pour la prochaine “next gen”, si on retrouve leur GPU dedans???



Mystère… <img data-src=" />

votre avatar

Sous entendu:

“Tant que les consoles n’auront pas un gpu à base de nvidia, elle ne seront plus jamais à hauteur des pc”

Yep<img data-src=" /> une bande de jaloux <img data-src=" />

votre avatar







xxSeize a écrit :



Il a raison, et je trouve qu’il a l’habileté de ne pas se montre mauvais perdant, au contraire.



Actuellement, une gtx 770 (voire pourquoi pas la future 760Ti) ne coute pas un bras et c’est du très bon matos, et ça permet de garder une bonne longueur d’avance.



Ceci dit, est ce que les graphs sont le coeur de métier d’une console ? Je sais pas. J’en avais rien à foutre sur Bayonetta que les graph soient en plastique, c’était juste fun, et ça que j’attends d’une console.



Après chacun voit midi à sa porte.







Sauf que les éditeurs visent aussi celui quiachète une config chez carrefour ou un pc portable peu cher et qui a une gf 720 ou que l’intégré d’intel qui sont par contre tout juste au dessus d’une cg de PS3 et qui va se faire laminer par une PS4.


votre avatar







Niktareum a écrit :



Chez Mme michu peut etre, mais me passer d’un ordi, jamais de la vie…







Je suis complètement du même avis, ne serait-ce que pour développer. Mais nous ne serons bientôt plus qu’une niche.


votre avatar







Niktareum a écrit :



Chez Mme michu peut etre, mais me passer d’un ordi, jamais de la vie…





pluzain. La tablette, c’est pour le surf. Le confort de travail sur un traitement de texte ou un tableur sur une tablette est juste nul.

Ces 2 appareils avec 2 usage différents (notamment la mobilité)


votre avatar







aurel_gogo a écrit :



Tu t’emballes… <img data-src=" /> <img data-src=" /> le jeu était plus fin, sans clipping avec des textures non baveuses mais les seins de lara étaient toujours 2 gros triangles…





<img data-src=" /> <img data-src=" />


votre avatar







jpaul a écrit :



Je suis complètement du même avis, ne serait-ce que pour développer. Mais nous ne serons bientôt plus qu’une niche.







T’as pas déjà été viré pour te faire remplacer par un dev punjabi de new delhi a 1.35€ de l’heure ?


votre avatar







jb18v a écrit :



<img data-src=" /> <img data-src=" />





pervers <img data-src=" />


votre avatar

En même temps, vu que les cartes graphiques milieu - haut de gamme coutent le prix d’une console voire plus, j’ai envie de dire HEUREUSEMENT !

votre avatar







Soltek a écrit :



Parler de différence de prix entre console et PC c’est sans rapport. On compare pas une petite boite de plastique fermé et verrouillé avec un engin ouvert qui peut évoluer et qui fait autre chose que du jeu.







Transformer un PC en console mais WTF ? La console ne fait que reprendre une partie de ce que fait déjà le PC. Branche lui une manette et tu as une console, branche le sur ta TV si tu veux un plus grand écran. <img data-src=" />





<img data-src=" />







Je dis vague ?


votre avatar

Vive AMD <img data-src=" />

votre avatar







stiktougaizeur a écrit :



En même temps, vu que les cartes graphiques milieu - haut de gamme coutent le prix d’une console voire plus, j’ai envie de dire HEUREUSEMENT !







La PS4 et la xbox one seront à 150€ ? c’est le prix d’une CG milieu de gamme environ.


votre avatar







Niktareum a écrit :



T’as pas déjà été viré pour te faire remplacer par un dev punjabi de new delhi a 1.35€ de l’heure ?







Non j’ai trop de valeur ajoutée <img data-src=" />

<img data-src=" />


votre avatar

Le temps de jeu et le pouvoir d’achat n’est pas extensible et perso, je bosse déjà sur un ordinateur toute la journée.



Quand je suis chez moi, je préfère m’affaler sur un canapé et jouer sur un écran d’un mètre cinquante de diagonale plutôt que de me remettre à un bureau.



Hors si la PS3 m’agaçait pour son aliasing horrible, son blur pour cacher le framerate anémique et ses chargement, je pense que la 4 va balayer ces réserves.



Du coup j’ai eu un PC de bureau pour jouer (et un mac portable pour bosser) durant des années, mais là depuis 2 ans je ne l’ai pas renouvelé. J’adore les jeux indépendants et pour ça, mon macbook en dual boot est suffisant.



Je n’ai même pas parlé des tablettes ou console portable comme je n’en utilise pas, qui nous font revenir à la créativité des débuts du jeu vidéo.



Avec tout ça, je pense que le gaming de bureau, à une époque ou deux ordis sur trois vendus sont des portables et ou l’embarqué les surclasse tous en vente, va revenir à ce qu’il était dans les années 90, un loisir de passionné et plus de masse comme ça l’a été pendant quinze ans.





Faudrait juste que certains éditeurs comprennent que c’est un public exigeant et qu’il faut penser les jeux pour le PC en priorité. Typiquement, le désastre “Sim City 5” montre que c’est encore loin d’être le cas. “Sim City 4 Rush Hour” était un jeu quasi parfait qui aurait pu devenir génial avec un gros coup de polish graphique et une réécriture du moteur du jeu, au lieu de ça ils en on fait un pâté mainstream bombardé de DLC tout pourri qui ne convient à personne en définitive. Alors que si le jeu avait été pensé pour les gamers “ordi” et pas “madame Michu et sa fille Priscilla qui tapote leur smartphone”, il y aurait eu un public moins nombreaux mais plus fidèle et plus investit dans le jeu (mods, communauté etc.).

votre avatar







Mack21 a écrit :









ce que je voulais dire c’est les mecs qui se plaignent de plus pouvoir jouer à grand chose sur leur PC après 2 ans ça peut être que des mecs qui ont acheté un portable à 500 boules avec chipset intégré ou un PC monté chez darty.


votre avatar







loser a écrit :



Au moment de la sortie des consoles next-gen, les cartes type HD7950 ou équivalent seront à 150€ prix public (on en trouve déjà à moins de 200€). Ce sont des prix de milieu de gamme, fourchette basse.

La partie graphique des consoles next-gen, au moment où elles sortiront, sera équivalente à ce qui se fera sur PC pour, allez, 100€ prix public dans le meilleur des cas….

ça représente combien, au prix de gros, sur le prix d’une console? 50€?





Achète une 7850 et on en reparle dans 5 ans pour voir si tu fais toujours tourner les derniers jeux dans de bonnes conditions.<img data-src=" />



A 399 euros la config pour jouer, la PS4 n’est quand même pas cher. Après comme dit plus haut, si t’as pas les moyens d’acheter du neuf, il y a plein de bonnes affaires en occaze. Je me suis d’ailleurs offert récemment mass effect 2 pour 8 euros pour la xbox 360( j’aurai du le prendre avant, c’est une tuerie ).



Le PC n’est rentable que dans un seul cas AMHA: le piratage( mais sur console on peut faire de même… ).<img data-src=" />


votre avatar







after_burner a écrit :



Il faut arrêter avec the last of Us, je suis joueur console et TLOU souffre des même limite que les autres jeux. Sans le filtre de léger flou que l’on voit parfois et qui rend très bien, on voit les défauts, textures qui bavent à 10m au sol, aliasing et scintillements sur le décor. Le jeu est évidement soigné graphiquement mais un jeu console ne peut pas tenir la comparaison graphique avec les PC de toute façon, leur avantage n’est pas dans la technique.







Relis, et dis moi où j’ai dit que The last of Us ou autre tiens en comparaison un jeu PC ? <img data-src=" />



C’est juste que pour la “config” de la Ps3, je trouve vraiment impressionnant TLOU.

Oui ça souffre d’alliasings, oui il y a pas un framerate élevé, blablabla.


votre avatar







Alucard63 a écrit :



Je me suis d’ailleurs offert récemment mass effect 2 pour 8 euros pour la xbox 360( j’aurai du le prendre avant, c’est une tuerie ).







je l’ai acheté à 5€ en version boite pour PC il y a un an perso. <img data-src=" />


votre avatar







Jean_Peuplus a écrit :



ce que je voulais dire c’est les mecs qui se plaignent de plus pouvoir jouer à grand chose sur leur PC après 2 ans ça peut être que des mecs qui ont acheté un portable à 500 boules avec chipset intégré ou un PC monté chez darty.







Sauf que le marché PC c’est un peu ca en regle général.



On peut reprocher aux gens de faire des achats stupide mais ca ne change rien au marché PC. Et les éditeurs ne s’y trompe pas. Quand tu vois les ventes de Skyrim PC/Console alors qu’a la base c’est une vraie licence PC … Ca fait un peu peur. Car au final si tu enleve les PC qui NE PEUVENT PAS faire tourner de jeux récent et les gens qui crack leurs jeux. Le marché PC fait plutot peur aux éditeurs.


votre avatar







Jean_Peuplus a écrit :



Quand à l’argument récurrent de la durée de vie d’une config PC, c’est toujours drôle quand on sait que beaucoup de gens jouent sur des chipset ou autre. Un vieux PC de 6 7 ans avec CG dédiée de milieu de gamme fait encore tourner une grosse proportion des jeux qui sortent aujourd’hui. Au minimum souvent (ce qui reste souvent plus beau que de la ps3)







Ce qui ressort de tous tes commentaires c’est que le jeux vidéo pour toi ne se limite qu’a un concours de quéquette. <img data-src=" />


votre avatar







Mack21 a écrit :



Sauf que le marché PC c’est un peu ca en regle général.



On peut reprocher aux gens de faire des achats stupide mais ca ne change rien au marché PC. Et les éditeurs ne s’y trompe pas. Quand tu vois les ventes de Skyrim PC/Console alors qu’a la base c’est une vraie licence PC … Ca fait un peu peur. Car au final si tu enleve les PC qui NE PEUVENT PAS faire tourner de jeux récent et les gens qui crack leurs jeux. Le marché PC fait plutot peur aux éditeurs.









ça dépend lesquels, blizzard se plaint pas trop <img data-src=" />

c’est certainement plus dur de faire du blé sur PC en tant qu’éditeur de jeu, les joueur PC étant moins enclin à payer pour de la merde.



Sans même parler du piratage, on a les humble bundle, les F2P, les soldes steam qui font qu’on peut jouer à d’excellents jeux pour quasi rien.



alors pour dépenser 50 € ou plus pour un jeu AAA, faut vraiment qu’il se démarque.

D’un autre côté il n’y a pas de royalties à payer à \(ony et M\) (<img data-src=" />), donc quand ça marche sur PC, c’est jackpot (minecraft par exemple).


votre avatar

Il a évidemment raison, notamment sur le fait que aujourd’hui ce sont Nvidia et AMD qui sont à la pointe de la technologie au niveau des graphismes. Donc il est très facile de comprendre pourquoi les PC actuels les plus puissant sont un ordre de grandeur plus rapide que les consoles alors que celle ci viennent de sortir. On imagine sans peine le gouffre qu’il y aura dans 10 ans…

En gros, cela signifie que les fabricants de consoles on abandonné la course à la puissance et se contentent du minimum syndicale niveau affichage. C’est la stratégie Nintendo qui s’impose en fait. Le temps ou les consoles de jeux étaient une vitrine technologique est bien mort. Elles sont simplement devenu un produits de consommation de masse comme les frigo ou les machine à laver.

votre avatar







lossendae a écrit :



Ce qui ressort de tous tes commentaires c’est que le jeux vidéo pour toi ne se limite qu’a un concours de quéquette. <img data-src=" />







<img data-src=" />


votre avatar







Soltek a écrit :



S’il est pas connecté à la TV c’est juste la faute des gens hein, y’a juste à mettre un câble HDMI.

Pour la Wiimote, en 1999 j’avais ça, c’est pas pareil certes, mais à l’époque on avait déjà des périphériques qui détectait les mouvements quoi.

Pour Kinect pareil, des jeux avec la Webcam y’en avait plein.

Les consoles ont amélioré le truc et l’ont démocratisé par contre ça c’est évident.







Ça sent un peu la mauvaise foi. Tout le monde n’a pas son PC à côté de sa TV. Quand à ton sidewinder, biensûr qu’il y a eu des tonnes de périphériques du genre, mais ça n’a rien à voir avec une wiimote. Des jeux avec la webcam ? Seriously ? Je ne connais pas tous les jeux, mais j’ai jamais entendu parler de gros titres qui utilisaient la webcam. Bref c’est franchement pas honnête de dire qu’on retrouve sur PC la même chose que sur console. Je suis pas spécialement là pour défendre les consoles, mais on peut pas dire que simplement parce qu’il y a un CPU, de la RAM, un processeur graphique et un DD que c’est la même chose qu’un PC (par contre techniquement ça pourrait)


votre avatar







Misesboy a écrit :



Il a évidemment raison, notamment sur le fait que aujourd’hui ce sont Nvidia et AMD qui sont à la pointe de la technologie au niveau des graphismes. Donc il est très facile de comprendre pourquoi les PC actuels les plus puissant sont un ordre de grandeur plus rapide que les consoles alors que celle ci viennent de sortir. On imagine sans peine le gouffre qu’il y aura dans 10 ans…

En gros, cela signifie que les fabricants de consoles on abandonné la course à la puissance et se contentent du minimum syndicale niveau affichage. C’est la stratégie Nintendo qui s’impose en fait. Le temps ou les consoles de jeux étaient une vitrine technologique est bien mort. Elles sont simplement devenu un produits de consommation de masse comme les frigo ou les machine à laver.







Mouais, il me semble que le hard de la Wii U est encore en deçà de la 360…



Abandonné surement pas, par contre faire la balance entre puissance et cout oui. Ce qui équipera la Xb1 et la PS4 ne sont pas des brouettes.









votre avatar



« Dans le passé, notamment à l’époque de la première PlayStation et de la PlayStation 2, il n’y avait pas vraiment de bons graphismes sur PC. Autour du lancement de la PlaySation 2 (NDLR : en mars 2000), la 3D a commencé à apparaître sur PC, mais avant cela, la 3D était le domaine de Sillicon Graphics et d’autres stations de travail. Sony, Sega ou Nintendo pouvaient investir pour amener la 3D aux consommateurs. En fait, la PS2 était plus rapide qu’un PC », explique le dirigeant. Il est vrai qu’en l’an 2000, une époque où la GeForce 2 GTS était une carte haut de gamme et que des titres comme Age of Empires II, Diablo II ou Midtown Madness étaient au top de la création sur PC, les graphismes d’une PlayStation 2 ne pouvaient que donner envie.



C’est faux ou en tout cas seulement en partie vrai.

C’est vrai à la sortie des consoles et pendant 1 an, 1 an et demi.



La 3D et la belle existe depuis bien avant les années 2000. Un quake, un pod, c’était des bons graphismes à l’époque et surpassait les consoles disponibles largement. Un tomb raider 3dfx enterrait la version ps1.



Quand la ps2 est sortit en 1999, quake 3 venait déjà mettre la ps2 à l’amende fin 1999.



Les consoles ont toujours été plus perf que les pcs mais seulement =durant une période limitée qui se raccourcit à chaque génération (il y a bien qu’à l’époque de la ps1 qu’il a fallut attendre vraiment 2 ans pour avoir mieux sur Pc)

votre avatar







yeagermach1 a écrit :



Honnetement je trouve pas le jeu si impressionnant que cela. C’est un <img data-src=" /> de couloir avec quasiment pas d’IA et tres peu d’ennemies. Alors oui les couloirs sont beaux …





Euh, la news parle de Nvidia donc plutôt de la partie graphique.

Nvidia gère pas encore l’IA ou la RAM (raison du couloir amha) avec ces CG, non?



Edit :

Le + fort c’est que si Nvidia avait décroché les GPU des consoles next-gen, il serait en train de crier que les consoles vont être au niveau du PC pour qq années encore


votre avatar

comprend rien, j’ai jamais vu un jeux console plus beau q’un jeux PC… jamais.

Il y a des exemples ?? que je m’instruise quand meme.



Apres je suis d’accord que c’est peu etre vrai à prix equivalent (grace au economie d’echelle que peuvent faire les constructeurs de console) mais sinon …



Me rappelle mon etonnement sur les graphismes de ma WII … au moins 5 ans de retard !!

votre avatar







Cara62 a écrit :



Relis, et dis moi où j’ai dit que The last of Us ou autre tiens en comparaison un jeu PC ? <img data-src=" />



C’est juste que pour la “config” de la Ps3, je trouve vraiment impressionnant TLOU.

Oui ça souffre d’alliasings, oui il y a pas un framerate élevé, blablabla.







Ce n’était pas forcément sur ce qui est écrit dans ton commentaire seulement. Il y a un bon nombre de personne qui utilise last of us pour se convaincre que la différence technique entre le PC et les consoles n’est pas si grande que ça, alors prendre ce jeu en exemple pour parler de son niveau graphique m’a fait réagir.



D’un point de vue personnel, je trouve far cry3 (sur PS3) plus “impressionnant” que Last of US, et le voir à chaque fois pris comme exemple absolu de maîtrise d’une architecture, je comprend pas trop, c’est tout.


votre avatar

Yeahhhhhhhhh baby

PC 4 ever

les consoles n’arriveront jamais à la cheville d’un vrai ordinateur gamer

<img data-src=" />

votre avatar

Il a surement raison le Monsieur mais ça fait vraiment discours du gars aigri….. T’as peut être les meilleurs puces mais pas les meilleurs commerciaux

votre avatar

Oui, il a raison en partie mais ce qu’il oublie de dire c’est que la cible des éditeurs n’est pas que le gamers qui a un matériel milieu de gamme mais cible beaucoup plus large donc cibler ceux aussi qui ont des configs très modestes donc moins puissantes qu’une console.


votre avatar

On sent les mauvais perdants depuis qu’ils ont perdu le marché console à dénigrer sans cesse celles-ci et à encenser les PC !

votre avatar

Bah le Mr a totalement raison, mais comme le souligne Kevin c’est plus une question de prix que de machine.

La console a des contraintes, le PC non.



Mais l’autre argument pour moi c’est que la console est maintenant équipée avec le GPU “N-1” de ce qui se fait de mieu sur le PC et restera comme ca pendant 10 ans.

Dans 10 ans on sera au N+9 donc la console bridera a nouveau le PC malheureusement :(

votre avatar



« Dans le passé, notamment à l’époque de la première PlayStation et de la PlayStation 2, il n’y avait pas vraiment de bons graphismes sur PC. Autour du lancement de la PlaySation 2 (NDLR : en mars 2000), la 3D a commencé à apparaître sur PC





Chelou je jouais à des jeux 3D dès 1993 moi … xwing, commanche, wing commander, ultima underworld, system shock, oh wait ça devait juste se passer dans ma tête en fait?….

Merci monsieur NVidia je vous dois combien ? <img data-src=" />









Toorist a écrit :



Bah le Mr a totalement raison







Il a tord c’est tout …


votre avatar

Il flatte l’ego des utilisateur de cartees ultra haut de gamme …

qui doivent bien représenter les 0.01% des ventes de PC

votre avatar

Ils vont sortir de quoi convertir des PC en vrai consoles ? Genre carte GPU + kit de 2 manettes sans fils. En général, c’est ce qu’il manque au PC pour jouer au jeux type console. Ils peuvent même sortir une tablette tactile/écran comme la wii U.



Ils peuvent ajouter un petit DRM pour protéger les jeux payant.



Si ils fournissent un “kit” pour transformer un PC en console, comme par exemple le système de Steam, cela peut marcher :)



A voir, si ils veulent un PC posé sur un bureau ou de salon (écran TV plus grand, pas de 2ième écran mais ni clavier ni souris).

votre avatar

Donc en fait pour dire que tu es “meilleur” faut juste produire des produits encore plus cher. C’est pas grave si personne ne peut l’acheter, du moment que c’est le “meilleur”.

votre avatar



Dans le passé, notamment à l’époque de la première PlayStation et de la PlayStation 2, il n’y avait pas vraiment de bons graphismes sur PC.





Ce qu’il faut pas lire comme conneries !!!

Tomb raider 2 par exemple (pour avoir bien joué aux versions pc et console) sur un bon pc gamer de l’époque était 20 milliards de fois plus beau que sur la Playstation premiere du nom.



Et j’etais sur ma 3dfx voodoo 1 (amd k6-2 233, 8mo de ram et 2.4go de hdd <img data-src=" />) !

votre avatar

Je le dis aux puristes, mais ne veulent pas le croire…

Peut être que la news PCI d’un des 3 plus gros fabricants de GPU fera l’affaire.

votre avatar

Il oublie de citer que ça fais quand même une sacrée part de marché qu’ils n’auront pas.

Et vu les volumes de production, cela représente tout de même une sacrée manne financière.



Et comme un bon paquet de jeux sont “limités” graphiquement par ce que permet les consoles (d’autant plus passé 3-4 ans après la sortie d’une génération)…



bref, pas grand chose à garder de son discourt.

votre avatar

Évidemment que les PC seront toujours plus puissants que les consoles. Mais pas à prix équivalent et disposables sous la télévision.



Bien sûr, les graphismes vont continuer à être de plus en plus “beaux” mais soyons honnêtes, les prestations offertes par la génération actuelle de consoles conviennent déjà à la majorité des usagers. Sans parler de la génération à venir.



Et comme les PCs sont ammenés à disparaitre au profil des tablettes, la situation risque de rester comme ça un petit moment.



Visiblement, ils ne sentent pas le vent tourner… (cf. VALVE qui eux tentent quelque chose pour survivre à ça).



Edit: une NVidiaBox sous SteamOS monsieur le caméléon ?

votre avatar

Niveau puissance ok, maintenant ce n’est pas tout les graphismes dans un jeu. Je pense que le publique visé n’est pas le même, tout le monde n’a pas les moyens de refaire sa config régulièrement surtout avec ce qui se fait de mieux (souvent hors de prix à la sortie).

J’ai un bon pc et plusieurs consoles, j’avoue que je préfère prendre un jeu sur pc même s’il existe sur console mais des fois c’est sympa de ce poser devant son canapé avec un grand écran.

Le pc est fait pour certain types de jeu FPS, RTS alors que la console plus pour les jeux de baston, les party game et rpg japonais (qui ne sortent quasi jamais sur pc).

votre avatar







jpaul a écrit :



Et comme les PCs sont ammenés à disparaitre au profil des tablettes, la situation risque de rester comme ça un petit moment.







Chez Mme michu peut etre, mais me passer d’un ordi, jamais de la vie…


votre avatar

Il a raison, et je trouve qu’il a l’habileté de ne pas se montre mauvais perdant, au contraire.



Actuellement, une gtx 770 (voire pourquoi pas la future 760Ti) ne coute pas un bras et c’est du très bon matos, et ça permet de garder une bonne longueur d’avance.



Ceci dit, est ce que les graphs sont le coeur de métier d’une console ? Je sais pas. J’en avais rien à foutre sur Bayonetta que les graph soient en plastique, c’était juste fun, et ça que j’attends d’une console.



Après chacun voit midi à sa porte, mais sans Nvidia et AMD pour développer des solutions graphiques toujours plus poussées, Crash Bandicoot serait resté une référence visuelle …

votre avatar







Niktareum a écrit :



Chez Mme michu peut etre, mais me passer d’un ordi, jamais de la vie…





Je suis du même avis, le combo clavier/souris a de beau jours devant lui.


votre avatar

NVidia, Captain Obvious.



Sauf que, on a beau avoir un PC @5k €, un triple SLI de Titan, allez, les 34 des jeux sont fait pour les consoles, donc ne cherchent pas à utiliser la puissance des PC.

Actuellement un bon petit PC Gamer Moyenne gamme fera tourner les jeux de la next gen.



je rajouterai en plus, que lorsque un jeu est optimisé pour une console, on peut vraiment avoir des supers beaux jeux. Notamment certaines exclues PS3.



Au hasard, The Last Of US.



PS : La puce graphique de la PS3 c’est NVidia. <img data-src=" />

votre avatar







Alucard63 a écrit :



Bof, ça dépend…franchement pour moi les grandes innovations “marges” sont sur consoles depuis un bout de temps. Tout simplement parce que les éditeurs se désintéressent du PC.







Un jeu console 75€, le même en pc 45€….Voila voila…


votre avatar







Cara62 a écrit :



NVidia, Captain Obvious.



Sauf que, on a beau avoir un PC @5k €, un triple SLI de Titan, allez, les 34 des jeux sont fait pour les consoles, donc ne cherchent pas à utiliser la puissance des PC.

Actuellement un bon petit PC Gamer Moyenne gamme fera tourner les jeux de la next gen.



je rajouterai en plus, que lorsque un jeu est optimisé pour une console, on peut vraiment avoir des supers beaux jeux. Notamment certaines exclues PS3.



Au hasard, The Last Of US.



PS : La puce graphique de la PS3 c’est NVidia. <img data-src=" />









Complétement d’accord avec toi


votre avatar

Alors là,je ne suis absolument pas d’accord avec le Mr d’Nvidia!

Avant 2000 les PC’s avaient déjà de bien meilleur graphisme que toute console(s) confondue depuis 1995!!,c’est plutôt l’envers,les consoles ont rattrapé (difficilement) les PC après 2000.

C’est 3DFX qui a jeté un pavé dans la marre!

Etpiscesttout!!!



°Screamer2,Deathcarz,Quake!!Take no prisoners,POD,Half Life bien sur…,moto racer et bien d’autre…

bref,tout ça avant 2000!

Et dire q’Nvidia à mangé le maitre créateur du Glide :(

votre avatar







Cara62 a écrit :



NVidia, Captain Obvious.



Sauf que, on a beau avoir un PC @5k €, un triple SLI de Titan, allez, les 34 des jeux sont fait pour les consoles, donc ne cherchent pas à utiliser la puissance des PC.

Actuellement un bon petit PC Gamer Moyenne gamme fera tourner les jeux de la next gen.



je rajouterai en plus, que lorsque un jeu est optimisé pour une console, on peut vraiment avoir des supers beaux jeux. Notamment certaines exclues PS3.



Au hasard, The Last Of US.



PS : La puce graphique de la PS3 c’est NVidia. <img data-src=" />





Ils seraient amusant de voir ce dont serait capable le studio de Last of Us avec un PC disons a 1k. Je pense que cela donnerait quelque chose de vraiment mieux que Last of Us.


votre avatar







Alucard63 a écrit :



Bof, ça dépend…franchement pour moi les grandes “innovations” sont sur consoles depuis un bout de temps. Tout simplement parce que les éditeurs se désintéressent du PC.



Après en terme de graphismes, surement oui…mais pour le gameplay…ça fait un bout de temps que le PC n’a pas fait avancer grand chose à mon avis.







Attend l’oculus rift, nouveau gameplay et nécessité de puissant graphisme pour renforcer l’immersion. <img data-src=" />


votre avatar

Étant donné que l’architecture console se fige tous les 510 ans alors que les constructeurs montent en puissance quasi chaque année, il a raison.

Maintenant, heureusement que les consoles sont là pour forcer les développeurs à pousser leurs optimisations.

Quant au côté “ouais mais bon les jeux sont maintenant développés avant tout sur console” c’est pas tout à fait vrai, une multitude de jeux (Skyrim, Sleeping dogs…) sont certes développés pour les consoles, mais proposent des pack HD ou autre en téléchargement qui ne pourraient tourner ailleurs que sur PC, et qui “transcendent” les jeux.

votre avatar







Niktareum a écrit :



comment tu fais pour mater du pr0n aux toilettes avec un ordi ?

====&gt;[- ]





A quoi servent donc les EeePC ?


votre avatar







yeagermach1 a écrit :



Ils seraient amusant de voir ce dont serait capable le studio de Last of Us avec un PC disons a 1k. Je pense que cela donnerait quelque chose de vraiment mieux que Last of Us.





Il est beau The Last of Us mais bon, la vision est quand même tout le temps cloisonné, au mieux quand tu es dehors tu te balades entre 2 rues et le fond du décors c’est une image fixe, tu n’as pas une vision très ouverte sur un vrai monde 3D qui bouge.

Enfin vu la quantité de RAM de la PS3 c’est normal aussi mais bon.


votre avatar







Alucard63 a écrit :



Bof, ça dépend…franchement pour moi les grandes “innovations” sont sur consoles depuis un bout de temps. Tout simplement parce que les éditeurs se désintéressent du PC.



Après en terme de graphismes, surement oui…mais pour le gameplay…ça fait un bout de temps que le PC n’a pas fait avancer grand chose à mon avis.





Donc l’oculus Rift et tous les jeux indépendant c’est grâce au console ?


votre avatar







yeagermach1 a écrit :



Ils seraient amusant de voir ce dont serait capable le studio de Last of Us avec un PC disons a 1k. Je pense que cela donnerait quelque chose de vraiment mieux que Last of Us.







Très certainement <img data-src=" />

C’est juste une question d’optimisation. Si tu leur donne un plus gros jouet ils pourront faire bien plus cela va de soit.


votre avatar







yeagermach1 a écrit :



Ils seraient amusant de voir ce dont serait capable le studio de Last of Us avec un PC disons a 1k. Je pense que cela donnerait quelque chose de vraiment mieux que Last of Us.







Prends le problème dans l’autre sens, va voir la configuration de la PS3, pour moi c’est impressionnant ce qu’ils sont capables de faire avec ça.



Par contre, le gros défaut on pousse les consoles dans les derniers retranchements certes mais bien souvent :





  1. L’aliasing :/



  2. On a pas un framerate élevé bien souvent



    En tout cas pour cette génération de console.







    Soltek a écrit :



    Il est beau The Last of Us mais bon, la vision est quand même tout le temps cloisonné, au mieux quand tu es dehors tu te balades entre 2 rues et le fond du décors c’est une image fixe, tu n’as pas une vision très ouverte sur un vrai monde 3D qui bouge.

    Enfin vu la quantité de RAM de la PS3 c’est normal aussi mais bon.







    D’ailleurs je comprends pas, Bethesda en a chier avec la Ram PS3 pour Skyrim, alors que avec Rockstar, GTA V tourne très bien, qui plus est il est plus beau que Skyrim. oO


votre avatar







Cara62 a écrit :



Prends le problème dans l’autre sens, va voir la configuration de la PS3, pour moi c’est impressionnant ce qu’ils sont capables de faire avec ça.



Par contre, le gros défaut on pousse les consoles dans les derniers retranchements certes mais bien souvent :





  1. L’aliasing :/



  2. On a pas un framerate élevé bien souvent



    En tout cas pour cette génération de console.





    Honnetement je trouve pas le jeu si impressionnant que cela. C’est un <img data-src=" /> de couloir avec quasiment pas d’IA et tres peu d’ennemies. Alors oui les couloirs sont beaux …


votre avatar







Cara62 a écrit :



NVidia, Captain Obvious.



Sauf que, on a beau avoir un PC @5k €, un triple SLI de Titan, allez, les 34 des jeux sont fait pour les consoles, donc ne cherchent pas à utiliser la puissance des PC.

Actuellement un bon petit PC Gamer Moyenne gamme fera tourner les jeux de la next gen.



je rajouterai en plus, que lorsque un jeu est optimisé pour une console, on peut vraiment avoir des supers beaux jeux. Notamment certaines exclues PS3.



Au hasard, The Last Of US.



PS : La puce graphique de la PS3 c’est NVidia. <img data-src=" />







C’est un lieu commun “the last of us = beau”, perso je trouve ça hyper inégale. De jolies phases quand on veut les montrer, et puis t’explore, et tu vois le cache misère.



Pour “PC gamer gamme moyenne”, juste “non”. Un PC gamer moyen gamme, ça fait tourner Crysis 3 en HD, 60 FPS et de l’AA (je parle même pas des autres filtres, gestion de lumière dynamique) ? Nope.

Aussi, c’est combien d’€ un PC gamer moyen ? On en reparle quand BF4, Watchdogs, The Witcher 3 seront sur le marché ?



Ah oui et puis :

google.fr Google


votre avatar







Niktareum a écrit :



comment tu fais pour mater du pr0n aux toilettes avec un ordi ?



<img data-src=" />





====&gt;[- ]





Avec un pc portable <img data-src=" /> mais c pas pratique <img data-src=" />


votre avatar







jb18v a écrit :



<img data-src=" /> <img data-src=" />









aurel_gogo a écrit :



pervers <img data-src=" />







Même qu’à ce qui parait, faut faire le saut de l’ange dans la piscine de la map d’entrainement après avoir enfermé le valet dans la chambre froide pour la voir en tenue d’Adam (tenue d’Eve plutôt) !


votre avatar







xxSeize a écrit :



C’est un lieu commun “the last of us = beau”, perso je trouve ça hyper inégale. De jolies phases quand on veut les montrer, et puis t’explore, et tu vois le cache misère.



Pour “PC gamer gamme moyenne”, juste “non”. Un PC gamer moyen gamme, ça fait tourner Crysis 3 en HD, 60 FPS et de l’AA (je parle même pas des autres filtres, gestion de lumière dynamique) ? Nope.

Aussi, c’est combien d’€ un PC gamer moyen ? On en reparle quand BF4, Watchdogs, The Witcher 3 seront sur le marché ?







Je sais pas, ce que tu entends par gamme moyenne.

Mon PC, 1k€, monté il y a plus d’un an : Tomb Raider tourne à fond, 55 FPS en moyenne. Crysis 3, je t’en parle pas. <img data-src=" />



Pour un pote qui avait un peu moins le budget, il a revendu toutes ses consoles, et ses jeux. Consoles (360 + PS3) : 300€. 50 jeux : 550€.

850€ à dépenser dans une config + des jeux. <img data-src=" />



Crysis 3 à fond, Tomb Raider, il faut baisser l’AA (au final il y a joué chez moi). Il a aussi réussi avoir une vingtaine de jeux, et il n’a pas encore dépensé tout son budget.



Avoir un PC, c’est aussi pouvoir le soigner aux petits oignons, pouvoir profiter des promos, et dépenser moins sur les jeux.

Voilà mon expérience. <img data-src=" />


votre avatar

Si les performances étaient l’unique critère pour réussir dans le jeu vidéo, ça ferait longtemps qu’il n’y aurait plus de consoles. Chaque génération a beau avoir des performances acceptables a leur sortie, elles sont toujours rapidement dépassées techniquement.



Seulement les innovations en terme d’expérience utilisateur ne sont jamais portées sur PC (comme la wii mote, le kinect, les différents pads, …) et un PC n’est pas toujours connecté à une TV (c’est pas pour rien que steam veut avancer sur ce point). De plus, beaucoup de gens n’en ont rien à cirer d’être à la pointe de la technologie en terme de graphismes.



Bref, ça dépend de ce qu’on appelle être “à la hauteur”, mais en même temps c’est le seul argument que peut donner Nvidia pour vendre ses puces.

votre avatar







Cara62 a écrit :





  • i5 4570K @ 3,2Ghz (j’ai pas OC)



    • GTX 760 OC

    • 8Go Ram @ 1800Mhz

    • indice kikoo perf Windows, 7.4





      Mince j’ai plus avec mon PC de janvier 2011, bon ça va moi qui avait peur de devoir l’upgrader pour Watch Dogs je vais pouvoir mettre ses économies ailleurs <img data-src=" />



votre avatar

“En 2000 la 3D a comméncé à apparaitre sur PC”… Faut arrêter de croire que tout a commencé quand on arrive sur le marché <img data-src=" />. Les 3DFX étaient la base pour les gamers de l’époque. Des quakes-like il y en avait à foison. Une com mal engagée pour relativiser un échec.

votre avatar







Soltek a écrit :



Mince j’ai plus avec mon PC de janvier 2011, bon ça va moi qui avait peur de devoir l’upgrader pour Watch Dogs je vais pouvoir mettre ses économies ailleurs <img data-src=" />







Ouep. <img data-src=" />


votre avatar

Perso on sent qu’Nvidia est aigri d’avoir été mis de côté pour la prochaine génération de consoles et dit que bla bla le PC c’est mieux, bla bla, bref, il cherche une justification à dire que le PC çaylemieux et les consoles sont déjà obsolètes…



Après un PC restera en effet une belle plateforme de jeu voir même la meilleure car évolutive mais combien de jeux exploitent à fond un PC dernière génération ?

Pas beaucoup…

votre avatar







Lancelot_ a écrit :



Je sais pas, ce que tu entends par gamme moyenne.

Mon PC, 1k€, monté il y a plus d’un an : Tomb Raider tourne à fond, 55 FPS en moyenne. Crysis 3, je t’en parle pas. <img data-src=" />



Pour un pote qui avait un peu moins le budget, il a revendu toutes ses consoles, et ses jeux. Consoles (360 + PS3) : 300€. 50 jeux : 550€.

850€ à dépenser dans une config + des jeux. <img data-src=" />



Crysis 3 à fond, Tomb Raider, il faut baisser l’AA (au final il y a joué chez moi). Il a aussi réussi avoir une vingtaine de jeux, et il n’a pas encore dépensé tout son budget.



Avoir un PC, c’est aussi pouvoir le soigner aux petits oignons, pouvoir profiter des promos, et dépenser moins sur les jeux.

Voilà mon expérience. <img data-src=" />







Encore une fois, pour moi 1k€ sans screen, on entre dans le haut de gamme =)

550/700€, moyen gamme, mais c’est mon avis.



Et bien évidemment qu’au delà du plaisir d’avoir construit une machine dédiée à son besoin, il y a un retour sur investissement en terme de jeu et de confort.


votre avatar







gogo77 a écrit :



Seulement les innovations en terme d’expérience utilisateur ne sont jamais portées sur PC (comme la wii mote, le kinect, les différents pads, …) et un PC n’est pas toujours connecté à une TV.





S’il est pas connecté à la TV c’est juste la faute des gens hein, y’a juste à mettre un câble HDMI.

Pour la Wiimote, en 1999 j’avais ça, c’est pas pareil certes, mais à l’époque on avait déjà des périphériques qui détectait les mouvements quoi.

Pour Kinect pareil, des jeux avec la Webcam y’en avait plein.

Les consoles ont amélioré le truc et l’ont démocratisé par contre ça c’est évident.


votre avatar

En même temps connecter un pc à une tv…..pour jouer à la souris/clavier sur le sol?



C’est pas forcement le plus confortable, oui c’est possible mais encore faut-il que l’environnement soit adapter :)





( ah les SideWinder…ça c’était du matos <img data-src=" /> )

votre avatar

ça coute pas 1000 ou 2000 € de se faire un PC avec des performances équivalentes aux consoles…



pour 6700 € tu te montes un PC avec la puissance d’une PS4 sans soucis.



ça coute certes un peu plus cher à l’achat, car c’est pas tout intégré et qu’il n’y a pas les économies d’échelle d’une console.



Mais faut pas oublier qu’un PC c’est pas que du jeu… Et que malgré tout même à ce niveau les avantages sont conséquents (moding en particulier). Et faut ajouter également le prix des jeux généralement bien moindre ce qui suffit à compenser le prix d’achat pour beaucoup.



Donc on remarque que le PC n’est pas spécialisé dans le jeu mais fait mieux malgré tout dans ce domaine. Dur constat pour les consoles.

votre avatar

S’il a globalement raison, il oublie un détail essentiel : l’optimisation logicielle.

Les développeurs qui n’ont qu’une ou deux consoles sur lesquelles leur jeu doit tourner font souvent bien + de merveilles que sur les versions PC qui doivent tourner sur des 10aines, voire 100aines de configurations très différentes.

Je rajouterais aussi à cela la durée de vie du matériel, ou plutôt la durée durant laquelle ce matériel est utilisable dans de bonnes conditions… S’il est encore très agréable de jouer sur 360 ou PS3, matériel à 500€ il y a 7 ou 8 ans, il est pénible de jouer aux mêmes jeux actuels sur une carte graphique qui était à ce prix il y a 8 ans.

Ces deux points mis ensembles font qu’on a des jeux de + en + beaux au fil des années sur un même matériel, sans frais supplémentaires. Ce qui n’intéresse pas Nvidia/ATI vu que leurs cartes graphiques de jeux sont basées sur l’obsolescence programmée à 2 ans.

votre avatar







Jean_Peuplus a écrit :



ça coute pas 1000 ou 2000 € de se faire un PC avec des performances équivalentes aux consoles…



pour 6700 € tu te montes un PC avec la puissance d’une PS4 sans soucis.







ça c’est la théorie et les chiffres bruts, mais les développeurs vont optimiser leurs jeux pendant 8 ans pour tourner de manière fluide sur PS4, alors que le PC à 600-700€ n’aura droit qu’à une optimisation sommaire de leur part, et sera totalement désuet dans même pas deux ans, moment où il ne servira plus qu’à surfer sur le net.


votre avatar







cyrano2 a écrit :



Ils vont sortir de quoi convertir des PC en vrai consoles ? Genre carte GPU + kit de 2 manettes sans fils. En général, c’est ce qu’il manque au PC pour jouer au jeux type console. Ils peuvent même sortir une tablette tactile/écran comme la wii U.



Ils peuvent ajouter un petit DRM pour protéger les jeux payant.



Si ils fournissent un “kit” pour transformer un PC en console, comme par exemple le système de Steam, cela peut marcher :)



A voir, si ils veulent un PC posé sur un bureau ou de salon (écran TV plus grand, pas de 2ième écran mais ni clavier ni souris).





Il suffit de s’acheter deux manettes sans fil à 30 euros l’une, et monter son PC dans un boîtier de petite taille ou au format “hi-fi”. Ça nécessite certes de choisir une carte micro-ATX, ce qui implique essentiellement pas de CrossFire/SLI (impensable de toute façon dans un petit boîtier) et une limite de 2 ou 3 supports de stockage, typiquement SSD + HDD. Ce qui, à l’heure du cloud, des nas, et des HDD de &gt;3To, me semble assez peu impactant pour la majorité des utilisateurs.

Pour le reste, en termes de connectique, la plupart des cartes de moyenne/haut de gamme proposent le full service : SATA3, USB3, Wifi N, Bluetooth (4.0 ?), Gigabit, port PCI-Express 16x, Audio 7.1 (pourri mais tout de même <img data-src=" />), port PCI-express 1x pour une carte externe (audio ? ;)), j’en oublie sûrement…

Bref, c’est déjà possible, en anticipant lors de l’achat du pc.



Sinon, la news me fait bien rire, le mec exprime ici juste sa frustration d’avoir loupé deux marchés ultra juteux. <img data-src=" />

En même temps, ils pouvaient pas courir tous les lièvres à la fois, ils se sont déjà bien placés sur le marché des smartphones/tablettes. <img data-src=" />

Son discours est d’autant plus ridicule que les consoles étant conçues pour le jeu, leur puissance réelle à matos équivalent est bien supérieure à un pc tournant sous Windows. Sans compter l’expérience qu’acquièrent les développeurs qui leur permet d’être bien plus efficaces sur la durée. Sans compter le bordel de support en moins vu qu’il n’y a qu’une config à tenir.

Bref, du grand nawak.


votre avatar

Y’a que moi qui trouve absolument débile son historique ? Lorsque j’avais mes 2 voodoo² je tapais du 90fps sur quake2 tous les détails a fond, en 1024*768 sur mon PC. Quand est ce que des consoles ont pu se permettre de proposer un tel niveau de :

-détails

-FPS

-résolution

???



Je me souviens encore mes potes qui avaient une console bavaient en voyant les jeux tourner sur PC…

Le prix était bien entendu totalement différent.

Ai je mal compris son propos ?

votre avatar

J’ai pas lu les 3 pages de commentaires, et ça a du déjà être dit, mais même si ce que dit ce monsieur est vrai, en fait c’est un peu du pipeau.



Vu que 90% des jeux sont multi-supports(consoles+pc), les joueurs pc ont toujours droit a des jeux consoles ++. Là on va avoir un peu de chance vu qu’on change de génération de console, donc pendant 1 an ou 2 max on aura droit a des trucs plus aboutis.



C’est comme si on avait une Ferrari(le pc), mais que l’essence qu’on met était de qualité moindre(le jeu multi-support).CQFD !

votre avatar







Soltek a écrit :



S’il est pas connecté à la TV c’est juste la faute des gens hein, y’a juste à mettre un câble HDMI.







Ben , t’as toujours pas de son…

Faut encore tirer le jack ou la cable optique !







lothia a écrit :



En même temps connecter un pc à une tv…..pour jouer à la souris/clavier sur le sol?







Bah non, sur le canapé <img data-src=" />.

J’ai un petit paquet de pote qui joue le pc branché sur le tv, avec clavier souris sans fil (et parfois pad xbox sans fil, car usb).

Que ce soit pour du MMO, du fps (un pote membre d’uen team cs top3 france, il y a ques années jouait dans on gros fauteuil de salon, clavier sur genoux et souris/tapis suir le gros zaccoudoir).

Tout ca sur une tv de 4050” full hd, tip top !


votre avatar







jpaul a écrit :



Et comme les PCs sont ammenés à disparaitre au profil des tablettes, la situation risque de rester comme ça un petit moment.







Oulala.. on se calme ! <img data-src=" /> Pourquoi tu t’énerves comme ça ? <img data-src=" />


votre avatar







filimon74 a écrit :



c est sur il ne peut pas dire le contraire vue que les console tourne sous AMD

NVIDIA persiste dans sa mauvaise foi

Il doivent avoir les boules que les console tournent sous AMD les future jeux vont donc être optimisé pour les GPU AMD et je suppose que la portabilité console vers PC sera plus facile et donc les jeux PC aussi

C est sur qu il doivent être vert chez le cameleon







Ouf ! Ça c’est pas gagné, les partenariats entre NVIDIA et les éditeurs sont encore suffisamment forts.

D’autant que le caméléon n’hésitera pas à balancer assez de billets pour voir un jeu (même multi-plateformes) estampillé “The way it’s meant to be played”…


votre avatar







Jean_Peuplus a écrit :



ça dépend lesquels, blizzard se plaint pas trop <img data-src=" />

c’est certainement plus dur de faire du blé sur PC en tant qu’éditeur de jeu, les joueur PC étant moins enclin à payer pour de la merde.



Sans même parler du piratage, on a les humble bundle, les F2P, les soldes steam qui font qu’on peut jouer à d’excellents jeux pour quasi rien.



alors pour dépenser 50 € ou plus pour un jeu AAA, faut vraiment qu’il se démarque.

D’un autre côté il n’y a pas de royalties à payer à \(ony et M\) (<img data-src=" />), donc quand ça marche sur PC, c’est jackpot (minecraft par exemple).





Tu te contredis :

-blizzard se plaint pas trop

-les joueur PC étant moins enclin à payer pour de la merde



C’est totalement faux ton argumentaire. Il n’y a qu’a voir les jeux les plus vendu sur PC, majoritairement ce sont les Sims … Donc ton avis n’est pas vraiment a généraliser.

Ensuite tu cite Blizzard, oublie pas que c’est Activision qui est au commande et ils se font principalement du fric sur Console (COD et le nouveau D3 sur console).

Les éditeurs qui se font du fric sur PC en font AUSSI sur console et souvent plus. EA, Bethesda et Activision, Ubisoft. Ce qui marche sur PC marche aussi sur Console. Le marché du PC est pas délaissé car les joueurs consoles sont “stupides” comme tu le laisse entendre mais simplement que le marché des consoles est un marché ou on peut facilement estimer les ventes et un marché assez fermé ou le portage se fait sur une machine “unique” facilement optimisable et ou le piratage est moins important.


votre avatar







gwal a écrit :



comprend rien, j’ai jamais vu un jeux console plus beau q’un jeux PC… jamais.

Il y a des exemples ?? que je m’instruise quand meme.





En 1994, le premier ridge racer enfonçait tout ce que les pcs pouvaient faire à cette époque. Idem pour des jeux comme wipeout 1.

Cela n’a pas duré très longtemps car dès fin 1995, les premiers jeux en 3D en svga grâce aux pentiums sont apparus et étaient plus beaux que les jeux ps1


votre avatar







gogo77 a écrit :



En gros t’es en train de dire que ton commentaire n’avait aucun intérêt ?





Et tu commentes des commentaires auxquels tu ne trouve aucun intérêt, quelle vie trépidante.





gogo77 a écrit :



Balancer quelque chose pour dire immédiatement que ça n’a rien à voir ? Si tu aimes parler pour rien, fais toi plaisir :)





Je n’ai jamais dit que ça n’avait rien à voir, encore un raccourci d’une lecture foireuse que tu fais. Puis je parle pas pour rien la preuve tu réponds <img data-src=" />





gogo77 a écrit :



En quoi le fait de ne pas être le premier à mettre en oeuvre une technique fait que l’on innove pas ? L’utilisation que l’on fait d’une technique peut très bien être une innovation.





Parce que ça s’appelle de l’amélioration et non pas de l’innovation.

Cadeau.


votre avatar

Plus performant ou pas, on n’est pas prêt de me voir remplacer mes consoles par un PC tant qu’on aura pas final Fantasy, Tales Of et Zelda sur PC. Prendre un PC gamer pour avoir des plus beaux graphismes mais pas les licences qui m’intéressent, à quoi bon?



A l’inverse, certains ne sont pas prêts de passer sur console à cause des RTS (par ex)



Débat stérile que celui de la puissance.



Après je ne doute pas que la puissance des CG soit utile si on veut jouer sur son moniteur 30” UHD ou +. Pour gérer le FHD sur des machines dédiées comme les consoles, une carte un peu ancienne doit largement suffire (la carte devant être la part la plus importante d’une config joueur).



Si on a les moyens, on peut avoir console(s) et PC de jeu ; puis prendre les titres multiplateforme sur PC.

votre avatar

j’aimerais bien connaitre la config médiane d’un gamer sur PC, car a chaque fois qu’on parle des graphismes sur PC on parle de ce qui se fait de plus beau. Sur Consoles on est TOUJOURS au plus beau rendu graphique possible … L’experience PC est différente pour plein de gens.

Ca ne vous ai jamais arrivé de jouer a un jeu super beau et d’allez sur le net et de voir plein de “casu” balancer des screens du meme jeu en Super LOW ? Les memes mecs qui balance que le PC sont Superieur aux console sur le rendu graphique … <img data-src=" />

votre avatar







Soltek a écrit :



S’il est pas connecté à la TV c’est juste la faute des gens hein, y’a juste à mettre un câble HDMI.

Pour la Wiimote, en 1999 j’avais ça, c’est pas pareil certes, mais à l’époque on avait déjà des périphériques qui détectait les mouvements quoi.

Pour Kinect pareil, des jeux avec la Webcam y’en avait plein.

Les consoles ont amélioré le truc et l’ont démocratisé par contre ça c’est évident.









Soltek a écrit :



Haha, qui fait de la mauvaise foi là ? <img data-src=" />



J’ai bien précisé :



Tu parlais de l’innovation, donc je te répondais juste que non les consoles n’ont pas innové, ils n’ont fait que reprendre des choses déjà existante, les ont amélioré et démocratisé, point. Faut apprendre à lire. <img data-src=" />





Belle méconnaissance du marché du jeu vidéo. <img data-src=" />

Un seul mot pour toi : Nintendo (allez, en résumé et en vrac, gâchettes latérales, stick analogique, casque de réalité virtuelle -gros échec ça-, reconnaissance de mouvement -il suffit pas de comparer avec le Sidewinder, alors que Wiimote + Nunchuck sont des périphériques vraiment conçus pour le jeu), auto-lock des ennemis en 3D (à vérifier), vibrations, connectivité inter-hardware, ergonomie de manette (Gamecube<img data-src=" />), tactile, 3D, interactions vocales…).

On aurait aussi pu parler de la Dreamcast avec sa carte mémoire/mini console.



C’est une chose de concevoir une techno prototype, de la balancer sur le marché en mode “faites-en ce que vous voulez”. C’en est une toute autre de concevoir un périphérique fiable, efficace, associé à une API de programmation, pour que des concepteurs de jeu vidéo puissent se concentrer sur leur créativité.



Après, le PC comprend un certain nombre d’innovations qui lui sont propres : tous les périphériques dédiés à certaines simulations, toutes les avancées matérielles et logicielles relatives à l’interaction par le réseau, et j’en oublie probablement beaucoup aussi… :)


votre avatar

de toute facon une carte graphique a 399€ fera toujours mieux qu’une console a 399€ <img data-src=" />

votre avatar







Niktareum a écrit :



T’as pas déjà été viré pour te faire remplacer par un dev punjabi de new delhi a 1.35€ de l’heure ?





Tu as déjà été embauché pour remplacer à toi tout seul une équipe de dix développeurs punjabi avec un turn over hebdomadaire de 45% ?


votre avatar







Mack21 a écrit :



j’aimerais bien connaitre la config médiane d’un gamer sur PC, car a chaque fois qu’on parle des graphismes sur PC on parle de ce qui se fait de plus beau. Sur Consoles on est TOUJOURS au plus beau rendu graphique possible … L’experience PC est différente pour plein de gens.

Ca ne vous ai jamais arrivé de jouer a un jeu super beau et d’allez sur le net et de voir plein de “casu” balancer des screens du meme jeu en Super LOW ? Les memes mecs qui balance que le PC sont Superieur aux console sur le rendu graphique … <img data-src=" />





Tada !

C’est quand même satisfaisant.


votre avatar

Je lis des aberrations…

C’est pas possible les 34 des personnes ici ont moins de 20ans ou quoi?

On a récupéré les mômes de jv.com??

votre avatar







Citan666 a écrit :



Blabla





Ah oui non mais si tu remontes à l’époque où de toute façon une personne lambda ne pouvait s’acheter et config un PC pour jouer tu vas en trouver des trucs. Franchement le stick analogique ça date de quand ? Les années 70 non ? Qui avait un ordi à cette époque ?

Je restais dans les générations de console PS/Xbox/Wii qui non pour moi c’est pas de l’innovation. Encore une fois, c’est juste repris et amélioré, pas innové. Votre langue est riche, faites attention aux nuances des mots <img data-src=" />


votre avatar







Mack21 a écrit :



de toute facon une carte graphique a 399€ fera toujours mieux qu’une console a 399€ <img data-src=" />







Et moi mon papa c’est le plus fort <img data-src=" />







HarmattanBlow a écrit :



Tada !

C’est quand même satisfaisant.







Qu’on me rassure, le coup de la HD3000 qui serait la plus utilisée vient du fait qu’avec Optimus Steam fait pas réellement de différence… Hein ?…. Hein ?…. <img data-src=" />


votre avatar







Séphi a écrit :



Qu’on me rassure, le coup de la HD3000 qui serait la plus utilisée vient du fait qu’avec Optimus Steam fait pas réellement de différence… Hein ?…. Hein ?…. <img data-src=" />





non


votre avatar







Mack21 a écrit :



Tu te contredis :

-blizzard se plaint pas trop

-les joueur PC étant moins enclin à payer pour de la merde







<img data-src=" /> vu et revu, ça donne pas envie de lire la suite, et pourtant je suis pas un fan boy du tout. J’ai aucun jeu d’eux.





C’est totalement faux ton argumentaire. Il n’y a qu’a voir les jeux les plus vendu sur PC, majoritairement ce sont les Sims … Donc ton avis n’est pas vraiment a généraliser.





majoritairement ce sont les sims, ouais, encore un beau troll, et les consoles c’est fifa et CoD et basta, 1 partout ?





Ensuite tu cite Blizzard, oublie pas que c’est Activision qui est au commande et ils se font principalement du fric sur Console (COD et le nouveau D3 sur console).





Faux, WoW reste encore la poule aux oeuf d’or de Blizzard. Même si les gens commence par partir, la concurrence de F2P de qualité quasi équivalente doit jouer.





Les éditeurs qui se font du fric sur PC en font AUSSI sur console et souvent plus. EA, Bethesda et Activision, Ubisoft. Ce qui marche sur PC marche aussi sur Console.





Comme les MMORPG ? les jeux de gestions toussa ?





Le marché du PC est pas délaissé car les joueurs consoles sont “stupides” comme tu le laisse entendre mais simplement que le marché des consoles est un marché ou on peut facilement estimer les ventes et un marché assez fermé ou le portage se fait sur une machine “unique” facilement optimisable et ou le piratage est moins important.





arrête de prendre tes rêves pour une réalité, le marché sur PC est loin d’être délaissé.


votre avatar

débat stérile, je joue sur pc et sur consoles, et sur les deux j’y trouve mon compte… a une différence pret, les deux sont pas dans la meme piece.. comme ca je visite un peu ma maison … <img data-src=" /> <img data-src=" />

votre avatar

Last of us je le trouve pas terrible perso, les consoles auron toujours des année de retard, le matos pc evolue tout les 6 mois presque alors que les consoles tout les 7 a 10 ans donc tu voie c’est logique.

votre avatar







Soltek a écrit :



Hm donc vendre un pack hardware GPU/gamepad ? Mais vu que tu dis que les jeux PC ne sont pas fait pour tourner sur gamepad (ce qui est faux pour la plupart à part quelques genres de jeu genre RTS injouable au pad) il faudrait qu’il dév des jeux aussi alors ? <img data-src=" />







Forcément. On parle du fait que Nvidia veut concurrencer la plateforme console de Sony et Microsoft, et que le PC est beaucoup plus puissant en moyenne.


votre avatar







Soltek a écrit :



On est d’accord, mais les tablets ne remplaceront pas le PC.







On est d’accord <img data-src=" />


votre avatar







Industriality a écrit :



Perdant ? Je ne crois pas, les marges sur le SOC AMD des consoles est quasiement nul, d’où le désintérêt de Nvidia. N’oubliez pas que dans le domaine des consoles tout les prix sont tirés vers le bas et que ce sont les jeux qui rapportent avec les royalties.



<img data-src=" />





Je suis même pas sur que Nvidia ait été tres loin dans les negociations pour cette gen de console. La volonté d’avoir un seul die les excluait de fait. Vu que MS et Sony voulait du X86 pour le CPU et que Nvidia en fait pas.


votre avatar

D’ailleurs, c’est pas ajourd’hui qu’il y a une levée de la NDA concernant les détails de la puce graphique AMD de la Xbox One ?

votre avatar







Industriality a écrit :



Perdant ? Je ne crois pas, les marges sur le SOC AMD des consoles est quasiement nul, d’où le désintérêt de Nvidia. N’oubliez pas que dans le domaine des consoles tout les prix sont tirés vers le bas et que ce sont les jeux qui rapportent avec les royalties.



<img data-src=" />







Ce n’est pas un problème d’argent, mais un problème d’image ! Et au passage, l’argent des jeux sert à payer le matériel, donc ça n’empêche pas AMD de faire une marge correcte…


votre avatar







Chloroplaste a écrit :



D’ailleurs, c’est pas ajourd’hui qu’il y a une levée de la NDA concernant les détails de la puce graphique AMD de la Xbox One ?





Après la conf AMD normalement. Elle est a quelle heure ?


votre avatar

Oups topic à trolls.

C’est rien c’est rien je me casse dicretos… <img data-src=" />

votre avatar







yeagermach1 a écrit :



Après la conf AMD normalement. Elle est a quelle heure ?







21h, cf la brève de ce matin


votre avatar







Groumfy a écrit :



Ce n’est pas un problème de graphismes, mais de simplicité d’utilisation.





Historiquement, une console, on met le jeu, et ça démarre avec toutes les fonctionnalités. Aujourd’hui…





Sérieux ? <img data-src=" />



Historiquement, une console, on met le jeu, et ça démarre

Ca met à jour (faut bien patcher les jeux qui sortent buggés)

Ca redémarre

On commence à jouer

Ca freeze au bout de 10s

<img data-src=" />


votre avatar

J’ai des cartes graphiques chez les vert et rouge. Mais depuis quelques temps, je sens de mauvaises ondes des verts qui heurtent mon Karma. Clairement, j’attends les spec et test de la nouvelle génération de Rouge pour faire un geste “militant” (je me comprend).



Les Verts sont devenus un brin trop arrogant et cela ça passe pas

votre avatar







Ellierys a écrit :



21h, cf la brève de ce matin





C’est impressionnant comme je prête jamais attention a votre rubrique brève bien planqué entre deux pubs.



Les chiffres de visionnages de ces news sont les mêmes que pour les news classiques ?


votre avatar

Graphismes consoles &lt;= Graphismes PC



De la simple logique.

votre avatar







djey37 a écrit :



je parlais du cycle évolutions console/PC.



On peux voir que les consoles font évoluer les jeux dans leurs débuts de vie et les PC tiennent la dragée haute sur la fin de vie des consoles.



Attention je ne dis pas que les consoles sont plus puissantes, je dis qu’elles font évoluer les jeux.





Bof, ça dépend…franchement pour moi les grandes “innovations” sont sur consoles depuis un bout de temps. Tout simplement parce que les éditeurs se désintéressent du PC.



Après en terme de graphismes, surement oui…mais pour le gameplay…ça fait un bout de temps que le PC n’a pas fait avancer grand chose à mon avis.


votre avatar







yeagermach1 a écrit :



C’est impressionnant comme je prête jamais attention a votre rubrique brève bien planqué entre deux pubs.



Les chiffres de visionnages de ces news sont les mêmes que pour les news classiques ?







En moyenne non, mais parfois on a des surprises.


votre avatar







after_burner a écrit :



Ce n’était pas forcément sur ce qui est écrit dans ton commentaire seulement. Il y a un bon nombre de personne qui utilise last of us pour se convaincre que la différence technique entre le PC et les consoles n’est pas si grande que ça, alors prendre ce jeu en exemple pour parler de son niveau graphique m’a fait réagir.



D’un point de vue personnel, je trouve far cry3 (sur PS3) plus “impressionnant” que Last of US, et le voir à chaque fois pris comme exemple absolu de maîtrise d’une architecture, je comprend pas trop, c’est tout.







T’inquiète pas je sais la différence, que se soit avec BF3, Skyrim par exemple.


votre avatar







Jean_Peuplus a écrit :



ça dépend lesquels, blizzard se plaint pas trop <img data-src=" />





Certes, mais ce n’est pas un hasard si diablo arrive sur console.<img data-src=" />


votre avatar







gogo77 a écrit :



Ça sent un peu la mauvaise foi. Tout le monde n’a pas son PC à côté de sa TV. Quand à ton sidewinder, biensûr qu’il y a eu des tonnes de périphériques du genre, mais ça n’a rien à voir avec une wiimote. Des jeux avec la webcam ? Seriously ? Je ne connais pas tous les jeux, mais j’ai jamais entendu parler de gros titres qui utilisaient la webcam. Bref c’est franchement pas honnête de dire qu’on retrouve sur PC la même chose que sur console. Je suis pas spécialement là pour défendre les consoles, mais on peut pas dire que simplement parce qu’il y a un CPU, de la RAM, un processeur graphique et un DD que c’est la même chose qu’un PC (par contre techniquement ça pourrait)





Haha, qui fait de la mauvaise foi là ? <img data-src=" />



J’ai bien précisé :



c’est pas pareil certes





Les consoles ont amélioré le truc et l’ont démocratisé par contre ça c’est évident.



Tu parlais de l’innovation, donc je te répondais juste que non les consoles n’ont pas innové, ils n’ont fait que reprendre des choses déjà existante, les ont amélioré et démocratisé, point. Faut apprendre à lire. <img data-src=" />


votre avatar







Alucard63 a écrit :



Certes, mais ce n’est pas un hasard si diablo arrive sur console.<img data-src=" />







Et Diablo avec sa protection n’est pas pirate friendly ;)


votre avatar







after_burner a écrit :



Ce n’était pas forcément sur ce qui est écrit dans ton commentaire seulement. Il y a un bon nombre de personne qui utilise last of us pour se convaincre que la différence technique entre le PC et les consoles n’est pas si grande que ça, alors prendre ce jeu en exemple pour parler de son niveau graphique m’a fait réagir.



D’un point de vue personnel, je trouve far cry3 (sur PS3) plus “impressionnant” que Last of US, et le voir à chaque fois pris comme exemple absolu de maîtrise d’une architecture, je comprend pas trop, c’est tout.





Il est pris en exemple parce que c’est une exclu PS3.



Comme ça les joueurs PS3 peuvent troller sur le Cell.<img data-src=" />


votre avatar







Dahas a écrit :



Ca me rappelle un tiot jeune de la famille qui était étonné que je dise que nous jouions en réseau en 1996. Nostalgie de ma Voodoo 1 couplée à une S3 bien pourrave <img data-src=" />







Duke Nukem 3D et warcraft 2 à 8 en LAN ?


votre avatar







Nithril a écrit :



Et Diablo avec sa protection n’est pas pirate friendly ;)





Oui…sauf sur console pour le coup. Sur bobox pas de problème avec le LT.<img data-src=" />


votre avatar

ouais ouais … faudrais juste préciser en quoi … mauvaise fois … certes.



Sur du calcul OpenCL en virgule flottante 1,1x plus rapide par rapport aux cartes amd

Sur du calcul OpenCL en entier 10x plus lent par rapport aux cartes amd



Après … tout dépends ce que l’on compare …

votre avatar







ragoutoutou a écrit :



Sinon, il semblerait que NVIDIA ait raté ou soit en passe de rater le coup de la Steambox et soir occupé à revoir sa copie concernant les pilotes libres.





J’espère pour eux qu’ils vont pas louper le coche de la steambox ce serai leur 3e rattage d’affilé.

D’ailleurs s’ils travaillent sur les pilotes libres (bon point) c’est peut être pour çà vu que SteamOs est basé sur Linux.

<img data-src=" />


votre avatar







cyrano2 a écrit :



Duke Nukem 3D et warcraft 2 à 8 en LAN ?







Warcraft 2 à 4 <img data-src=" />



4 ordis dans la piole du vendredi soir au dimanche soir. Le plein de junk food et on sortait de là comblés avec des têtes de chouettes amphétaminées grâce à nos écran 15” au rafraichissement stroboscopique <img data-src=" />


votre avatar

Il est marrant lui, certes le hardware d’une console pourra plus jamais dépassé le pc mais si la technologie du streaming ou du cloud computing devient suffisamment performant alors oui la console dépassera le pc mais bon il a l’air d’oublié que les éditeurs préfèrent développer sur console que sur pc car moins de perte financière plus difficile a pirater. Donc oui le pc est supérieur mais demain peut-être pas .



Si je me souviens bien la x360 a innové avec un shader unifié qui n’existait pas sur pc encore, non ?

votre avatar







khertan a écrit :



ouais ouais … faudrais juste préciser en quoi … mauvaise fois … certes.



Sur du calcul OpenCL en virgule flottante 1,1x plus rapide par rapport aux cartes amd

Sur du calcul OpenCL en entier 10x plus lent par rapport aux cartes amd



Après … tout dépends ce que l’on compare …





Vu l’etat de l’API openCL dans les drivers Nvidia, on comprend pourquoi.



Nvidia pousse Cuda leur techno maison.


votre avatar







Industriality a écrit :



Perdant ? Je ne crois pas, les marges sur le SOC AMD des consoles est quasiement nul, d’où le désintérêt de Nvidia. N’oubliez pas que dans le domaine des consoles tout les prix sont tirés vers le bas et que ce sont les jeux qui rapportent avec les royalties.



<img data-src=" />







parce que, évidemment c’est toi qui vends les SOC et tu connais leur marge <img data-src=" />


votre avatar

il a surement raison même s’il y a surement un peu d’aigreur dans ses propos.

Par contre, la puissance des consoles étant intrinsèquement limitée (et le parc étant uniforme d’un point de vue performances), ça passera par davantage d’optimisations… comme à l’époque de l’Amiga / Atari (ceux qui ont vu tourner “State Of The Art” ou “Nine Fingers” sur Amiga comprendront).

votre avatar







Soltek a écrit :



Haha, qui fait de la mauvaise foi là ? <img data-src=" />



J’ai bien précisé :





Tu parlais de l’innovation, donc je te répondais juste que non les consoles n’ont pas innové, ils n’ont fait que reprendre des choses déjà existante, les ont amélioré et démocratisé, point. Faut apprendre à lire. <img data-src=" />







En gros t’es en train de dire que ton commentaire n’avait aucun intérêt ?



Balancer quelque chose pour dire immédiatement que ça n’a rien à voir ? Si tu aimes parler pour rien, fais toi plaisir :)



En quoi le fait de ne pas être le premier à mettre en oeuvre une technique fait que l’on innove pas ? L’utilisation que l’on fait d’une technique peut très bien être une innovation.


votre avatar

c est sur il ne peut pas dire le contraire vue que les console tourne sous AMD

NVIDIA persiste dans sa mauvaise foi

Il doivent avoir les boules que les console tournent sous AMD les future jeux vont donc être optimisé pour les GPU AMD et je suppose que la portabilité console vers PC sera plus facile et donc les jeux PC aussi

C est sur qu il doivent être vert chez le cameleon

votre avatar







Niktareum a écrit :



Ben , t’as toujours pas de son…

Faut encore tirer le jack ou la cable optique !





Euh l’HDMI laisse passer le son hein.


votre avatar







Niktareum a écrit :



Ben , t’as toujours pas de son…

Faut encore tirer le jack ou la cable optique !







Bah non, sur le canapé <img data-src=" />.

J’ai un petit paquet de pote qui joue le pc branché sur le tv, avec clavier souris sans fil (et parfois pad xbox sans fil, car usb).

Que ce soit pour du MMO, du fps (un pote membre d’uen team cs top3 france, il y a ques années jouait dans on gros fauteuil de salon, clavier sur genoux et souris/tapis suir le gros zaccoudoir).

Tout ca sur une tv de 4050” full hd, tip top !







Bien sur c’est possible mais bien moins confortable que sur un bureau (en tout cas pour moi) ou alors ton pote avait un fauteuil vraiment top confort (mais j’imagine qu’il a du y mettre le prix ;) ) Et comme je l’ai dis, tout dépend de la configuration de ton salon, de tes meubles (et le fait que ta copine accepte que tu lui prive de sa série ^^)


votre avatar







Citan666 a écrit :



Il suffit de s’acheter deux manettes sans fil à 30 euros l’une,







Non, car cela ne définit pas un standard pour les développeurs de jeu. Il n’y a pas l’effet volume pour Nvidia pour baisser ses prix, rien ne change pour le taux de piratage.



Bref, cela n’a rien à voir avec ce dont je parle.


votre avatar







Cara62 a écrit :



NVidia, Captain Obvious.



Sauf que, on a beau avoir un PC @5k €, un triple SLI de Titan, allez, les 34 des jeux sont fait pour les consoles, donc ne cherchent pas à utiliser la puissance des PC.

Actuellement un bon petit PC Gamer Moyenne gamme fera tourner les jeux de la next gen.



je rajouterai en plus, que lorsque un jeu est optimisé pour une console, on peut vraiment avoir des supers beaux jeux. Notamment certaines exclues PS3.



Au hasard, The Last Of US.



PS : La puce graphique de la PS3 c’est NVidia. <img data-src=" />







Il faut arrêter avec the last of Us, je suis joueur console et TLOU souffre des même limite que les autres jeux. Sans le filtre de léger flou que l’on voit parfois et qui rend très bien, on voit les défauts, textures qui bavent à 10m au sol, aliasing et scintillements sur le décor. Le jeu est évidement soigné graphiquement mais un jeu console ne peut pas tenir la comparaison graphique avec les PC de toute façon, leur avantage n’est pas dans la technique.


votre avatar







cyrano2 a écrit :



Non, car cela ne définit pas un standard pour les développeurs de jeu. Il n’y a pas l’effet volume pour Nvidia pour baisser ses prix, rien ne change pour le taux de piratage.



Bref, cela n’a rien à voir avec ce dont je parle.





Je t’explique simplement en quoi ce dont tu parles nVidia ne le fera jamais car ce n’est pas rentable pour eux. D’autant que Valve est déjà sur le coup, vu que pour eux ça a du sens.



Et sur le point des manettes, bien que je le regrette personnellement, force est de constater que la manette de xbox 360 est devenue standard de fait.



Quant au taux de piratage, ça me fait bien rire. S’il est vrai que le piratage est nettement plus élevé que sur consoles, ce n’est 1) pas un problème pour la rentabilité de la plupart des titres 2) ni une contrainte irrémédiable. Il n’y a qu’à voir Torchlight 2 ou PayDay qui ont subi très peu de piratages et de grosses ventes Day1 grâce à un prix contenu.


votre avatar

Bah alors m’sieu nVidia ? T’es dég ? Soit pas dèg… <img data-src=" />

votre avatar







doctor madness a écrit :



Y’a que moi qui trouve absolument débile son historique ? Lorsque j’avais mes 2 voodoo² je tapais du 90fps sur quake2 tous les détails a fond, en 1024*768 sur mon PC. Quand est ce que des consoles ont pu se permettre de proposer un tel niveau de :

-détails

-FPS

-résolution

???



Je me souviens encore mes potes qui avaient une console bavaient en voyant les jeux tourner sur PC…

Le prix était bien entendu totalement différent.

Ai je mal compris son propos ?







Ca me rappelle un tiot jeune de la famille qui était étonné que je dise que nous jouions en réseau en 1996. Nostalgie de ma Voodoo 1 couplée à une S3 bien pourrave <img data-src=" />


votre avatar

Nvidia en mode full rage <img data-src=" />

votre avatar







Warchest a écrit :



De toute facon un fps ca se joue avec un clavier/souris et pas avec un pad niveau réactivité zero sur console, ca m’hallucine toujours pour ca les COD and co sur consoles.



Pour les consoles les jeux de sport voiture oui oki mais les fps je ne serais jamais comment on peut y jouer au pad.







Moi c’est ls gens qui jouent à des FPS que je ne comprend pas, peut importe qu’ils utilisent clavier/souris ou gamepad, ça me fait halluciner ! Ils sont stupide ou quoi ?



<img data-src=" />


votre avatar



« Il n’est plus possible pour une console d’être plus performante sur le plan des graphismes qu’un PC »





Il vient seulement de s’en rendre compte ?

votre avatar







oudi1974 a écrit :



ça c’est la théorie et les chiffres bruts, mais les développeurs vont optimiser leurs jeux pendant 8 ans pour tourner de manière fluide sur PS4, alors que le PC à 600-700€ n’aura droit qu’à une optimisation sommaire de leur part, et sera totalement désuet dans même pas deux ans, moment où il ne servira plus qu’à surfer sur le net.







vu l’architecture des console old “next” gen ps4 et xbox one, pas sur qu’il y ait autant un besoin d’optimisation pour un portage Console PC



Et faut pas oublier que les jeux qui sont portés de la consoles vers le PC sont pas si légion, argument un peu consolo-centré



Des jeux natif développés pour les PC ça existe.



Quand à l’argument récurrent de la durée de vie d’une config PC, c’est toujours drôle quand on sait que beaucoup de gens jouent sur des chipset ou autre. Un vieux PC de 6 7 ans avec CG dédiée de milieu de gamme fait encore tourner une grosse proportion des jeux qui sortent aujourd’hui. Au minimum souvent (ce qui reste souvent plus beau que de la ps3)


votre avatar







calahan59 a écrit :



C’est comme si on avait une Ferrari(le pc), mais que l’essenceOS qu’on met était de qualité moindre







Et au delà de l’OS, les drivers graphiques qui vont dessus et qui peuvent modifier les perfs d’un jeu (et ce qui va améliorer l’un peu en dégrader d’autres)…



C’est une des forces des consoles que de ne pas subir ces problèmes et de proposer un tout bien intégré pour son usage dédié.


votre avatar

J’adore le mec qui sort 75€ le jeu console et 45€ sur Steam.



Alors déja les grosses licences sur Steam sont rarement a 45€ a leur sortie.



Ensuite les jeux console coute RAREMENT 75€ et sont tres souvent a 70€ a la sortie et tombe assez rapidement a 60€.



Et finalement sur console le marché de l’occasion existe et fait donc chuter le prix radicalement a 30/40€ très rapidement, chose qui n’existe pas sur PC.





Donc c’est un peu simple de dire 75//45, mais je pense que c’est manquer de discernement. Il existe des joueurs consoles qui dépense pas plus que des joueurs PC en jeu. Suffit d’etre patient/intelligent.

votre avatar

“Et faut pas oublier que les jeux qui sont portés de la consoles vers le PC sont pas si légion, argument un peu consolo-centré ”



Tu veux parler de GTA 4 ? Skyrim ? Far Cry 3 ? <img data-src=" />





“ Un vieux PC de 6 7 ans avec CG dédiée de milieu de gamme fait encore tourner une grosse proportion des jeux qui sortent aujourd’hui. Au minimum souvent (ce qui reste souvent plus beau que de la ps3)”



<img data-src=" /> hate de voir GTA 5 sur chipset.

votre avatar



Le responsable oublie toutefois un point crucial pour justifier cet écart de performances entre un PC haut de gamme et une console de nouvelle génération : le prix. Aucun constructeur, qu’il s’agisse de Sony, Microsoft ou Nintendo ne peut se permettre d’opter pour un GPU haut de gamme, vendu près de 600 dollars dans le commerce, pour l’intégrer dans une machine vendue 399 ou 499 dollars.





Au moment de la sortie des consoles next-gen, les cartes type HD7950 ou équivalent seront à 150€ prix public (on en trouve déjà à moins de 200€). Ce sont des prix de milieu de gamme, fourchette basse.

La partie graphique des consoles next-gen, au moment où elles sortiront, sera équivalente à ce qui se fera sur PC pour, allez, 100€ prix public dans le meilleur des cas….

ça représente combien, au prix de gros, sur le prix d’une console? 50€?

votre avatar







Spidard a écrit :



pluzain. La tablette, c’est pour le surf. Le confort de travail sur un traitement de texte ou un tableur sur une tablette est juste nul.

Ces 2 appareils avec 2 usage différents (notamment la mobilité)







comment tu fais pour mater du pr0n aux toilettes avec un ordi ?



<img data-src=" />





====&gt;[- ]


votre avatar

Ben il a pas tort, ces nouvelles consoles cassent rien techniquement, mais ça reste un discours logique venant d’un constructeur qui ne se retrouve plus sur le marché console.

votre avatar

On peut sortir toute la puissance de calcul en 3D que l’on veut,si l’on doit causer environnement ludique,ça sera toujours une question de portage de licence de jeux et une plate-forme qui offre moins de licence que les autres,sera mois séduisante que les autres,suffit de voir combien de jeux sortent sur consoles et PC pour comprendre…



Toutefois,ça reste à la bonne grâce des éditeurs de jeux et là c’est un autre problème (ou faux-problème)



Même si Nvidia a raison sur le fond,les éditeurs chercherons toujours rapide,facile,pas chère et touchant un large publique,pas le dernier bousin kipoutr sur paycay. <img data-src=" />

votre avatar

J’ai hâte d’être à la prochaine gen dans le cas où Nvidia remporterait le marché… <img data-src=" />

votre avatar

De toute facon un fps ca se joue avec un clavier/souris et pas avec un pad niveau réactivité zero sur console, ca m’hallucine toujours pour ca les COD and co sur consoles.



Pour les consoles les jeux de sport voiture oui oki mais les fps je ne serais jamais comment on peut y jouer au pad.

votre avatar

C’était pour acquis pour les consoles/vs PC , sauf à tarif équivalent ou la console peut avoir le dessus les premières années , mais la convergence pour le développement de nouveaux jeux entre pc/consoles permettra encore de mieux exploiter les capacités des PCs

votre avatar



es consoles de salon ont des contraintes sur le plan thermique(…) plus importantes que sur PC





Sur ce plan, je pense qu’il est resté dans les années 90 notre nvidia-boyscout: Même pour des conf gamer, le mini-ITX ressemble sans doute plus au format de la CM d’avenir que l’ATX.



La grosse tour chauffage d’appoint amha c’est un héritage du passé largement en perte de vitesse.



Les fabricants de processeur l’ont bien compris d’ailleurs. Pour le jeu, la plupart des jeunes aujourd’hui le découvre sur tablette/mobile et je ne suis pas certain non plus que cela participe a la hausse des attentes qualitatives et même Sony semble en prendre conscience avec sa PS-Vita-TV, qui ressemble fort à un ballon d’essai comparatif versus la PS4.



Nvidia est en train de commettre une lourde erreur et AMD qui n’a pas loupé le virage avec ses APU doit se frotter les mains.

votre avatar







jpaul a écrit :



Je dis vague ?





Oui.



C’est comme la crise de l’automobile, ça me fait rire. Tout le monde aujourd’hui a un PC chez lui et ne le renouvelle pas chaque année donc évidement les ventes sont en bernes (encore qu’au lieu de pleurer les constructeurs devraient embaucher des commerciaux et aller voir les pays émergents mais bref).

Les tablet ça reste encore nouveau pour les gens et vu le matraquage médiatique/commerciale (regarde dans les JT/autres émissions ils commencent à peine à troquer leur papier contre des tablet) ils commencent enfin à tous en vouloir chez eux donc ça se vend bien.



Faut regarder le marché avec plus de recul et pas juste voir qu’on vend moins de PC en 2013 qu’en 2012, le marché du PC grand public à quoi ? 10-15 ans ? Normal qu’il y est eu un pic et que ça décroit mais ça continuera à se vendre (comme les bagnoles).


votre avatar







metaphore54 a écrit :



La PS4 et la xbox one seront à 150€ ? c’est le prix d’une CG milieu de gamme environ.









non elles sont annoncées à 400 US$ (400€)


votre avatar

Le prix d’une bonne carte video qui te permet de mettre les graph fond et joué nikel a 250 euro sa suffit, j’ai un i5 4570 avec une 660 ti je fait tourné arma 3 en ultra nickel donc oui le pc ne pourra jamais atteindre les memes perf ou plus tard mais les pc auron toujours de l’avance c’est indéniable. Pour atteindre les memes graph en ultra de arma 3 il faudra attendre la ps6 ou ps7.

votre avatar







Soltek a écrit :



Oui.



C’est comme la crise de l’automobile, ça me fait rire. Tout le monde aujourd’hui a un PC chez lui et ne le renouvelle pas chaque année donc évidement les ventes sont en bernes (encore qu’au lieu de pleurer les constructeurs devraient embaucher des commerciaux et aller voir les pays émergents mais bref).

Les tablet ça reste encore nouveau pour les gens et vu le matraquage médiatique/commerciale (regarde dans les JT/autres émissions ils commencent à peine à troquer leur papier contre des tablet) ils commencent enfin à tous en vouloir chez eux donc ça se vend bien.



Faut regarder le marché avec plus de recul et pas juste voir qu’on vend moins de PC en 2013 qu’en 2012, le marché du PC grand public à quoi ? 10-15 ans ? Normal qu’il y est eu un pic et que ça décroit mais ça continuera à se vendre (comme les bagnoles).







Analyse à la petite semaine spotted


votre avatar







Warchest a écrit :



Le prix d’une bonne carte video qui te permet de mettre les graph fond et joué nikel a 250 euro sa suffit, j’ai un i5 4570 avec une 660 ti je fait tourné arma 3 en ultra nickel donc oui le pc ne pourra jamais atteindre les memes perf ou plus tard mais les pc auron toujours de l’avance c’est indéniable. Pour atteindre les memes graph en ultra de arma 3 il faudra attendre la ps6 ou ps7.







Bof, ma dernière CG m’a couté 150€ en 2010, elle me suffit encore largement et va me faire encore au moins 1 ou 2 ans au vu des évolutions du jeu vidéos. C’est sûre je ne met pas tout à fond mais je m’en moque les graphismes me suffisent.


votre avatar







Superambre a écrit :



non elles sont annoncées à 400 US$ (400€)







Il repondait a un mec qui disait que les caret graph milieu de gamme valaient le prix d’un console, ce qui est faux puisque le milieu de gamme cg est de 150€, il n’y a que 4 pages de comm et t’es deja largué ;)







Warchest a écrit :



Le prix d’une bonne carte video qui te permet de mettre les graph fond et joué nikel a 250 euro sa suffit, j’ai un i5 4570 avec une 660 ti(…).





Perso, une cg a 140/150€ avec mon i7 et mon ssd sont laaaargement suffisant pour jouer avec une moyenne élevée des reglages vidéos sur mon 27”…


votre avatar

Ce n’est pas un problème de graphismes, mais de simplicité d’utilisation.





Historiquement, une console, on met le jeu, et ça démarre avec toutes les fonctionnalités. Aujourd’hui…

votre avatar







Nithril a écrit :



Analyse à la petite semaine spotted





J’ai jamais prétendu être analyste mais si j’ai complètement tord j’écoute la tienne.


votre avatar



Selon NVIDIA, les consoles ne seront plus jamais à la hauteur du PC





En effet, mais les consoles ont-elles vraiment vocation à être des monstres technologiques surpuissantes ?

Surtout quand une majorité d’écrans dans les foyers occidentaux sont au mieux en 720p et 1080p…



Le succès de la Wii a bien montré le contraire !!

votre avatar







Alucard63 a écrit :



Bah quand il faut dev un processeur X86 from scratch…c’est sur que les coûts doivent être élevés.<img data-src=" />





C’est bien pour cela qu’ils l’ont pas mauvaise. Il était hors compétition des le début.


votre avatar







Mack21 a écrit :



de toute facon une carte graphique a 399€ fera toujours mieux qu’une console a 399€ <img data-src=" />







Toute seule elle ne va pas faire grand chose <img data-src=" />


votre avatar







Ellierys a écrit :



Toute seule elle ne va pas faire grand chose <img data-src=" />





En bibelot c’est sympa <img data-src=" />


votre avatar







Ellierys a écrit :



Toute seule elle ne va pas faire grand chose <img data-src=" />







REALLY ?

<img data-src=" />


votre avatar







Mack21 a écrit :



de toute facon une carte graphique a 399€ fera toujours mieux qu’une console a 399€ <img data-src=" />





Ca dépend: une Voodoo 5 6000 à 600 dollars se fait piner même par un Xbox 360.<img data-src=" />


votre avatar







Soltek a écrit :



Ah oui non mais si tu remontes à l’époque où de toute façon une personne lambda ne pouvait s’acheter et config un PC pour jouer tu vas en trouver des trucs. Franchement le stick analogique ça date de quand ? Les années 70 non ? Qui avait un ordi à cette époque ?

Je restais dans les générations de console PS/Xbox/Wii qui non pour moi c’est pas de l’innovation. Encore une fois, c’est juste repris et amélioré, pas innové. Votre langue est riche, faites attention aux nuances des mots <img data-src=" />





Ok donc en fait t’as même pas cherché à lire la source, tu ne veux pas discuter mais troller. Libre à toi, après tout ça donne une certaine dynamique aux commentaires. Pour ma part je vais arrêter de te nourrir. <img data-src=" />



(juste pour info, le stick analogique, en tant que périphérique de jeu en tout cas, est a été popularisé avec la Nintendo 64 en 1996 <img data-src=" />, et apparu pour la première fois avec l’Atari 5200 en 1982 - une console de jeux vidéos. Et sinon, je trouve amusant l’argument selon lequel “oui les pc sont apparus après les consoles donc même s’ils ont repris des idées ça compte pas” <img data-src=" />)


votre avatar







Mack21 a écrit :



de toute facon une carte graphique a 399€ fera toujours mieux qu’une console a 399€ <img data-src=" />







Un lévrier tétraplégique courira de toute façon plus vite qu’un chihuahua <img data-src=" />


votre avatar

Ce qu’ils n’ont pas compris chez nVidia c’est que par contre les jeux ne seront plus jamais sur PC non plus <img data-src=" />

Blizzard a ouvert la boite de pandore en portant D3 et ils finiront par faire comme tous les autres c.a.d privilégier le marché consoles <img data-src=" />

votre avatar







yeagermach1 a écrit :



Vu l’etat de l’API openCL dans les drivers Nvidia, on comprend pourquoi.



Nvidia pousse Cuda leur techno maison.







pas tant que ca en faite, si tu benchmark en virgule flottante il y a de meilleurs perfs sur certain calcul en opencl vs cuda :)


votre avatar







Idiot Proof a écrit :



Ce qu’ils n’ont pas compris chez nVidia c’est que par contre les jeux ne seront plus jamais sur PC non plus <img data-src=" />

Blizzard a ouvert la boite de pandore en portant D3 et ils finiront par faire comme tous les autres c.a.d privilégier le marché consoles <img data-src=" />









T’es au courant que Diablo (le 1er) avait été porté sur Playstation?



Que Warcraft 2 est sorti sur Playstation aussi?


votre avatar







kyhkyh a écrit :



T’es au courant que Diablo (le 1er) avait été porté sur Playstation?



Que Warcraft 2 est sorti sur Playstation aussi?





Et Lost Vikings aussi.<img data-src=" />





Reste que ce retour à la console n’est pas anodin.<img data-src=" />


votre avatar







Soltek a écrit :



Euh l’HDMI laisse passer le son hein.







LA technologie oui, mais le cable hdmi qui sort de ma carte graphique et va sur la tv, ben g pas de son…

D’ailleurs, ej vois pas d’ou il pourait venir, la cg fait pas de son, et ma x-fi n’est pas relié a la cg.



A moins d’un truc incroyable qui permet d’avoir le son de l’ordi, géré par l’os ou chepaquoi qui envoie le son dolby digital de ma cg sur l’hdmi de la cg vers la tv, faut m’expliquer… <img data-src=" />







lothia a écrit :



Bien sur c’est possible mais bien moins confortable que sur un bureau (en tout cas pour moi) ou alors ton pote avait un fauteuil vraiment top confort (mais j’imagine qu’il a du y mettre le prix ;) ) Et comme je l’ai dis, tout dépend de la configuration de ton salon, de tes meubles (et le fait que ta copine accepte que tu lui prive de sa série ^^)







non, un vieux fauteuil, type celui du papi, mais ca reste quand meme super confort <img data-src=" />.

Apres, ct un gros celib dans un apart pas fait pour ramener de la gueuse !



L’autre collegue, ben il joue avec sa femme qui va sur l’ordi de bureau <img data-src=" />

L’a tout compris lui !







HarmattanBlow a écrit :



Tu as déjà été embauché pour remplacer à toi tout seul une équipe de dix développeurs punjabi avec un turn over hebdomadaire de 45% ?







Ah non, non seulement ca risque pas, mais surtout niet de niet, la dev web berk berk berk, c’est pas du tout ma tasse de thé !

Puis j’ai surtout pas la prétention d’avoir les chevilles grosses comme celles de 10 punjabis…


votre avatar







Idiot Proof a écrit :



Ce qu’ils n’ont pas compris chez nVidia c’est que par contre les jeux ne seront plus jamais sur PC non plus <img data-src=" />

Blizzard a ouvert la boite de pandore en portant D3 et ils finiront par faire comme tous les autres c.a.d privilégier le marché consoles <img data-src=" />





J’entendais déjà ça il y a longtemps et en réalité le marché du jeu PC s’est rarement aussi bien porté entre les indépendants, les exclus et les portages consoles. D’ailleurs le commentaire est à côté de la plaque : ça fait belle lurette que les consoles dominaient le marché du JV et tout va avantager le PC dans cette génération de consoles.


votre avatar







Niktareum a écrit :



la dev web berk berk berk, c’est pas du tout ma tasse de thé !





Nous voilà deux. <img data-src=" />


votre avatar







Industriality a écrit :



Oui et Nvidia l’a dit (repris dans pas mal d’articles sur les sites techs) les prix demandés par MS étaient trop faibles par rapport aux coups de dev, donc ils ont laisé tombé et se sont concentré sur leur savoir faire.







Bah oui ils savent pas faire de X86 … donc c’était pas pour eux … t’es abruti ma parole ? ou sinon t’es juste un troll avec tellement peu de connaissance qu’il fait rire + qu’énerver <img data-src=" />



Dans deux les cas si tu veux pas faire de mal à ta “communauté” tu devrais te taire et laisser ceux qui savent de quoi ils parlent … parler :) sinon continue de faire rire ceux du camp d’en face…



Dans ce cas précis “communauté” = les débiles, accros de GDC, guerre microsoft/apple ou Nvidia/AMD qui écoutent et prennent pour argent comptant les communiqués de leurs boites favorites et conspuent tout ça lorsque ça vient du concurrent….

en bref = troupeaux de moutons inoffensifs et inutiles…





D’ailleurs y a 3 - 4 piges Nvidia avait annoncé le dev d’un processeur X86 sois disant pour netbook, mais avec le recul ça cachait surement une tentative de répondre aux marchés proposés par MS et Sony pour la next gen ….

Ils ont juste pas été à la hauteur ou c’était pas INtéressant pour eux.. c’est pas une raison pour faire du troll à chaque communiqué pleurnichard <img data-src=" /> pareil pour leurs fanboys j’ai envie de te dire.


votre avatar

Ok moi aussi je vais juste quote un passage et faire abstraction du reste en faisant semblant de pas comprendre ton message.









Citan666 a écrit :



(juste pour info, le stick analogique, en tant que périphérique de jeu en tout cas, est a été popularisé avec la Nintendo 64 en 1996 <img data-src=" />, et apparu pour la première fois avec l’Atari 5200 en 1982 - une console de jeux vidéos.





Tiens puisque tu as l’air de kiffer Wikipedia : oh un stick analogique dans les années ‘70.


votre avatar







Soltek a écrit :



Transformer un PC en console mais WTF ? La console ne fait que reprendre une partie de ce que fait déjà le PC. Branche lui une manette et tu as une console, branche le sur ta TV si tu veux un plus grand écran. <img data-src=" />

<img data-src=" />







Les jeu PC sont rarement fait pour un gamepad, il y a donc des jeux de style différent pour les 2 univers.



Le marché du jeu console est plus grand car :

1)le matériel des consoles est standardisé, le développement coute moins chère. Si tu joues avec un gamepad à toi, le concepteur du jeu doit choisir le plus petit commun dénominateur entre tout les gamepad PC sur le marché.




  1. Il y a moins de piratage.

  2. une console est plus simple à utiliser.



    Je disais donc que Nvidia peut transformer un PC en console pour récupérer une partie de ce marché. Au lieu de vendre 50 carte différentes, il se concentre sur un pack à ~250/300€ qu’il renouvelle tous les ans ou 10 mois. Ils peuvent même faire 2 ou 3 pack différent, en garantissant que tout tourne correctement sur les 3, mais cela sera plus joli sur le pack à 800€ (pour écran 4K, par exemple ou 3D).


votre avatar

@metaphore



Moi faut que je mette tout a fond pour profité du jeux, ca me soule de pas jouer avec les graphs réel.

votre avatar







Groumfy a écrit :



Ce n’est pas un problème de graphismes, mais de simplicité d’utilisation.





Historiquement, une console, on met le jeu, et ça démarre avec toutes les fonctionnalités. Aujourd’hui…





Voilà ! Quand il a fallu commencer à attendre 3h les loading et pire installer ses jeux j’ai arrêté les consoles.

Vive les cartouches <img data-src=" />


votre avatar

le sous-titre de la mort qui tue !! <img data-src=" /> (si se n’est qu’ils ont loupé 3 contrats)



Sinon le mec, il est toujours dans son optique, il vend des CG, pas des jeux !



Si il est pas content, il baisse ces prix et accorde à tous les utilisateurs PC (ceux que ça intéresse) et console le meilleur des graphismes HD. Nous reviendrons alors à une linéarisation des performances PC et console.



Alors pour le moment, Krosoft de Sony font gaper les graphismes des jeux PC ( avec toujours plus de budgets pour les jeux, attention aux accidents industriels <img data-src=" />) et plus tard, les PC tireront les jeux console vers le haut. Comme à chaque génération !



Pour le moment wait and see, mais je vois pas de différences avec les générations précédentes.


votre avatar







Niktareum a écrit :



Chez Mme michu peut etre, mais me passer d’un ordi, jamais de la vie…





Même chez Mme Michu. La tablette c’est un complément au PC, pas un remplaçant.


votre avatar







Niktareum a écrit :



T’as pas déjà été viré pour te faire remplacer par un dev punjabi de new delhi bengalore a 1.35€ de l’heure ?





<img data-src=" />


votre avatar







djey37 a écrit :



Pour le moment wait and see, mais je vois pas de différences avec les générations précédentes.





Hum quand même on devrait se débarrasser de pas mal d’aliasing et de clipping en plus d’offrir la possibilité de gros mondes ouverts( parce que 512 Mo de ram…mon smartphone en a plus… ).<img data-src=" />


votre avatar







yeagermach1 a écrit :



Même chez Mme Michu. La tablette c’est un complément au PC, pas un remplaçant.







OH wait… Démasqué <img data-src=" />







Alucard63 a écrit :



T’as pas déjà été viré pour te faire remplacer par un dev punjabi de new delhi bengalore a 1.35€ de l’heure ?

<img data-src=" />







<img data-src=" />

/me die


votre avatar







Warchest a écrit :



@metaphore



Moi faut que je mette tout a fond pour profité du jeux, ca me soule de pas jouer avec les graphs réel.







C’est un choix c’était important pour moi fin des années 90 et début 2000 quand les graphismes ressemblaient à rien mais aujourd’hui même des jeux fait avec les pieds ressemblent à quelques chose au niveau graphique.


votre avatar







Soltek a écrit :



Oui.



C’est comme la crise de l’automobile, ça me fait rire. Tout le monde aujourd’hui a un PC chez lui et ne le renouvelle pas chaque année donc évidement les ventes sont en bernes (encore qu’au lieu de pleurer les constructeurs devraient embaucher des commerciaux et aller voir les pays émergents mais bref).

Les tablet ça reste encore nouveau pour les gens et vu le matraquage médiatique/commerciale (regarde dans les JT/autres émissions ils commencent à peine à troquer leur papier contre des tablet) ils commencent enfin à tous en vouloir chez eux donc ça se vend bien.



Faut regarder le marché avec plus de recul et pas juste voir qu’on vend moins de PC en 2013 qu’en 2012, le marché du PC grand public à quoi ? 10-15 ans ? Normal qu’il y est eu un pic et que ça décroit mais ça continuera à se vendre (comme les bagnoles).







La crise de l’auto est en relation avec la crise tout court.

Les constructeurs tentent déjà d’aller dans les pays émergent mais ce n’est pas un marché facile.

Les tablettes commencent à être bien implantées, cf cet article

Le PC “desktop” continuera à se vendre mais moins du à la concurrence des tablettes et autres convertibles, moins doté pour le jeu


votre avatar







Edtech a écrit :



On sent les mauvais perdants depuis qu’ils ont perdu le marché console à dénigrer sans cesse celles-ci et à encenser les PC !







Perdant ? Je ne crois pas, les marges sur le SOC AMD des consoles est quasiement nul, d’où le désintérêt de Nvidia. N’oubliez pas que dans le domaine des consoles tout les prix sont tirés vers le bas et que ce sont les jeux qui rapportent avec les royalties.



<img data-src=" />


votre avatar







djey37 a écrit :



Alors pour le moment, Krosoft de Sony font gaper les graphismes des jeux PC ( avec toujours plus de budgets pour les jeux, attention aux accidents industriels <img data-src=" />) et plus tard, les PC tireront les jeux console vers le haut. Comme à chaque génération !



Pour le moment wait and see, mais je vois pas de différences avec les générations précédentes.







Je sais pas, les grosses licences développent d’abord sur console et adapte sur PC en ajoutant DES FOIS des textures HD (cf Tomb Raider, Assassin’s creed, The Witcher 2 et 3, Mass Effect, Dead Space) et rare sont les jeux dont c’est l’inverse (BF3 & 4 pour ne citer qu’eux).



Quand tu regardes The Last of US sur PS3, tu vois que le gouffre est quand même très rikiki…



Je reste PCiste depuis un bail à cause des MMORPG et FPS et des jeux indés, mais je refuse de croire que les jeux PC sont mieux foutus que les jeux consoles.


votre avatar







Nithril a écrit :



Le PC “desktop” continuera à se vendre mais moins du à la concurrence des tablettes et autres convertibles, moins doté pour le jeu





On est d’accord, mais les tablets ne remplaceront pas le PC.


votre avatar







aurel_gogo a écrit :



Il a surement raison le Monsieur mais ça fait vraiment discours du gars aigri….. T’as peut être les meilleurs puces mais pas les meilleurs commerciaux





Faudrai déjà qu’elles consommes nettement moins. LA raison pour laquelle AMD s’est imposé m’est avis (sans compter les APU).


votre avatar







cyrano2 a écrit :



Les jeu PC sont rarement fait pour un gamepad, il y a donc des jeux de style différent pour les 2 univers.



Je disais donc que Nvidia peut transformer un PC en console pour récupérer une partie de ce marché. Au lieu de vendre 50 carte différentes, il se concentre sur un pack à ~250/300€ qu’il renouvelle tous les ans ou 10 mois. Ils peuvent même faire 2 ou 3 pack différent, en garantissant que tout tourne correctement sur les 3, mais cela sera plus joli sur le pack à 800€ (pour écran 4K, par exemple ou 3D).





Hm donc vendre un pack hardware GPU/gamepad ? Mais vu que tu dis que les jeux PC ne sont pas fait pour tourner sur gamepad (ce qui est faux pour la plupart à part quelques genres de jeu genre RTS injouable au pad) il faudrait qu’il dév des jeux aussi alors ? <img data-src=" />


votre avatar







Alucard63 a écrit :



Hum quand même on devrait se débarrasser de pas mal d’aliasing et de clipping en plus d’offrir la possibilité de gros mondes ouverts( parce que 512 Mo de ram…mon smartphone en a plus… ).<img data-src=" />









je parlais du cycle évolutions console/PC.



On peux voir que les consoles font évoluer les jeux dans leurs débuts de vie et les PC tiennent la dragée haute sur la fin de vie des consoles.



Attention je ne dis pas que les consoles sont plus puissantes, je dis qu’elles font évoluer les jeux.


votre avatar







yeagermach1 a écrit :



non







Tu me fais mal là…. Remarque c’est la représentation d’une seule et même carte. Les GPU dédiés représentent globalement bien plus.


votre avatar







Séphi a écrit :



Tu me fais mal là…. Remarque c’est la représentation d’une seule et même carte. Les GPU dédiés représentent globalement bien plus.





Le premier vendeur de carte vidéo, c’est intel pas nvidia ou ati. Beaucoup de gens achètent de l’ultrabook, de la tablette pro, du mba ou il y a que ca comme carte graphique. Plus bien sur tous les ordis pro.



Les gpu dedié c’est plus pour les gens voulant jouer a des jeux gourmands.


votre avatar







yeagermach1 a écrit :



Le premier vendeur de carte vidéo, c’est intel pas nvidia ou ati. Beaucoup de gens achètent de l’ultrabook, de la tablette pro, du mba ou il y a que ca comme carte graphique. Plus bien sur tous les ordis pro.



Les gpu dedié c’est plus pour les gens voulant jouer a des jeux gourmands.







Je sais bien que ce sont les premiers, juste que je ne pensais pas que ça se retrouverait à une telle représentation sur Steam.


votre avatar







Séphi a écrit :



Je sais bien que ce sont les premiers, juste que je ne pensais pas que ça se retrouverait à une telle représentation sur Steam.





faut bien s’occuper au boulot et en vacance <img data-src=" />


votre avatar

Niveau puissance brut, y’a pas photo… a condition d’y mettre le prix <img data-src=" />



Mais, “étrangement” la sortie des jeux utilisant de nouveaux moteurs éstempillés next gen ( ce pourquoi les gros gamers piochent dans le compte en banque pour s’équiper…chez Nvidia par exemple) coincident avec la sortie de nouvelles consoles. Sans celles ci l’industrie du jeu video serait elle aussi techniquement avancée qu’aujourd’hui Tony ?

A mediter. <img data-src=" />

votre avatar







Séphi a écrit :



Qu’on me rassure, le coup de la HD3000 qui serait la plus utilisée vient du fait qu’avec Optimus Steam fait pas réellement de différence… Hein ?…. Hein ?…. <img data-src=" />





C’est le modèle le plus répandu avec 4% de pdm. Les puces Intel représentent moins de 10% des utilisateurs de Steam.


votre avatar







HarmattanBlow a écrit :



Tada !

C’est quand même satisfaisant.





Faudrait apprendre la différence entre médiane et moyenne <img data-src=" />



MAJ: en plus la c’est les composants les plus répandu … donc ca ne prouve rien.


votre avatar







yeagermach1 a écrit :



Le premier vendeur de carte vidéo, c’est intel pas nvidia ou ati.





Euh pas sur le survey de Steam en tout cas.


votre avatar







Mack21 a écrit :



Faudrait apprendre la différence entre médiane et moyenne





Je sais pertinemment la différence entre les deux mais le terme “configuration médiane” ne signifie rien et quand bien même tu voudrais essayer d’en donner une définition il y aurait autant de modes de calcul que de réponses. Donc je te donne la part des différents composants parmi les utilisateurs de Steam.



La prochaine fois tu me remercieras au lieu de cracher sur la meilleure réponse possible en me prenant pour un con, hein ?


votre avatar







Soltek a écrit :



Et tu commentes des commentaires auxquels tu ne trouve aucun intérêt, quelle vie trépidante.



Je n’ai jamais dit que ça n’avait rien à voir, encore un raccourci d’une lecture foireuse que tu fais. Puis je parle pas pour rien la preuve tu réponds <img data-src=" />



Parce que ça s’appelle de l’amélioration et non pas de l’innovation.

Cadeau.





J’aurais préféré que ça soit intéressant mais tu ne sembles pas vraiment disposé à établir un dialogue constructif puisque tu préfère relever mes erreurs pour te donner raison (même si ça méritait d’être relevé parce que je ne cherchais pas à déformer tes propos)



Et puis évite de donner un lien pas franchement étoffé sur le sujet qui te sert d’argument avant de me dire que je ne lis pas tes commentaires (et puis lis peut être aussi d’autres sources). Tu sembles tellement sûr de toi.


votre avatar







HarmattanBlow a écrit :



C’est le modèle le plus répandu avec 4% de pdm. Les puces Intel représentent moins de 10% des utilisateurs de Steam.







+1 c’est le morcellement des modèles de chez nvidia et ATi qui fait que ce modèle est le plus répandu, c’est tout.


votre avatar







HarmattanBlow a écrit :



Je sais pertinemment la différence entre les deux mais le terme “configuration médiane” ne signifie rien et quand bien même tu voudrais essayer d’en donner une définition il y aurait autant de modes de calcul que de réponses. Donc je te donne la part des différents composants parmi les utilisateurs de Steam.



La prochaine fois tu me remercieras au lieu de cracher sur la meilleure réponse possible en me prenant pour un con, hein ?





Je ne prends que ce que tu me donnes.


votre avatar







yeagermach1 a écrit :



Je suis même pas sur que Nvidia ait été tres loin dans les negociations pour cette gen de console. La volonté d’avoir un seul die les excluait de fait. Vu que MS et Sony voulait du X86 pour le CPU et que Nvidia en fait pas.







Oui et Nvidia l’a dit (repris dans pas mal d’articles sur les sites techs) les prix demandés par MS étaient trop faibles par rapport aux coups de dev, donc ils ont laisé tombé et se sont concentré sur leur savoir faire.



votre avatar







gogo77 a écrit :



J’aurais préféré que ça soit intéressant mais tu ne sembles pas vraiment disposé à établir un dialogue constructif puisque tu préfère relever mes erreurs pour te donner raison (même si ça méritait d’être relevé parce que je ne cherchais pas à déformer tes propos)



Et puis évite de donner un lien pas franchement étoffé sur le sujet qui te sert d’argument avant de me dire que je ne lis pas tes commentaires (et puis lis peut être aussi d’autres sources). Tu sembles tellement sûr de toi.





C’est juste du Français, tu peux aller voir dans le dico aussi si tu veux m’enfin pour faire la différence entre innovation et amélioration y’a pas besoin de sortir 50 encyclopédies.

Pardon mais le dialogue on peut le commencer quand tu diras autre chose que “tu parles dans le vent lolz”, argumente un peu.


votre avatar







Industriality a écrit :



Oui et Nvidia l’a dit (repris dans pas mal d’articles sur les sites techs) les prix demandés par MS étaient trop faibles par rapport aux coups de dev, donc ils ont laisé tombé et se sont concentré sur leur savoir faire.





Bah quand il faut dev un processeur X86 from scratch…c’est sur que les coûts doivent être élevés.<img data-src=" />


votre avatar







Jean_Peuplus a écrit :



+1 c’est le morcellement des modèles de chez nvidia et ATi qui fait que ce modèle est le plus répandu, c’est tout.







Dommage qu’ils unifient pas le rebadgage de leur carte graphique sous une meme référence <img data-src=" />


Selon NVIDIA, les consoles ne seront plus jamais à la hauteur du PC

  • La consommation est une contrainte sur consoles, le prix aussi

Fermer