Connexion
Abonnez-vous

Watch Dogs : la configuration minimale est encore plus musclée que prévu

Aiden, ce pirate qui ne différencie pas une Radeon HD 5850 d'une 5770

Watch Dogs : la configuration minimale est encore plus musclée que prévu

Le 08 octobre 2013 à 11h14

Suite à la fuite survenue la semaine dernière concernant la configuration requise pour jouer à Watch Dogs sur PC, le directeur technique du titre, Sebastien Viard, était monté au créneau pour expliquer que celle-ci était erronnée et largement surestimée. Manque de chance, Ubisoft a mis à jour la page du jeu sur sa boutique en ligne avec de nouvelles configurations requises, encore plus musclées que les anciennes.

Watch Dogs E3 2013 trailer

 

La confusion règne chez Ubisoft, tout du moins concernant la configuration PC requise par Watch Dogs pour fonctionner convenablement. Une première série de prérequis avaient été diffusés la semaine dernière sur la fiche produit du jeu de la boutique en ligne d'Ubisoft, avant que l'éditeur ne fasse savoir par le biais du directeur technique du titre que les caractéristiques ayant fuité étaient erronées. L'homme précisera d'ailleurs que la configuration requise pour Watch Dogs sera moins musclée que cela. Entre temps, l'éditeur français a mis à jour la fiche produit du jeu, avec de nouveaux prérequis matériels : 

 

Configuration minimale requise :

  • OS supportés : Windows Vista SP2 64bit, Windows 7 SP1 64bit, Windows 8 64bit
  • CPU: Intel Core 2 Quad Q8400 @ 2.66GHz ou AMD Phenom II X4 940 @ 3.0GHz
  • RAM: 6 Go
  • GPU: Compatible DirectX 11 avec Shader Model 5.0 et 1 Go de VRAM (voir liste)
  • Carte son : Stéreo compatible DirectX 9
  • Ce produit ne supporte que les Systèmes d'exploitation 64 bits

Configuration recommandée :

  • CPU Intel Core i7 3770 @ 3.5GHz ou AMD FX-8350 @ 4.0GHz
  • RAM: 8 Go
  • GPU: Compatible DirectX 11 avec Shader Model 5.0 et 2 Go de VRAM (voir liste)
  • Carte son : 5.1 compatible DirectX 9 
  • GPU supportés au lancement :
    NVIDIA GeForce GTX460 ou mieux, GT500, GT600, GT700  
    AMD Radeon HD5850 ou mieux, HD6000, HD7000, R7 et R9 
    Intel Iris Pro HD 5200

Une petite inflation ?

Si vous avez gardé un bon souvenir du premier jet des prérequis pour Watch Dogs, vous avez sans doute remarqué une nouvelle inflation, assez significative. Côté processeur, le Q6600 n'est désormais plus suffisant, et il vous est recommandé d'opter pour un Q8400, légèrement plus performant. Il en est de même pour AMD : le Phenom X4 9750 et ses quatre cœurs à 2,4 GHz ne font plus le poids, il faudra passer au Phenom II X4 940 et ses 3 GHz.

Si vous n'avez que 4 Go de mémoire vive, il faudra également investir pour au moins 2 Go supplémentaires, sans quoi le jeu ne fonctionnera pas de façon optimale. Enfin, si la première version des prérequis laissait entendre qu'une Radeon HD 5770 suffirait, la seconde mettra un terme aux espoirs de certains, puisqu'il est désormais question d'une Radeon HD 5850 au minimum. Seule bonne surprise, l'apparition de l'Intel Iris Pro HD 5200, bien que celle-ci offre des performances bien inférieures aux modèles précités, mais nous ne sommes plus à une incohérence près...

Nous avons bien évidemment contacté dès hier Ubisoft afin de savoir si ces nouvelles configurations requises sont définitives, mais nos sollicitations n'ont pas trouvé de réponse. Quoi qu'il en soit, si votre PC tient le coup, sachez que le titre est déjà disponible en précommande sur PC, PlayStation 3, Xbox 360 et Wii U, pour un lancement le 21 novembre prochain, tandis que les versions PlayStation 4 et Xbox One suivront quelques jours plus tard. On notera également qu'un pack comprenant la PlayStation 4 et le jeu est disponible à partir de 439 euros.

Commentaires (159)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

non mais c’est quoi ce jeu, honnêtement?

au vu des specs, faut s’attendre soit à une claque monstrueuse soit au pire portage sur PC.



j’ai un peu peur! <img data-src=" />

votre avatar

Oh P* !!!!



Moi qui voulais l’acheter, ca sera sans moi. J’ai des dépenses plus importantes que la remise à niveau de mon PC :‘(



Configuration de Pyroa



Ma config est pas à jour, j’ai depuis installé un SSD Vertex 4 120Go.

votre avatar

Donc développé pour consoles, recompilé vite fait et on regarde sur quoi ça tourne ? Il fait envie l’avenir du jeu PC.

votre avatar







von-block a écrit :



Tout à fait d’accord. Par contre la plupart des options que tu nommes ne sont jamais implantées dans un jeu.



Je n’ai jamais vu l’option pour réduire la physique. Je n’ai jamais vu d’option pour réduire le nombre d’objets (sauf GTA avec le nbs de voitures).



J’en ai vu pour la qualité des objets, mais ce ne sont trop souvent que des textures différentes (basse définition vs haute définition).



Pour la distance d’affichage, il faut voir comment elle est gérée aussi. C’est certain que si l’AI et la physique des jeux est aussi calculé et si tous les petits objets sont aussi calculés, ça demande rapidement un monstre de puissance (on tombe dans l’exponentielle). Une distance d’affichage bien fait comme AC ou GTA remplit les attentes de la plupart des joueurs sans trop demander de CPU supplémentaire.



Je ne crois tout de même pas que ça explique la différence entre un i7 et un phenom, sauf bien sur pour monter en image seconde. Le phenom devrait faire du 30 fps et le i7 du 60+



Reste que j’aimerai voir les développeurs enfin mettre des options spécifiques CPU intensives.







L’option de qualite d’un objet ne definit pas que la texture. Si tu le percois comme ca, c’est que l’illusion est plutot bonne. Ca definit les distances seuil auxquels les LODs (level of details) des objets vont s’afficher. Exemple, en high quality, ton LOD0 (detail le plus eleve) va s’afficher a partir de 50m du joueur, LOD 1 a partir de 100m etc… Un LOD, c’est regulierement un ensemble de parametre: une geometry, un materiau avec texture, un shader et des boites de collisions pour la physique pour la base. Donc plus t’as de LOD0 et LOD1 dans l’image, plus ca coute a calculer pour le CPU car t’a plus de geometry et d’appels graphiques a effectuer (vertices, shaders, textures…).

Quand tu changes les reglages a medium, ta distance de LOD0 peut passer a 25m seulement et LOD1 a 50m. Ce qui fait que ton cout est plus reduit parce que t’as plus d’objets de qualite inferieure a calculer.



Sinon, pour les reglages, beaucoup de jeux englobent plusieurs settings en un. Quand tu dis que as des objets de qualite moindre via le menu du jeu, tu changes donc la distance des LODs (pour reprendre mon exemple), mais par la meme occasion, ca tweak la physique car un LOD1 n’aura qu’un calcul de physique basique et un LOD0 un calcul plus complexe. Par ce changement, il y a de forte chance que tu alleges aussi la physiques car tout est lie (enfin, encore une fois, cela depend des engins graphiques).



Tout ca pour dire, mefiance. Ah et pour revenir au sujet de l’article. Faut pas se leurer, on a ete pas mal retenu niveau perf par les consoles PS3/Xoox 360. Une nouvelle generation de consoles ramenent forcement des config a la hausse. Et comme mentionne avant, une PS3, c’est quand meme 8Go de GDDR5 partagee, ainsi qu’un CPU de 8 cores. Ca peut tres bien dire que le systeme de jeu prend 3 Go et les graphismes 5Go avec des textures hi-res et beaucoup d’objets a l’ecran (car ca prend de la vram aussi ca). Enfin, n’oublions pas qu’une console est un systeme specifique homogene et qu’un PC est polyvalent, mais de par sa nature heterogene. Normal que les specs soient si elevees. En tout cas, je ne suis pas choque. C’est enfin du next gen apres tout, fallait s’y attendre…


votre avatar







geekounet85 a écrit :



non mais c’est quoi ce jeu, honnêtement?

au vu des specs, faut s’attendre soit à une claque monstrueuse soit au pire portage sur PC.



j’ai un peu peur! <img data-src=" />









Ubisoft





<img data-src=" />


votre avatar

pourquoi tout le monde s’excite sur des soit disantes configue nécessaire sur un jeux pas sorti



attendons les vrais test et bench

après si démo(ou autre) à tester sur son PC et voir si ça tourne en jouant sur les réglages


votre avatar







europa2097 a écrit :



Tout ca pour dire, mefiance. Ah et pour revenir au sujet de l’article. Faut pas se leurer, on a ete pas mal retenu niveau perf par les consoles PS3/Xoox 360. Une nouvelle generation de consoles ramenent forcement des config a la hausse. Et comme mentionne avant, une PS3, c’est quand meme 8Go de GDDR5 partagee, ainsi qu’un CPU de 8 cores. Ca peut tres bien dire que le systeme de jeu prend 3 Go et les graphismes 5Go avec des textures hi-res et beaucoup d’objets a l’ecran (car ca prend de la vram aussi ca). Enfin, n’oublions pas qu’une console est un systeme specifique homogene et qu’un PC est polyvalent, mais de par sa nature heterogene. Normal que les specs soient si elevees. En tout cas, je ne suis pas choque. C’est enfin du next gen apres tout, fallait s’y attendre…







Faut aussi dire que sur PC, si je ne me trompe pas, ce qui se trouve en VRAM se retrouve en RAM la plupart du temps. S’il y a 3 GO de texture, ça bouffera probablement 3 Go sur la carte graphique et 3 Go en ram.


votre avatar







Tkop a écrit :



Oui j’y avais pas pensé. Je me souviens maintenant que lorsque j’avais changé mon q9550@4Ghz pour un i5 3570k@3,8Ghz, j’avais été impressionné par la différence de perf, entre 50% et 100% de perf en plus.







50 a 100% de perfs en plus ?

Sur des applis peut etre (j’y connait que dalle) mais pour le jeu, j’y croit pas trop…

Apres ça depend des jeux…



http://www.ocaholic.ch/modules/smartsection/item.php?itemid=817&page=5

(et encore ils ont pris un q6600 qui est moins performant que ton ancien CPU)



Ensuite pour revenir a la news, je pige pas ce qu’il a de spécial ce jeu pour avoir une config recommandé aussi musclé (surtout niveau CPU) quand on compare a

Battlefield 4 … :



http://www.bf4france.com/configuration-battlefield-4-n7.html



Alors Ubi, on optimise avec les pieds ou votre moteur est superieur au Frostbite 3 ? <img data-src=" />


votre avatar

Phenom X4 965 3.2Ghz ( sauf en été je le passe à 2ghz )

8GO ram ddr3

et 1 HD6870..



Je crois que je suis au minimum recommandé ^^’ ça va passer difficilement , à voir quand il sortira .. si ça se trouve je serais surpris que finalement ça passe sans pb ..

Peut être que mettre ce jeu sur un SSD améliorerait les choses ?

votre avatar







taralafifi a écrit :



Est-ce que ça va tourner sur mon bi-proc Intel Xeon E5-4650, 128Go de Ram et mon quad SLI de GeForce GTX TITAN ? <img data-src=" />



<img data-src=" />



ça dépend, t’as une centrale nucléaire dans ta cave ou pas??? <img data-src=" /><img data-src=" /><img data-src=" />


votre avatar







-Gui- a écrit :



Ca sent quand même le portage à la truelle quand on sait qu’il sort aussi sur 360 et PS3…

On dirai qu’ils ne se sont pas trop cassé le c à faire des quality settings et juste balancé la version next gen sans options pour les configs moins puissantes.





As-tu regardé sous quel condition il tourne sur ces consoles ?

Par exemple il me semble que sur les consoles next gen il sera en 720p/60 fps par seconde. A ce compte, en 720p la config min suffit largement pour être au niveau des next gen. <img data-src=" />


votre avatar







von-block a écrit :



Tout à fait d’accord, mais nomme moi un jeu qui te laisse choisir la qualité de la simulation physique ?



SI watch dogs le fait je dis bravo <img data-src=" />







Les réglages du moteur physique sont en général intrinsèquement liés à l’expérience utilisateur (gameplay quoi), et ne sont généralement pas laissées aux desiderata des joueurs. Un exemple bête: si tu pouvais régler le pas de la simulation sur une vitesse suffisament lente, tu risquerais de tomber a travers le décor, ou de traverser les murs, car tu te seras déplacé trop rapidement pour qu’il y ait une collision entre toi et la surface (tu passes d’un coté de la surface à l’autre coté, sans passer par la casse je me mange le mur).



Seules les parties “eyecandy” sont réglables; typiquement des effets de particules, de billboarding, la densité d’une végétation autoinstanciée, les douilles d’un flingue, la quantité de particules utilisées dans un effet d’explosion,…


votre avatar







NeoSlaaV a écrit :



Les réglages du moteur physique sont en général intrinsèquement liés à l’expérience utilisateur (gameplay quoi), et ne sont généralement pas laissées aux desiderata des joueurs. Un exemple bête: si tu pouvais régler le pas de la simulation sur une vitesse suffisament lente, tu risquerais de tomber a travers le décor, ou de traverser les murs, car tu te seras déplacé trop rapidement pour qu’il y ait une collision entre toi et la surface (tu passes d’un coté de la surface à l’autre coté, sans passer par la casse je me mange le mur).



Seules les parties “eyecandy” sont réglables; typiquement des effets de particules, de billboarding, la densité d’une végétation autoinstanciée, les douilles d’un flingue, la quantité de particules utilisées dans un effet d’explosion,…





On parle pas de la physique nécessaire au jeu, mais de la physique “bonus” comme c’était le cas dans Crysis. Si tu baisses la physique au minimum, tu ne peux plus découper les arbres, défoncer les abris,… Ca change bien l’expérience de jeu (par exemple casser l’abris pour fuir ou attaquer), mais pas dans les proportions que tu cites.


votre avatar







XMalek a écrit :



Entre un affichage depuis la RAM et un affichage depuis la VRAM, il y a un facteur 5 de temps. d’où le cinq fois plus rapide. Je ne parle NULLE PART des fps.







Du coup je n’arrive pas à voir où intervient ton facteur temps de 5 du point de vu du joueur. Si c’est pas dans le temps entre deux images, c’est où ? Au chargement d’un niveau donc assez insignifiant ? Autre ?







XMalek a écrit :



Le fps c’est l’argument du type qui n’a jamais touché à la programmation graphique et qui pense que de base 999 fps &gt; 100 fps, alors qu’entre les deux il peut y avoir une foule de chose supplémentaire et potentiellement un pipeline de rendu qui n’a rien à voir (un exemple con, mais par exemple l’antialiasing de la wii forcait le fps à 30, même si tu envoyais 120 images par secondes…)







Encore une fois le FPS semble un mesure objective (peut-être pas la meilleure) pour comparer deux solutions matérielle à options graphiques égales. C’est en tout cas la mesure retenue pour de nombreux tests sur les graphiques…Après peut-être que ma question n’est pas tournée dans le bon sens mais qu’il faudrait plus se sposer la question de savoir quelle est la configuration PC qui fait tourner le jeu en 1080p@60Hz car les consoles ont des limitations imposées.







XMalek a écrit :



Le truc est qu’actuellement aucun jeu ne se risque à afficher depuis la ram (sauf sur les pc ultra mega low end ou de toute facon pas le choix et donc ca rame encore plus) . Tous les jeux affichent depuis la vram. Donc l’argument ps4 = 8go de vram c’est que potentiellement tu as 8 go de textures contre 2 go de textures pour un pc et … c’est tout… tu n’auras pas de différence de perf.



Par contre potentiellement tu auras :




  • Un meilleur antialiasing car tu pourras faire du 16X sans soucis.

  • des meilleurs post traitement car tu ne sras pas obligé de réduire la résolution de ton rendu d’écran pour économiser de la vram

  • des meilleures perfs cpu (parce que l’accès à la vram est meilleure que l’aéccès à la ram “en général” (par contre tu as en général plus de raté de cache)







    Oui enfin je suis pas certain que dans les fait tu ai réellement 100% de VRAM de la PS4 qui soit uniquement dédiée aux textures.



    Si quelqu’un à une idée de la consommation RAM hors texture et VRAM pour les texture d’un jeu vidéo, ça m’intéresse.


votre avatar

2go de GDDR5 suffit amplement aux cartes graphiques actuelles.



Nous sommes les premiers à crier au scandale quand on voit une carte graphique (et souvent bas/milieu de gamme) disposé de 2 voir 4 fois plus de quantité de ram que la normal et cela avec un prix évidemment supérieur. Dans la pratique c’est radicale : strictement aucun interêt, voir des perf inférieur.



Donc si la question est : faut-il plus de mémoire dans nos CG actuelles, la réponse est clairement non !!!



Donc comparé les 8go de VRAM de la PS4 au 1 voir 2go de GDDR5 de nos cartes n’a aucun sens…



Sinon, a titre d’information les textures c’est 90% de l’espace mémoire video dédié à un jeu, le reste c’est peanut

votre avatar

..

votre avatar







Pochi a écrit :



Du coup je n’arrive pas à voir où intervient ton facteur temps de 5 du point de vu du joueur. Si c’est pas dans le temps entre deux images, c’est où ? Au chargement d’un niveau donc assez insignifiant ? Autre ?







En permanence !



Je répète ce que j’ai déjà dis TROIS fois. si tu affiches nue texture depuis la ram directement tu met en millisecondes 5 fois plus de temps à àaccéder à un pixel de la texture que si la texture était chargé en VRAM.









Pochi a écrit :



Encore une fois le FPS semble un mesure objective (peut-être pas la meilleure) pour comparer deux solutions matérielle à options graphiques égales. C’est en tout cas la mesure retenue pour de nombreux tests sur les graphiques…Après peut-être que ma question n’est pas tournée dans le bon sens mais qu’il faudrait plus se sposer la question de savoir quelle est la configuration PC qui fait tourner le jeu en 1080p@60Hz car les consoles ont des limitations imposées.







Les tests sont dans 99% des cas fait pour vendre du matos. Pour la configuration il faudraiot savoir combien le jeu charge en vram de textures, si les animations sont calculés en GPU ou en CPU, si le jeu est fait pour du streaming (dans quel cas la eprformanace de ton HDD peut être crucial), etc et là tu aurais une idée de ce qui est le mieux pour ce jeu.







Oui enfin je suis pas certain que dans les fait tu ai réellement 100% de VRAM de la PS4 qui soit uniquement dédiée aux textures.



Si quelqu’un à une idée de la consommation RAM hors texture et VRAM pour les texture d’un jeu vidéo, ça m’intéresse.





Simple sur pc tu dois avoir tes textures une fois en ram et une fois en vram donc si tu as 2go de texture c’est 2go en ram et 2go en vram.



Pour la PS4 bien sur que tu n’auras pas 100% pour le graphique, il y en aura une partie pour le système (aux alentours de 600 mo selon mes sources) et une partie pour le coté “cpu” de ton jeu. mais entre 2go et 6go y a un monde ^^. Par contre je n’ai lu nulle part la taille de l’edram (ni sa vitesse) sur PS4.


votre avatar

Bon ça risque de pas être des plus beau, mais normalement ça tourne avec :





  • Intel® Core™ i5 CPU 750 @ 2,67 GHz



    Oui le CPU est vieux informatiquement parlant (l’un des premiers i5 si je ne m’abuse), mais overclocker à 3,71 GHz



  • RAM 8 Go (de chez G.Skill)



  • Carte graphique Sapphire Radeon HD 6870 1Go



    Et un SSD sur lequel je vais surement l’installer (en espérons qui dépasse pas les 35 Go ^^)



    Donc normalement je devrais le faire tourner dans de bonne condition si je tente pas de trop titiller les options graphiques ? Parce que niveau hardware, ça fais une plombe que j’ai pas taper dedans vu que mon matos tiens bien =D

votre avatar







HarmattanBlow a écrit :



Les nouvelles consoles ont 8Go de VRAM, et le CPU et le GPU communiquent via une mémoire unifiée plutôt que via un bus PCIe à la bande passante limite et à la latence élevée. Enfin elles sont équipées de GPU dernier cri.



Aucun PC actuel ne peut faire tourner un jeu pleinement optimisé pour ces consoles. Des versions spécifiques pour le PC sont possibles mais au prix d’un gros effort et d’une réduction des ambitions.





c’est un raisonnement qui se tient mais je ne suis pas trop d’accord. Ok pour l’optimisation des échanges mémoires mais les GPU qui se trouvent dans les consoles Xbox one et PS4 ne sont pas si bien que ça comparé à ce que l’on peut acheté pour un pc (la GTX 770 à 360euros est bien plus performante).

Du coup sur pc on peut charger bien plus avec des effets physiques.

Après le prix n’est pas le même c’est évident

Mais dans tous les cas un pc à 1300euros rend bien mieux que la ps4 et xboxOne qui sont pas encore sur le marché.



Si on compare un jeu développé pour un pc avec un jeu développé pour une console on aura une expérience bien plus sympa avec un pc.



Mais le plus important pour un jeu c’est quand même le contenu donc tout ce joue dans l’exclu :p enfin c’est mon point de vue.


votre avatar







geekounet85 a écrit :



non mais c’est quoi ce jeu, honnêtement?

au vu des specs, faut s’attendre soit à une claque monstrueuse soit au pire portage sur PC.



j’ai un peu peur! <img data-src=" />







C’est une claque ce jeu, cf présentation E3 2012.



Par contre, il peut être mal opti aussi bien sûr ….



Et sinon, en gros, à part le proc, entre la config minimal et recommandé il y a pas grand chose de différents. c’est chelou il est vrai. <img data-src=" />



fin bon, je verrai bien avec mon i5.


votre avatar



Seule bonne surprise, l’apparition de l’Intel Iris Pro HD 5200, bien que celle-ci offre des performances bien inférieures aux modèles précités, mais nous ne sommes plus à une incohérence près…

<img data-src=" />

votre avatar







Wythel a écrit :



Donc développé pour consoles, recompilé vite fait et on regarde sur quoi ça tourne ? Il fait envie l’avenir du jeu PC.





Ben, tu retires les OS 32bits, les machines avec moins de 4 coeurs et 6 Go de RAM, et une CG de taré, et tu as enlevé 80% du parc PC. Ce jeu est fait pour couler la boite.<img data-src=" />


votre avatar

Personnellement je trouve que ces spec sont plutôt une bonne nouvelle, ça faisait longtemps que les spec minimum stagnaient sur PC et au bout de 3-4 ans ça devient plus inquiétant qu’autre chose, même si c’était une bonne chose pour les petites configuration.



On voit enfin le 64bit devenir la norme (on peut donc s’attendre à des mondes plus ouvert et plus remplis (en objets), ce qui de toute évidence est le cas avec watch dogs) une exploitation des dernière génération de processeur plus poussé. Aussi le support généralisé de DX11 va permettre d’exploiter beaucoup mieux celui ci et pas seulement dire “On est tire partie des nouveautés de DX11 car on a un shader de lumière qui n’est pas DX9”. On se débarrasse enfin de DX9 après 9-10 ans de vie.



Au final, bien que la configuration minimal marque un gouffre par rapport à ce qu’il se faisait jusque là, je trouve pas la configuration démente, juste normale après une demi décennie de stagnation.

votre avatar







Wythel a écrit :



Donc développé pour consoles, recompilé vite fait et on regarde sur quoi ça tourne ? Il fait envie l’avenir du jeu PC.



Si on se met à plusieurs pour commander des serveurs de la NASA, vous pensez qu’on peut avoir un prix ?

On pourrait quasiment faire tourner Watch Dogs et Minecraft en même temps ! <img data-src=" />



<img data-src=" />


votre avatar







Arcy a écrit :



Si on se met à plusieurs pour commander des serveurs de la NASA, vous pensez qu’on peut avoir un prix ?

On pourrait quasiment faire tourner Watch Dogs et Minecraft en même temps ! <img data-src=" />



<img data-src=" />





et Crysis? <img data-src=" />


votre avatar







Pyroa a écrit :



Oh P* !!!!



Moi qui voulais l’acheter, ca sera sans moi. J’ai des dépenses plus importantes que la remise à niveau de mon PC :‘(



Configuration de Pyroa



Ma config est pas à jour, j’ai depuis installé un SSD Vertex 4 120Go.







Même si ton proc n’est pas officiellement suffisant, c’est fort probable que ça passe si ta machine n’est pas trop chargé en soft inutile.


votre avatar

Réellement, ils vont se servir des 7 core ?

Qu’on me montre la prog ….

votre avatar







Tkop a écrit :



Même si ton proc n’est pas officiellement suffisant, c’est fort probable que ça passe si ta machine n’est pas trop chargé en soft inutile.







Un i5 2400 c’est quand plus performant qu’un vieux Q8400 <img data-src=" />


votre avatar







Pyroa a écrit :



Oh P* !!!!



Moi qui voulais l’acheter, ca sera sans moi. J’ai des dépenses plus importantes que la remise à niveau de mon PC :‘(



Configuration de Pyroa



Ma config est pas à jour, j’ai depuis installé un SSD Vertex 4 120Go.







Je pense que tu pourras largement y jouer, seule la CG est un peu faiblarde et … IE <img data-src=" />


votre avatar

Réellement, ils vont se servir des 7 core ?

Qu’on me montre la prog ….



Edtih me dit : Je suis sur la SDL 2 et c’est pas simple …

votre avatar



Seule bonne surprise, l’apparition de l’Intel Iris Pro HD 5200, bien que celle-ci offre des performances bien inférieures aux modèles précités, mais nous ne sommes plus à une incohérence près…



Intel propose à présent des CPGPU plus puissant que les GPU de NVIDIA et ATI sont quand même fort <img data-src=" />



Optimisation à la truelle sous traité auprès d’un dévellopeur nord coréen ? Non parceque là je vois rien d’autre <img data-src=" />

votre avatar







Zyami a écrit :



Réellement, ils vont se servir des 7 core ?

Qu’on me montre la prog ….







#pragma omp parallel for

for (int i = 0; i&lt; N; i++)

{

..

}



juste un exemple bourrin, après il y a de meilleurs façons d’exploiter plusieurs core


votre avatar

C’est étonnant qu’ils proposent des CPU pareils.

Dans un comparatif dans les jeux, mon vieux i7 950 assure largement la donne face aux nouveaux, le gain est risible (surtout si j’OC).



Bon par contre, mon SLI de 460 risque de faire grise mine, surtout que le SLI, c’est jamais supporté à la sortie des jeux huehuehuehuehue

votre avatar







Ellierys a écrit :



Un i5 2400 c’est quand plus performant qu’un vieux Q8400 <img data-src=" />





Oui j’y avais pas pensé. Je me souviens maintenant que lorsque j’avais changé mon q9550@4Ghz pour un i5 3570k@3,8Ghz, j’avais été impressionné par la différence de perf, entre 50% et 100% de perf en plus.


votre avatar







Tkop a écrit :



juste un exemple bourrin, après il y a de meilleurs façons d’exploiter plusieurs core











J’ai édité, juste la SDL2 pour comprendre comment ouvrir rien que 2 fenêtres à la fois.

Ce sera un bon début.


votre avatar







von-block a écrit :



La physique tu ne peux jamais la modifié (sauf Physx de nvidia)



Nbs d’objets=touche très très peu le cpu



détail objet= touche très très peu le cpu



Distance d’affichage= touche très très peu le cpu, un peu plus le disque dur.





indirectement, si tu réduit le nombre de PNJ à l’écran, tu n’a plus à calculer leur graphisme (GPU) mais aussi leur IA (CPU), leur pathfinding (CPU) ni leur texture (HD et CPU à cause des I/O en plus du GPU).


votre avatar







von-block a écrit :



La physique tu ne peux jamais la modifié (sauf Physx de nvidia)



Nbs d’objets=touche très très peu le cpu



détail objet= touche très très peu le cpu



Distance d’affichage= touche très très peu le cpu, un peu plus le disque dur.







La physique est encore souvent complètement calculée par le CPU (à moins de détails graphiques “eyecandy” qui sont facilement déportables sur le GPU). En conséquence augmenter le nombre d’objets augmente le nombre de calculs de collisions de manière factorielle (dans le cas trivial où on testerait chaue objet par rapport a tous les autres, ce qui n’est heureusement pas le cas).

Un autre facteur qui peut impacter fortement le CPU est la qualité de la simulation physique. On peut influer par exemple sur le pas temporel de la simulation (plus il est petit, plus c’est précis, plus c’est gourmand), ou bien encore sur la précision des hitbox utilisées (un moteur physique n’utilise pas l’objet tel qu’il est affiché à l’écran pour calculer les collisions, mais un modèle simplifié généralement dessiné à base de formes simples du style cylindre sphère cube).

Diminuer les FPS n’allégerait d’ailleurs pas forcément le CPU, cela dépend du moteur (certains moteurs brident en interne le taux de rafraichissement du moteur graphique, et il en est de même pour le taux du moteur de jeu, qui tourne généralement dans un thread séparé)



Pour en revenir au sujet, effectivement soit c’est un très mauvais portage, soit c’est la naissance d’un moteur de nouvelle génération, on ne pourra de toute façon pas trancher avant d’avoir vu.



C’est peut être le début d’une nouvelle avancée dans le monde des moteurs de jeu : jusqu’à présent on se contentait d’une bonne vieille gameloop bien séquentielle, avec un thread pour le son, un pour le rendu dans certains cas (pour bon nombre de jeux console, ce n’est même pas le cas), et parfois (grand luxe !) un thread de chargement en tache de fond… La faute à un parc informatique encore trop dense en processeur ayant maximum 2 coeurs il y a encore quelques temps, mais le vent est en train de tourner.



On va (enfin !) s’orienter vers des moteurs de jeu hautement parallèles, qui exploiteront complètement tous les coeurs des CPU. L’explosion du marché des smartphones/tablettes (qui préfèrent avoir plusieurs coeurs lents que 2 rapides mais plus gourmands en énergie), et la stagnation des fréquences sur desktop qui pousse là aussi à multiplier le nombre de coeur va pousser en ce sens. Bref, ça va être sympa !


votre avatar







Jean_Peuplus a écrit :



Ils sont certainement sponsorisés par Intel pour sortir des config recommandée pareilles



et ça marche <img data-src=" />









Je comptais tout de même changer : ça se vieillit tout ça.


votre avatar







Pochi a écrit :



Tout ce dont tu parles reste bien dans l’élément graphique quand même…

Pour la taille des mondes ouverts, on fait déjà de la “génération de map en streaming” (j’ai pas le terme exact). Y a qu’à prendre WoW, tu peux te ballader sur un continent entier sans écran de chargement et ça c’était deux ans avant la génération actuelle de console ! D’autant plus que les jeux consoles ont une forte tendance à être assez cloisonnés.

La distance d’affichage, c’est déjà souvent très réglable et une grande distance d’affichage n’apporte pas que du plus. Je me rappelle TES Oblivion : petite carte mais grande distance d’affichage, tu allais au bord de la map tu appercevais la grande tour du centre, t’avais vraiment l’impression d’être dans un bocal.

Nombre d’objets ? Polygones ? Pur graphisme. Objets du jeu ? Les Fallout 3 et New vegas disposaient déjà d’environnements très fournis en objets inutiles et manipulables.



Tout ça n’a rien d’une nouveauté (ni graphique ni encore moins de gameplay), c’est juste la suite logique d’une augmentation régulière de puissance. Sauf que les proportions de Watch Dog semblent un peu trop hors norme pour être honnêtes (probablement un double effet kiss cool PS4 + portage PC tendancieux). Je doute fortement que le jeu révolutionne le monde vidéoludique, qu’ils nous sortent un bon jeu et pas un pétard mouillé serait déjà une bonne chose. Quand au portage PC, j’apprécierais un portage des contrôles et de l’interface mais là, c’est du rêve éveillé…



En fait, je pense qu’au niveau puissance les PC (et les futures consoles) ont atteint un seuil de confort niveau graphismes. On fait déjà des jeux ouvert ou avec des objets ou avec un design graphique très travaillé, le tout dans des proportions qui ravissent 95% des joueurs. Si on veut utiliser la puissance, autant le faire pour l’I.A. ou les interactions joueur-PNJ ou juste utiliser le pognon pour faire un jeu plus long ou une histoire plus étoffée. Après je ne dis pas que plus de puissance ne sert strictement à rien, mais faire des visages plus expressifs ou des cheveux en temps réel (et avec toutes les erreurs d’algo et situations zarbi que ça peut engendrer) n’apporte plus assez par rapport au reste. Ca fait des années que les améliorations graphiques n’ont plus créé d’innovation de gameplay. Les innovations de gameplay les plus récentes sont d’ailleurs venues des contrôleurs (Wii, Kinect, Pad SteamBox ?).



En fait on a un petit paradoxe :




  • Tout les joueurs s’extasient quand on fait une nouvelle démo en doublant les polygones sur un visage…

  • … mais tout le monde n’accorche pas à un design spécifique (WoW, D3, Borderlands, Don’t Starve…) ou un gameplay tranché.

    Du coup c’est moins risqué commercialement de faire un jeu classique plus “technique graphiquement” que de faire un jeu au graphisme ou gameplay très tranché mais qui techniquement tourne sur n’importe quel PC.







    Attention, ton exemple sur Wow n’est pas bien choisi ! La carte de Wow n’est pas “générée” par ton PC, à vrai dire celui ci fait bêtement du loading d’un monde déjà généré à 100% par le serveur. C’est une des raisons de la “faible” consommation CPU des MMO en général : aucune (ou presque) éléments du monde n’est géré par la machine du joueur. Le CPU peut à la limite servir pour quelques calculs graphiques, et encore.



    Y a de gros, gros progrès à faire en terme d’IA, autonomie des PNJ, etc. Un jeu comme Watchdog est une parfait exemple de ce genre d’utilisation.



    Après, il est certains que c’est pas la puissance brute des machines qui pose majoritairement problème, mais l’optimisation des développeurs. Faisant partie de ce petit monde, il faut bien avouer qu’aujourd’hui perdre du temps en optimisation c’est devenu rare. Les dev ont des machines de plus en plus puissantes sous la main, que ce soit niveau PC, smartphones, tablettes, les perfs augmentent tellement vite que s’amuser à optimiser a l’air d’être inutile. C’est comme ça qu’on se retrouve avec des applis android qui chargent juste des listes et qui sont capables de ramer sur des quadcore …



    Autre exemple qui me met hors de moi : l’optimisation CPU de Civ5. Ca s’est améliorer avec les derniers patchs, mais pour un jeu tour/tour avoir des chargements de plus d’une minute sur une config à base de i5 3570k c’est pas normal. M’est avis que y a pas (ou presque) d’opti multi thread digne de ce nom.


votre avatar

Alaise pour moi <img data-src=" />



Je me demande si on arrive a fin de la courbe de puissance nécessaire et utilisée pour faire tourner les jeux?



Là l’accent est mis sur la 4K mais les joueurs ne sont pas ce cet avis.



4K quelle utilité à 1 mètre son son écran ?



Encore un gadget aussi utile que la 3D ?



Je parle de la 4K car c’est la seule avancée qui ferait changer ou améliorer sa configuration.



Dans 4 à 6 ans le SATA 4, PCIE4 et DDR4 sera là avec des chipset capable d’envoyer ce qu’il faut se sera peut être le moment de changer de machine.

votre avatar

A ce niveau le jeu n’est même plus un portage de console recompilé. Il est interprété par les PC via une émulation de console <img data-src=" />

votre avatar







sniperdc a écrit :



Là l’accent est mis sur la 4K mais les joueurs ne sont pas ce cet avis.



4K quelle utilité à 1 mètre son son écran ?



Encore un gadget aussi utile que la 3D ?



Je parle de la 4K car c’est la seule avancée qui ferait changer ou améliorer sa configuration.







L’utilité n’est qu’une futilité de plus: celle de coller son oeil contre la dalle 4k de l’écran, et d’hurler:

“MAIS OU SONT PASSÉS LES PIXELS…JE N’ARRIVE PLUS À LES VOIR TELLEMENT ILS SONT PETITS…TELLE CHUI PÉTÉ D TUNES,TELLEMENT J’AI UN PC CONFIG DE LA MORT QUI TUE<img data-src=" /> <img data-src=" />


votre avatar







djshotam a écrit :



L’utilité n’est qu’une futilité de plus: celle de coller son oeil contre la dalle 4k de l’écran, et d’hurler:

“MAIS OU SONT PASSÉS LES PIXELS…JE N’ARRIVE PLUS À LES VOIR TELLEMENT ILS SONT PETITS…TELLE CHUI PÉTÉ D TUNES,TELLEMENT J’AI UN PC CONFIG DE LA MORT QUI TUE<img data-src=" /> <img data-src=" />







Faut arrêter la mauvaise foi, c’est tout aussi inutile que de passer du 720p au 1080…


votre avatar

Encore une truc développé pour les consoles et absolument pas optimisé sur PC.

votre avatar







Séphi a écrit :



Faut arrêter la mauvaise foi, c’est tout aussi inutile que de passer du 720p au 1080…







FAUX ! Il a tout a fait raison ! Ca ne sert a rien ;)



Passer du 720P au 1080P c’est NECESSAIRE puisque l’on a des TV 1080P !



L’avenir c’est quoi ? Comme l’a dit une personne plus haut : 1080P à 120Hz donc 120FPS.


votre avatar







laurentjust4u a écrit :



FAUX ! Il a tout a fait raison ! Ca ne sert a rien ;)



Passer du 720P au 1080P c’est NECESSAIRE puisque l’on a des TV 1080P !



L’avenir c’est quoi ? Comme l’a dit une personne plus haut : 1080P à 120Hz donc 120FPS.







Au même titre que le 1080p n’était pas utile ni même l’avenir à une époque puisqu’on avait des TV en 720p….

Et l’avenir ce sont les TV en 120 Hz ? Ah bon ? Tu peux me montrer ta boule de cristal pour illustrer tes propos ?


votre avatar







Séphi a écrit :



Au même titre que le 1080p n’était pas utile ni même l’avenir à une époque puisqu’on avait des TV en 720p….

Et l’avenir ce sont les TV en 120 Hz ? Ah bon ? Tu peux me montrer ta boule de cristal pour illustrer tes propos ?







Des ecran de PC 120Hz… La télé c’est inutile évidemment ^^


votre avatar

Le nombre de pixels n’est utile que par rapport à la source que l’on a en entrée et à la taille de l’écran sur laquelle on affiche..



Sauf si tu agrandis mon salon de 20m² je suis désolé mais mon 1080P me suffira toujours.


votre avatar







laurentjust4u a écrit :



Des ecran de PC 120Hz… La télé c’est inutile évidemment ^^







Ça ne prouve toujours rien. Et je ne vois toujours pas en quoi le 120Hz est plus utile que le 4K….

Quand tu vois que la moitié des gens qui ont pu voir The Hobbit en 48 fps se sont senties mal à l’aise…. J’ai du mal à croire en l’avenir d’un truc qui va faire gerber une bonne partie des utilisateurs.

Et si tenté qu’ils s’en rendent compte ! Car j’ai pas mal d’exemples dans mon entourage qui ne voient aucune différence entre 60 images par seconde et plus…


votre avatar







von-block a écrit :



Ça semble une bonne théorie, mais ça n’explique toujours pas pourquoi les consoles seront en 720P (peut être en 1080P, mais UBI ne peut rien promettre) à 30 fps alors que les PC moyens de gamme feront tourner le jeu sans problème en 1080P fort probablement dans les 60FPS.





Parce que les deux plateformes n’afficheront pas la même chose.



Les écrans PC sont le plus souvent en 1080p, donc il faut viser cette résolution, quitte à afficher moins. A contrario les télés sont le plus souvent encore en 720p, donc c’est la résolution qu’il faut viser. Si au final tu te rends compte que tu peux aller au-delà, super, sinon tant pis le gros du public est satisfait. la résolution n’est donc pas la marque de la puissance disponible mais celle des besoins de la plateforme.



Aucun jeu n’est jamais identique d’une plateforme à l’autre. Pour commencer le PC ne pourra pas afficher les textures dans la même résolution que les consoles faute de VRAM : pas besoin d’être un expert des cartes 3D, tous ceux qui ont un jour optimisé l’affichage d’un jeu savent bien que lorsqu’on peut choisir la taille du jeu de textures il faut se placer au niveau de la VRAM (aucun gain en-dessous, effondrement au-dessus). Et ce ne sera pas la seule différence.





Microsoft a annoncé que 10% de son GPU serait réservé à des calculs hors jeu donc non utilisable et 3GO non utilisable aussi pour la console. Ils ont beau avoir la meilleure optimisation du monde, quand la puissance n’est pas là, le carré devient beaucoup plus petit face au cercle.



Ce qui fait toujours deux fois plus de VRAM disponible que les meilleures cartes vidéo PC du marché. Le CPU est certes plus à son aise sur PC mais, pas de bol, on s’en cogne.



Et enfin reste encore le fait que ces consoles sont bien plus à l’aise pour le GPGPU que le PC grâce à la mémoire unifiée. Et malheureusement il y aura un recours extensif à ce dernier dans les codes sources de ces consoles pour pallier leur faible CPU. Un portage de qualité pourrait s’affranchir de cela mais ça commence à faire beaucoup de boulot pour un simplle portage. Davantage que ce qu’on voit d’habitude. Il y a aussi le fait que les dévs peuvent contrôler à bas niveau le matériel, contrairement au PC. C’est même un des arguments avancés par Sony et MS aux dévs.


votre avatar







XMalek a écrit :



Euh oui on a une idée du gain réel tu multiplies un poil tes perfs par 5 :p







Les perfs de quoi par 5 ? Et combien ça fait de FPS gagnées au final (parce que je ne pense vraiment pas que la PS4 affiche 5 fois les FPS d’un PC actuel) ?







XMalek a écrit :



Et aux dernières nouvelles c’est des HDDs, mais bon ce n’est pas trop un problème :p, elles ont beaucoup de ram pour compenser.







Autant de RAM qu’un PC actuel… Du coup je suis curieux de voir la différence de perf entre du VRAM + HDD vs RAM + SSD.


votre avatar







Tkop a écrit :



Personnellement je trouve que ces spec sont plutôt une bonne nouvelle, ça faisait longtemps que les spec minimum stagnaient sur PC et au bout de 3-4 ans ça devient plus inquiétant qu’autre chose, même si c’était une bonne chose pour les petites configuration.



On voit enfin le 64bit devenir la norme (on peut donc s’attendre à des mondes plus ouvert et plus remplis (en objets), ce qui de toute évidence est le cas avec watch dogs) une exploitation des dernière génération de processeur plus poussé. Aussi le support généralisé de DX11 va permettre d’exploiter beaucoup mieux celui ci et pas seulement dire “On est tire partie des nouveautés de DX11 car on a un shader de lumière qui n’est pas DX9”. On se débarrasse enfin de DX9 après 9-10 ans de vie.



Au final, bien que la configuration minimal marque un gouffre par rapport à ce qu’il se faisait jusque là, je trouve pas la configuration démente, juste normale après une demi décennie de stagnation.







C’est uniquement parce qu’il n’y a aucun effort fait pour les jeux PC, qui sont graphiquement pas tellement plus avancés que sur Console et mal optimisés. Ici il faudra voir s’il y a vraiment une évolution graphique/technologique ou non.



Le moteur ainsi que DirectX 11 ne sont pas forcément un gage de haut qualité. Il y a des jeux utilisant le CryEngine qui sont bien plus moches que d’autres aux moteurs moins évolués. Et concernant le jeu, je doute qu’il sera au niveau d’un Crysis graphiquement.


votre avatar

Ca sent quand même le portage à la truelle quand on sait qu’il sort aussi sur 360 et PS3…

On dirai qu’ils ne se sont pas trop cassé le c à faire des quality settings et juste balancé la version next gen sans options pour les configs moins puissantes.

votre avatar







Zyami a écrit :



J’ai édité, juste la SDL2 pour comprendre comment ouvrir rien que 2 fenêters à la fois.

Ce sera un bon début.







Je vais tenter d’expliquer simplement mon exemple.

Dans mon exemple j’utilise OpenMP qui est une librarie qui permet de paralléliser les calculs (un cas particulier du multithreading)



Tous tes cores vont faire la même chose (le code qui est dans la boucle), mais par sur les même données (par exemple par sur le même indice de ton tableau). Du coup si t’as plus d’indice dans ton tableau que de cores, alors tous tes cores seront utilisés. Après j’ai bien dis que mon exemple était bourrin. Pour que tu ais vraiment un gain de performance, il faut faire ça intelligemment.





PS: t’aime bien les doublons toi


votre avatar







xxSeize a écrit :



C’est étonnant qu’ils proposent des CPU pareils.

Dans un comparatif dans les jeux, mon vieux i7 950 assure largement la donne face aux nouveaux, le gain est risible (surtout si j’OC).



Bon par contre, mon SLI de 460 risque de faire grise mine, surtout que le SLI, c’est jamais supporté à la sortie des jeux huehuehuehuehue







Et ouais, les sli c’est nul <img data-src=" />


votre avatar

OK, pour moi c’est mort. (Q9400 - 4Go de RAM)

votre avatar

Bon ba mise a part la CG “trop elevée” j’ai “juste” la config recommandée ^^’

moi qui pensait avoir un bon PC…





En tout cas pour la prog sur tout les coeurs, en soit c’est pas trop complexe (que ce soit bien fait et utile c’est autre chose). Ce qui génait c’était les configs supportées et les nombres de coeurs trop différents. Programmer du parallele sur du I7 se fera pas “a fond” si tu dois supporter un double coeur.



Après vu le jeu, je pense qu’il y a largement de quoi s’amuser sur la parallelisation. Tu déportes la météo sur un coeur, l’IA sur un autre etc…

votre avatar







Tkop a écrit :



Personnellement je trouve que ces spec sont plutôt une bonne nouvelle, ça faisait longtemps que les spec minimum stagnaient sur PC et au bout de 3-4 ans ça devient plus inquiétant qu’autre chose, même si c’était une bonne chose pour les petites configuration.







Encore faut-il que le nécessité d’avoir un meilleur matos soit portée par des évolutions technologique qui apportent un vrai plus au jeu (et pas juste des graphismes un peu plus HD ou pire une mauvaise optimisation).


votre avatar

je demande à voir le jeu ..

y a moyen que ce soit un port de mauvaise qualité .. (cf. gta 4)

votre avatar







tiny_naxos a écrit :



OK, pour moi c’est mort. (Q9400 - 4Go de RAM)





Core 2duo E8200 avec 2 Go de Ram DDR2 <img data-src=" /> Heureusement que je ne comptais pas y jouer


votre avatar

Eh ben tant pis, mon Phenom X4 9950 BE et ma Radeon HD 5770, on repassera <img data-src=" />



(ou alors ça me fait une excuse pour mettre à jour ma config… faut voir… <img data-src=" />)

votre avatar







Pochi a écrit :



Encore faut-il que le nécessité d’avoir un meilleur matos soit portée par des évolutions technologique qui apportent un vrai plus au jeu (et pas juste des graphismes un peu plus HD ou pire une mauvaise optimisation).






J'en parle dans le post que tu a partiellement quotté. L’évolution attendue n'est pas graphique mais principalement sur la taille des mondes ouverts, la distance d'affichage et le nombre d'objets à l'écran.   

Par exemple je trouve que le dernier Halo sur 360 est graphiquement magnifique pour la 360. Mais si on y réfléchie un peu on se rend compte que le jeux est entièrement vide. Presque pas d'objets dans le décors, plein d'astuce pour ne pas devoir afficher de paysage ...

votre avatar

Je me demande surtout quelle sera la différence entre un CPU minimum et un CPU recommandé.



Il vont faire quoi désactiver l’AI, réduire la qualité du son pour les CPU faiblards ?



Comparativement aux options graphiques qui permettent de modifier la charge GPU, ces options sont extrêmement rares en ce qui concerne le CPU.



J’imagine donc que la seule différence entre le CPU minimum et celui recommandé sera de jouer à 30FPS vs 60FPS.



Peut être feront il comme GTA 4 et nous permettre de réduire le trafic.

votre avatar







von-block a écrit :



Je me demande surtout quelle sera la différence entre un CPU minimum et un CPU recommandé.



Il vont faire quoi désactiver l’AI, réduire la qualité du son pour les CPU faiblards ?



Comparativement aux options graphiques qui permettent de modifier la charge GPU, ces options sont extrêmement rares en ce qui concerne le CPU.



J’imagine donc que la seule différence entre le CPU minimum et celui recommandé sera de jouer à 30FPS vs 60FPS.



Peut être feront il comme GTA 4 et nous permettre de réduire le trafic.





la physique, le nombre d’objet à l’écran, es détails de ces objets, la distance d’affichage.


votre avatar







Pyroa a écrit :



Oh P* !!!!



Moi qui voulais l’acheter, ca sera sans moi. J’ai des dépenses plus importantes que la remise à niveau de mon PC :‘(



Configuration de Pyroa



Ma config est pas à jour, j’ai depuis installé un SSD Vertex 4 120Go.





Ta machine devrai passer.


votre avatar

ça me surprend surtout de voir de telles config, quand de l’autre ça va tourner sur des PS3/360 (bon, vu les vidéos c’est très moche) ou sur PS4/X1 (laaaargement en dessous de la config mini ici)… S’il n’y a pas un gap entre la version PC et console, alors ils auront vraiment fait un portage d’anthologie.

votre avatar

L’arrivée des nouvelles consoles fait mal aux configurations PC existantes… <img data-src=" />



Pour ma part je vais attendre l’arrivée de configs capables de faire tourner ces jeux à 60ips sans avoir besoin du système de refroidissement d’un A380.









Loeff a écrit :



ou sur PS4/X1 (laaaargement en dessous de la config mini ici)…





La PS4/X1 est supérieure par certains côtés (8Go de VRAM) et il faut que le PC soit supérieur sur tous les aspects pour faire tourner leurs jeux.



En réalité je ne pense pas que la configuration recommandée pour PC sera capable d’atteindre la même qualité que sur PS4/X1. Ou alors le jeu n’exploite pas à fond ces machines.


votre avatar







maitreyome a écrit :



J’vais sans doute galérer avec mon I5 750.



L’année prochaine je change tout ça.







Ils sont certainement sponsorisés par Intel pour sortir des config recommandée pareilles



et ça marche <img data-src=" />


votre avatar

Bon ma config est au dessus des spécs : je vais pouvoir jouer à …c’est quoi déjà le jeu qui ne m’intéresse pas une seconde <img data-src=" /> ?

votre avatar







maitreyome a écrit :



J’vais sans doute galérer avec mon I5 750.



L’année prochaine je change tout ça.







Toi aussi tu as peur pour ton i5-750 <img data-src=" />


votre avatar

Ca passe… Bon pas loin d’ajouter un peu de vaseline mais ça passe <img data-src=" />









Gilbert_Gosseyn a écrit :



Ta machine devrai passer.



Ce qui était bien avec les démos de jeu c’est que tu pouvais voir gratuitement si ta bécane supportait le bousin (à une vache près).<img data-src=" />


votre avatar







HarmattanBlow a écrit :



Les nouvelles consoles ont 8Go de VRAM, et le CPU et le GPU communiquent via une mémoire unifiée plutôt que via un bus PCIe à la bande passante limite et à la latence élevée. Enfin elles sont équipées de GPU dernier cri.



Aucun PC actuel ne peut faire tourner un jeu pleinement optimisé pour ces consoles. Des versions spécifiques pour le PC sont possibles mais au prix d’un gros effort et d’une réduction des ambitions.







…Qu’est ce qu’il ne faut pas lire… On dirait que tu lis un prospectus pour les console nextgen…



Je vais même pas argumenter, juste préciser :



Ta magnifique next Gen sur Watch dog = ~720P soit &lt;1Mpx @30FPS

Un pc de gamer/pc recommandée = 1080P soit 2Mpx @60FPS



Alors la “ réduction des ambition” <img data-src=" />



votre avatar







Wythel a écrit :



Donc développé pour consoles, recompilé vite fait et on regarde sur quoi ça tourne ? Il fait envie l’avenir du jeu PC.







Laisse moi te corriger avec la réalité du jeu vidéo :

Développer sur PC, porter sur console (avec compression maximum des textures sur consoles).


votre avatar







Loeff a écrit :



ça me surprend surtout de voir de telles config, quand de l’autre ça va tourner sur des PS3/360 (bon, vu les vidéos c’est très moche) ou sur PS4/X1 (laaaargement en dessous de la config mini ici)… S’il n’y a pas un gap entre la version PC et console, alors ils auront vraiment fait un portage d’anthologie.







Une console a des librairies dédiées aux jeux avec quasiment rien qui tourne en fond et te bouffe des ressources et surtout un accès direct aux mémoires et des canaux allant directement du lecteur vers la VRAM (je rapelle sur pc le chemin c’est HDD=&gt;CPU=&gt;RAm=&gt;GPU=&gt;VRAM)


votre avatar







spidy a écrit :



perso avec intel 4670k + gtx770 ça passe…. sauf qu’avec mes 4go de ram le jeu m’enverra bouler je le sens <img data-src=" />





Ça coûte peanuts 4Go de RAM, te plaint pas trop :p


votre avatar

Pour le proc, mon phenom IIx4 925 pourrait faire l’affaire vu que j’ai fait un leger OC, il est à 3086mhz.

Mais pour la cg, ma radeon hd 4470 suffira pas.

Mes 3go de ram non plus <img data-src=" /> tant pis, il sera plus valable pour moi d’acheter le jeu version xbox 360… si le père noël veut bien <img data-src=" />

votre avatar







Tkop a écrit :



Même si ton proc n’est pas officiellement suffisant, c’est fort probable que ça passe si ta machine n’est pas trop chargé en soft inutile.







Ca passera, sauf que j’aime bien profiter des jeux au max de leur capacités graphiques !


votre avatar







Tkop a écrit :



J’en parle dans le post que tu a partiellement quotté. L’évolution attendue n’est pas graphique mais principalement sur la taille des mondes ouverts, la distance d’affichage et le nombre d’objets à l’écran.







Tout ce dont tu parles reste bien dans l’élément graphique quand même…

Pour la taille des mondes ouverts, on fait déjà de la “génération de map en streaming” (j’ai pas le terme exact). Y a qu’à prendre WoW, tu peux te ballader sur un continent entier sans écran de chargement et ça c’était deux ans avant la génération actuelle de console ! D’autant plus que les jeux consoles ont une forte tendance à être assez cloisonnés.

La distance d’affichage, c’est déjà souvent très réglable et une grande distance d’affichage n’apporte pas que du plus. Je me rappelle TES Oblivion : petite carte mais grande distance d’affichage, tu allais au bord de la map tu appercevais la grande tour du centre, t’avais vraiment l’impression d’être dans un bocal.

Nombre d’objets ? Polygones ? Pur graphisme. Objets du jeu ? Les Fallout 3 et New vegas disposaient déjà d’environnements très fournis en objets inutiles et manipulables.



Tout ça n’a rien d’une nouveauté (ni graphique ni encore moins de gameplay), c’est juste la suite logique d’une augmentation régulière de puissance. Sauf que les proportions de Watch Dog semblent un peu trop hors norme pour être honnêtes (probablement un double effet kiss cool PS4 + portage PC tendancieux). Je doute fortement que le jeu révolutionne le monde vidéoludique, qu’ils nous sortent un bon jeu et pas un pétard mouillé serait déjà une bonne chose. Quand au portage PC, j’apprécierais un portage des contrôles et de l’interface mais là, c’est du rêve éveillé…



En fait, je pense qu’au niveau puissance les PC (et les futures consoles) ont atteint un seuil de confort niveau graphismes. On fait déjà des jeux ouvert ou avec des objets ou avec un design graphique très travaillé, le tout dans des proportions qui ravissent 95% des joueurs. Si on veut utiliser la puissance, autant le faire pour l’I.A. ou les interactions joueur-PNJ ou juste utiliser le pognon pour faire un jeu plus long ou une histoire plus étoffée. Après je ne dis pas que plus de puissance ne sert strictement à rien, mais faire des visages plus expressifs ou des cheveux en temps réel (et avec toutes les erreurs d’algo et situations zarbi que ça peut engendrer) n’apporte plus assez par rapport au reste. Ca fait des années que les améliorations graphiques n’ont plus créé d’innovation de gameplay. Les innovations de gameplay les plus récentes sont d’ailleurs venues des contrôleurs (Wii, Kinect, Pad SteamBox ?).



En fait on a un petit paradoxe :




  • Tout les joueurs s’extasient quand on fait une nouvelle démo en doublant les polygones sur un visage…

  • … mais tout le monde n’accorche pas à un design spécifique (WoW, D3, Borderlands, Don’t Starve…) ou un gameplay tranché.

    Du coup c’est moins risqué commercialement de faire un jeu classique plus “technique graphiquement” que de faire un jeu au graphisme ou gameplay très tranché mais qui techniquement tourne sur n’importe quel PC.


votre avatar

Peut-être tout simplement que pour une fois on a enfin des configs minimales et recommandés qui tiennent la route et ne sont pas du bidonnage marketing qui ne se vérifie pas dans les faits ?! <img data-src=" />



Perso ça ne me choque pas si le jeu tient la route, car j’ai toujours pensé que jouer sur PC ça a un cout (certes bien moindre qu’avant, mais quand même) et si l’on est pas prêt à l’assumer alors mieux vaut jouer sur console <img data-src=" />


votre avatar







laurentjust4u a écrit :



…Qu’est ce qu’il ne faut pas lire… On dirait que tu lis un prospectus pour les console nextgen…





a) Je n’ai aucune console, je suis un pur joueur PC. malheureusement je suis aussi un développeur et donc bien trop au fait de certaines limites.



b) Ce n’est pas une question de “qui à la plus grosse dans l’absolu et tout compris”. Tu ne fais pas rentrer un carré dans un trou rond même si le trou a une plus grande superficie. Il faut que le trou soit beaucoup plus grand que le carré. Le PC est depuis longtemps la dernière roue du carosse en termes de marché et plus encore maintenant que ces deux consoles sont homogènes, le jeu ne peut pas être refait de A à Z pour en faire un rond.



c) Sur quelques points les consoles ont la plus grosse et ça ne peut pas être compensé par plus de RAM ou plus de puissance CPU, même avec la meilleure optimisation du monde : le trou ne sera jamais assez grand.


votre avatar







Soltek a écrit :



Ça coûte peanuts 4Go de RAM, te plaint pas trop :p





<img data-src=" /> c’est clair mais quand j’ai changé la cg/cpu/ram/cm à la base je voulais changer juste la cg mais après le cpu (intel q9400) limitait à mort donc il a fallu remplacer aussi le proc/cm/ram donc total de 770€ <img data-src=" /> mais bon je suis plus à 40€ près là mais y a intérêt à ce que ça vaille le coup.



si Watch dogs a besoin de ça pour tourner, j’ai peur pour GTA 5 (s’ils n’oublient pas le pack de textures HD et l’anti-aliasing car sur 360 ça fait peur <img data-src=" /> )


votre avatar







laurentjust4u a écrit :



…Qu’est ce qu’il ne faut pas lire… On dirait que tu lis un prospectus pour les console nextgen…



Je vais même pas argumenter, juste préciser :



Ta magnifique next Gen sur Watch dog = ~720P soit &lt;1Mpx @30FPS

Un pc de gamer/pc recommandée = 1080P soit 2Mpx @60FPS



Alors la “ réduction des ambition” <img data-src=" />







T’as choppé où le 720p @30FPS ? Humm ?



Parce que ce qui a été annoncé c’est :





  • 720p @60FPS



    -1080P (4K?) @30FPS





    (Certes le PC gaming reste supérieur)


votre avatar

Ca fait le yoyo chez Ubisoft Montréal pour les configs recommandées. Si le jeu est bien optimisé PC, je pense que même une config 2 coeurs CPU sandy Bridge et une HD6800 avec 4 gigot de RAM devrait faire tourner le jeu en minimum à un framerate décent. Ils gonflent souvent les specs pour éviter qu’on vienne se plaindre que le jeu fonctionne pas sur le pc alors qu’on a les specs requises. Comme d’hab wait & see mais ce jeu se fait attendre <img data-src=" />.

votre avatar







XMalek a écrit :



Une console a des librairies dédiées aux jeux avec quasiment rien qui tourne en fond et te bouffe des ressources et surtout un accès direct aux mémoires et des canaux allant directement du lecteur vers la VRAM (je rapelle sur pc le chemin c’est HDD=&gt;CPU=&gt;RAm=&gt;GPU=&gt;VRAM)







Oui, forcément que ça a un iNpact sur les performances, mais de là à rendre un APU Jaguar anémique au niveau d’un Q8400, il y a un pas que je ne franchirai pas, et je ne parle même pas des GPU <img data-src=" />



Faudra surtout voir la tronche de ce portage, et si ces configs ne sont pas bidon, dans le sens où une config bien plus faible pourrait très bien faire tourner le jeu. On verra dans 1 mois, les premiers retours.


votre avatar







HarmattanBlow a écrit :



a)



c) Sur quelques points les consoles ont la plus grosse et ça ne peut pas être compensé par plus de RAM ou plus de puissance CPU, même avec la meilleure optimisation du monde : le trou ne sera jamais assez grand.







Ça semble une bonne théorie, mais ça n’explique toujours pas pourquoi les consoles seront en 720P (peut être en 1080P, mais UBI ne peut rien promettre) à 30 fps alors que les PC moyens de gamme feront tourner le jeu sans problème en 1080P fort probablement dans les 60FPS.



Microsoft a annoncé que 10% de son GPU serait réservé à des calculs hors jeu donc non utilisable et 3GO non utilisable aussi pour la console. Ils ont beau avoir la meilleure optimisation du monde, quand la puissance n’est pas là, le carré devient beaucoup plus petit face au cercle.


votre avatar







laurentjust4u a écrit :



Je vais même pas argumenter, juste préciser :



Ta magnifique next Gen sur Watch dog = ~720P soit &lt;1Mpx @30FPS

Un pc de gamer/pc recommandée = 1080P soit 2Mpx @120FPS







Les écrans en 120 c’est le bien <img data-src=" />


votre avatar







HarmattanBlow a écrit :



L’arrivée des nouvelles consoles fait mal aux configurations PC existantes… <img data-src=" />







Les nouvelles consoles qui permettent de jouer en 1440p ? Oh wait <img data-src=" />



Plus sérieusement, faut voir, mais faudrait comparer un jeu optimisé PC à un jeu optimisé console pour faire un vrai comparatif.


votre avatar







Cara62 a écrit :



T’as choppé où le 720p @30FPS ? Humm ?



Parce que ce qui a été annoncé c’est :





  • 720p @60FPS



    -1080P (4K?) @30FPS





    (Certes le PC gaming reste supérieur)





    http://www.examiner.com/article/rumor-playstation-4-gets-graphically-definitive-version-of-watch-dogs?cid=db_articles



    Ce sera pas du 720p mais du 900p@30fps, donc encore de l’upscale.

    Le type dans l’interview précise que sur PC ça tourne en 1080p@60fps sans soucis et qu’ils essaient de faire pareil sur ps4(pas possible sur la xbox à priori)



    Donc le gars un peu plus haut qui nous explique que les PS4 & Xbox sont plus performantes que les pc actuels parce qu’elles ont un GPU dernière génération(ce qui est faux) se plante totalement.

    C’est la première fois que les consoles “newgen” sortent en étant moins puissante que les pc “courants”.

    Après ils vont essayer de s’en sortir avec des “optimisations”, mais quand tu vois qu’ils downscale, ça commence mal. <img data-src=" />


votre avatar

Zut alors moi qui croyais qu’ils allaient baisser les config pour que je joue avec mon C2D <img data-src=" />

Je suis refait !

votre avatar







zzzZZZzzz a écrit :



http://www.examiner.com/article/rumor-playstation-4-gets-graphically-definitive-version-of-watch-dogs?cid=db_articles



Ce sera pas du 720p mais du 900p@30fps, donc encore de l’upscale.

Le type dans l’interview précise que sur PC ça tourne en 1080p@60fps sans soucis et qu’ils essaient de faire pareil sur ps4(pas possible sur la xbox à priori)



Donc le gars un peu plus haut qui nous explique que les PS4 & Xbox sont plus performantes que les pc actuels parce qu’elles ont un GPU dernière génération(ce qui est faux) se plante totalement.

C’est la première fois que les consoles “newgen” sortent en étant moins puissante que les pc “courants”.

Après ils vont essayer de s’en sortir avec des “optimisations”, mais quand tu vois qu’ils downscale, ça commence mal. <img data-src=" />







J’ai pas dit le contraire,



mais au moins en 720P c’est @60FPS, et non @30FPS.


votre avatar







XMalek a écrit :



Une console a des librairies dédiées aux jeux avec quasiment rien qui tourne en fond et te bouffe des ressources et surtout un accès direct aux mémoires et des canaux allant directement du lecteur vers la VRAM (je rapelle sur pc le chemin c’est HDD=&gt;CPU=&gt;RAm=&gt;GPU=&gt;VRAM)







On a une idée du gain réel de la VRAM ?



Les PS4/X1 auront des HDD ou des SSD ?


votre avatar







Cara62 a écrit :



J’ai pas dit le contraire,



mais au moins en 720P c’est @60FPS, et non @30FPS.







Je t’ai cité mais ce n’est pas vraiment à toi que je m’adressais(enfin le type plus haut n’était pas toi <img data-src=" /> )


votre avatar

Non rien ^^’

votre avatar







zzzZZZzzz a écrit :



Je t’ai cité mais ce n’est pas vraiment à toi que je m’adressais(enfin le type plus haut n’était pas toi <img data-src=" /> )









Bah me cite pas alors ! Même si t’es un shinigami ! <img data-src=" />


votre avatar

Bien ce que je disais, c’est une réso batarde entre le 720 et le 1080… et ca sera bien en 30FPS…



Qui qui avait raison ^^

votre avatar







Loeff a écrit :



Oui, forcément que ça a un iNpact sur les performances, mais de là à rendre un APU Jaguar anémique au niveau d’un Q8400, il y a un pas que je ne franchirai pas, et je ne parle même pas des GPU <img data-src=" />



Faudra surtout voir la tronche de ce portage, et si ces configs ne sont pas bidon, dans le sens où une config bien plus faible pourrait très bien faire tourner le jeu. On verra dans 1 mois, les premiers retours.







Ben si désolé, quand il te faut 2ms (fixe) pour transférer une texture 2048*2048 sur ps3 et 500ms (variable et ce n’est pas du flan, cela a été mesuré sur une config gamer d’il y a deux ans ) sur PC ben ton GPu a beau être le meilleur gpu au monde s’il n’a pas les canaux qui vont bien derrière ben c’est la GROSSE merde.



Ce qui veut dire que tu as trois choix :




  • Tout charger en ram (mais il faut quand même te tapper le transfert Ram =&gt; GPU =&gt; VRAM) pour gagner un peu de temps (tu divises globalemebnt par deux si tu as de la chance avec les locks de texture / surface) . Ce qui est probablement ce qui est utilisé ici au vu des prérequis ram.

  • Charger en ram ce que tu as besoin a un instant T et avoir potentitellement des ralentissements du au fait qu’une texture non prévue est demandée (exemple : GTA 4 pc)

  • Soit tu précharges ton streaming de textures en priant pour que le joueur fasse ce que tu penses (ce qui est utilisé pour les moteurs unreal et qui force les “couloirs” dans beaucoup de jeux pcs pour éviter des pics de perf)


votre avatar







Pochi a écrit :



On a une idée du gain réel de la VRAM ?



Les PS4/X1 auront des HDD ou des SSD ?







Euh oui on a une idée du gain réel tu multiplies un poil tes perfs par 5 :p



Et aux dernières nouvelles c’est des HDDs, mais bon ce n’est pas trop un problème :p, elles ont beaucoup de ram pour compenser.


votre avatar







von-block a écrit :



La physique tu ne peux jamais la modifié (sauf Physx de nvidia)



Nbs d’objets=touche très très peu le cpu



détail objet= touche très très peu le cpu



Distance d’affichage= touche très très peu le cpu, un peu plus le disque dur.







Avant de commencer, je m’excuse pour le manque d’accentuation. J’ecris a partir d’un clavier QWERTY.



Desole, je ne veux pas te decevoir, mais le CPU joue pour beaucoup dans le rendu graphique et la physique, ca se tweak. Avant que la carte graphique ne calculent le rendu, le CPU prepare ce qui doit etre rendu. Pour reprendre ta liste:



* La physique: tu peux changer le nombre d’objets traites par de la real physics vs fake physics (en gros, calcul complexe de physique de collision contre physique basique pour des objets lointains). Pour ce qui est proche du joueur, tu vas calculer de la physique complexe pour l’interaction, mais pour ce qui est loin, tu peux reduire les details physique selon le CPU (drapeaux, collisions…)



* Nbr d’objets = touche beaucoup le CPU. avant de rendre la trame, il faut que le CPU parcourt la liste d’objets a rendre, faire des calculs divers (physique, animation, clipping pour determiner si c’est a rendre) et ensuite, l’envoyer a la carte graphique. Aujourd’hui, je me bats avec le monde pour leur dire que Crysis premier du nom n’est plus GPU limited mais CPU limited (de ma propre experience) a cause du nombre d’objets. D’ailleurs, pour se renseigner la dessus, il y a aussi le nombre de drawcalls qui joue.



* detail d’objets: la aussi, le CPU morfle. Pour rendre les objets, le CPU doit preparer la liste de vertices que la carte graphique doit transformer. Plus il y a de details, plus il y a de vertices a afficher, et donc a calculer et a envoyer a la carte graphique.



* Distance d’affichage: bien la encore, plus t’affiches loin, plus t’affiches d’objets a l’ecran. C’est un melange des deux points precendants.



Un tres bon exemple pour demontrer mes dires serait Arma 2. Si tu n’as jamais joue, tu as une version gratuite (arma 2 free) pour te faire une opinion. Lance GPU-z en arriere pour tracker l’utilisation GPU. Ensuite, dans Arma 2, tu peux tweaker la distance de rendu et /ou la qualite des objets. Bien crois moi qu’a 10km de rendu, le GPU se tourne les pouces, parce que justement, le CPU a trop de boulot.

Pour ceux qui ont des SLIs, y a aussi un autre indicateur. Nvidia propose d’afficher une jauge d’utilisation SLI. Dans les jeux qui sont CPU limited, la jauge est quasi au minimum.



Ce sont des tests personnels sur plusieurs configuration differentes et aussi mon experience professionnelle car je suis programmeur dans le domaine du jeu video.


votre avatar







XMalek a écrit :



Ben si désolé, quand il te faut 2ms (fixe) pour transférer une texture 2048*2048 sur ps3 et 500ms (variable et ce n’est pas du flan, cela a été mesuré sur une config gamer d’il y a deux ans ) sur PC ben ton GPu a beau être le meilleur gpu au monde s’il n’a pas les canaux qui vont bien derrière ben c’est la GROSSE merde.





  • Soit tu précharges ton streaming de textures en priant pour que le joueur fasse ce que tu penses (ce qui est utilisé pour les moteurs unreal et qui force les “couloirs” dans beaucoup de jeux pcs pour éviter des pics de perf)







    C’est pas justement ça qui permet de faire du streaming de texture sur les consoles ? En leur permettant de pallier à leur manque de RAM ?


votre avatar







mattox37 a écrit :



c’est un raisonnement qui se tient mais je ne suis pas trop d’accord. Ok pour l’optimisation des échanges mémoires mais les GPU qui se trouvent dans les consoles Xbox one et PS4 ne sont pas si bien que ça comparé à ce que l’on peut acheté pour un pc (la GTX 770 à 360euros est bien plus performante).





Mais encore une fois c’est l’histoire du rond qu’on cherche à faire rentrer dans le carré. Peu importe que le PC soit globalement plus puissant, il faut qu’il soit plus puissant sur chaque point pour faire tourner le jeu tel quel, ce qui n’est pas le cas.



Les dévs peuvent effectivement optimiser, par exemple en reportant des calculs sur le CPU, plus puissant que sur console, ce qui rend le rond plus carré. Le problème c’est que la méthode a une limite car les contenus graphiques ont été crées pour le moteur, qui lui-même a été créé pour les plateformes majoritaires, à savoir les consoles.





Du coup sur pc on peut charger bien plus avec des effets physiques.



A mon avis il est au contraire plus efficace de faire des calculs physiques sur console grâce à la mémoire unifiée entre CPU et GPU. Même par rapport à un PC qui aurait un plus gros GPU et un plus gros CPU. Sur PC le bus PCIe ne permet pas une bonne synergie entre les deux.





Si on compare un jeu développé pour un pc avec un jeu développé pour une console on aura une expérience bien plus sympa avec un pc.



En théorie, oui (sauf textures plus fines sur consoles). Mais les jeux développés pour PC ne sont pas des jeux à gros budget car le marché PC n’est pas suffisant. Les jeux ayant les plus gros budgets et les graphismes les plus impressionnants sont malheureusement développés pour consoles et portés sur PC.



Ce qui me désole, non pas pour des raisons de performances et de kikalaplusgrosse mais à cause de l’influence des consoles et des pads sur les gameplays PC.





Mais le plus important pour un jeu c’est quand même le contenu donc tout ce joue dans l’exclu :p enfin c’est mon point de vue.



Et sur ce point nous sommes tout à fait d’accord. Le dernier jeu à m’avoir amusé était en 2D.


votre avatar







XMalek a écrit :



Pour la PS4 bien sur que tu n’auras pas 100% pour le graphique, il y en aura une partie pour le système (aux alentours de 600 mo selon mes sources) et une partie pour le coté “cpu” de ton jeu. mais entre 2go et 6go y a un monde ^^. Par contre je n’ai lu nulle part la taille de l’edram (ni sa vitesse) sur PS4.







Ca dépend bien évidement des jeux… pour Killzone 4 c’est 1,5 Go pour les différents systèmes (AI, physics, inputs, etc), 3 Go pour la vidéo et 128 Mo de mémoire partagée pour le GPU et CPU.

Ils utilisent donc pratiquement toute la mémoire dispo pour le jeu (5 Go, 3 Go étant réservé pour l’OS). Au niveau des ressources je ne sais pas trop mais il faut savoir qu’un jeu ne peut utiliser que 6 core et 95% du GPU (2 core et 5% pour l’OS, 10% sur XONE).


votre avatar







HarmattanBlow a écrit :



En théorie, oui (sauf textures plus fines sur consoles). Mais les jeux développés pour PC ne sont pas des jeux à gros budget car le marché PC n’est pas suffisant. Les jeux ayant les plus gros budgets et les graphismes les plus impressionnants sont malheureusement développés pour consoles et portés sur PC.







Hum j’ai comme un doute là.



Skyrim PC à eu le droit à un pack de textures HD qui n’étaient pas sur console.



Globalement dire que des jeux actuels qui tournent sur console en 720p upscalé sont plus impressionnant que sur PC en 1440p ou en Eyefinity, ça me parait assez limite. On peut jeter un oeil sur le dossier PCINpact sur Diablo 3 console pour la comparaison des graphismes avec la version PC. C’est vraiment pas à l’avantage de la PS3 même en résolution très très moyenne pour le PC.


votre avatar







pMcc a écrit :



Ca dépend bien évidement des jeux… pour Killzone 4 c’est 1,5 Go pour les différents systèmes (AI, physics, inputs, etc), 3 Go pour la vidéo et 128 Mo de mémoire partagée pour le GPU et CPU.

Ils utilisent donc pratiquement toute la mémoire dispo pour le jeu (5 Go, 3 Go étant réservé pour l’OS). Au niveau des ressources je ne sais pas trop mais il faut savoir qu’un jeu ne peut utiliser que 6 core et 95% du GPU (2 core et 5% pour l’OS, 10% sur XONE).









Suorce pour killzone 4 ? non parce que les discours marketing de sony ça ne suffit pas :p


votre avatar







Strimy a écrit :



On parle pas de la physique nécessaire au jeu, mais de la physique “bonus” comme c’était le cas dans Crysis. Si tu baisses la physique au minimum, tu ne peux plus découper les arbres, défoncer les abris,… Ca change bien l’expérience de jeu (par exemple casser l’abris pour fuir ou attaquer), mais pas dans les proportions que tu cites.





mais originellement je répondais sur l’impact de la physique sur le CPU, et il est évident qu’ajouter de la complexité à la physique implique de posséder un meilleur CPU, et donc d’avoir des spécifications minimales plus élevées. Toujours dans le cas où il s’agirait d’un moteur plus costaud et calibré pour tirer parti des nombreux coeurs des processeurs récents.


votre avatar







XMalek a écrit :



Suorce pour killzone 4 ? non parce que les discours marketing de sony ça ne suffit pas :p







http://www.guerrilla-games.com/presentations/Valient_Killzone_Shadow_Fall_Demo_P…



Pour le reste ce sont les docs Sony/MS.


votre avatar







Pochi a écrit :



Hum j’ai comme un doute là.



Skyrim PC à eu le droit à un pack de textures HD qui n’étaient pas sur console.





Je parle de la nouvelle génération de consoles.


votre avatar







HarmattanBlow a écrit :



Je parle de la nouvelle génération de consoles.







Ca ne durera qu’un temps. S’il suffit d’allonger la VRAM, ça se fera très rapidement, c’est pas pour ce que ça coûte. Au pire 6 Go au mieux sur l’exemple Killzone de pMcc, 1 seul Go…


votre avatar







Pochi a écrit :



Ca ne durera qu’un temps.





C’est évident.





S’il suffit d’allonger la VRAM, ça se fera très rapidement, c’est pas pour ce que ça coûte.



La VRAM sera le point le plus critique et effectivement le plus vite corrigé (il faut néanmoins des puces avec des adressages 64 bits, ce qui n’est peut-être pas le cas de celles disponibles), disons d’ici un an pour les plus rapides, deux à trois ans pour la plupart des joueurs. En attendant nous aurons des textures moins fines, rien de dramatique.



L’absence de mémoire partagée sera plus problématique pour quelques jeux et il faudra pour ceux-là des bus PCIe plus rapides et un grand écart de puissance pour compenser.


votre avatar

D’ailleur il me semble que les vidéo ingame du jeu durant la présentation, c’est à dire le genre de rendu qui est gentillement “boosté” d’une façon ou d’une autre pour rendre encore plus beau que la version que l’on aura en vente, était rendu…. sur PC.



Mais je crois qu’il y a eu plusieurs vidéos avec des sources différentes. En gros un bordel quoi

votre avatar

Bonjour!

J’aimerais votre avis pour savoir si je peux faire tourner ce jeu (je n’attends pas à le faire tourner en ultra bien évidemment!) histoire de ne pas me retrouver avec un jeu que je ne peux pas lancer.



Voici ma configuration



Processeur : Intel® Core™ i7-2630QM CPU @ 2.00GHz, 2001 MHz, 4 cœur(s), 8 processeur(s) logique(s)



6 GO de RAM



Type PC à base de x64



Carte Graphique : NVIDIA GeForce GT 555M



Résolution : 1920 x 1080 x 60 hertz



Merci de m’aider :)

votre avatar

Ce jeu tourne à 30 images par seconde sur un PC équipé d’un Xeon e3-1250, 8 Go de RAM et une GTX 670 avec toutes les options a fond. Donc oui c’est un jeu gourmant mais je peux vous assurer qu’il est lead développé sur PC.

votre avatar

Bon bah j’irais le tester chez les tipiaks avant de l’acheter pour être sûr qu’il tourne avant alors.

Bah oui l’époque où on avait des démos de jeux c’est fini :(

votre avatar







Tkop a écrit :



la physique, le nombre d’objet à l’écran, es détails de ces objets, la distance d’affichage.







La physique tu ne peux jamais la modifié (sauf Physx de nvidia)



Nbs d’objets=touche très très peu le cpu



détail objet= touche très très peu le cpu



Distance d’affichage= touche très très peu le cpu, un peu plus le disque dur.



votre avatar







Tkop a écrit :



Je vais tenter d’expliquer simplement mon exemple.

Dans mon exemple j’utilise OpenMP qui est une librarie qui permet de paralléliser les calculs (un cas particulier du multithreading)



Tous tes cores vont faire la même chose (le code qui est dans la boucle), mais par sur les même données (par exemple par sur le même indice de ton tableau). Du coup si t’as plus d’indice dans ton tableau que de cores, alors tous tes cores seront utilisés. Après j’ai bien dis que mon exemple était bourrin. Pour que tu ais vraiment un gain de performance, il faut faire ça intelligemment.





PS: t’aime bien les doublons toi







Ca rame complet PC Inpact depuis plusieurs jours, en plus j’ai un clavier tout neuf que ma fille ma acheté et résultat, c’est pas du tout ergonomique.



Bref, je suis entrain d’apprendre (et désapprendre) et j’avoue que j’ai énormément de mal sur les Stream Buffer, mais ça va venir :)


votre avatar

encore bon <img data-src=" />



enfin i5 et pas i7 mais bon <img data-src=" />

votre avatar

J’ai l’impression que ce jeu sonne la mise à bas du plafonnement technique des jeux PC dû à la génération actuel de console. C’est plutôt réjouissant, sauf si le config est nécessaire car le jeu a été optimisé avec les pieds.

votre avatar

ça sent le portage dégelasse. Quand on a besoin d’une tel puissance CPU avec aussi peux de puissance GPU c’est que la parallélisation est mal/pas faite

votre avatar

Ca fait plaisir ça ! Enfin on va plus se trainer des jeux pensé pour Xbox avec des graphismes de 2002 et pouvoir enfin tirer partie de nos cartes graphiques à 400 balles. Non mais, ça commençait à bien faire ça !

Faut pas s’étonner que les gros jeux se faisaient cannibaliser par les mobiles si même graphiquement on s’éloignait à peine de se qu’on a sur iPad.

votre avatar

Le premier jeu qui mettrait à mal ma bonne Radon 5770 ? J’avais peur avec Batman AA, mais pour rien. En revanche, j’aimerais bie pouvoir télécharger une démo de WD, pour savoir vraiment si ma config supporte.

votre avatar







Loeff a écrit :



S’il n’y a pas un gap entre la version PC et console, alors ils auront vraiment fait un portage d’anthologie.





Ne pas oublier que les consoles n’ont pas à s’occuper d’antivirus et tout le tintouin qui consomme RAM, CPU et un poil de mémoire videos…. et que les API d’accès aux GPU sont un peu plus bas niveau que sur PC…



Beaucoup semble souffrir du syndrome du poison rouge : le dernier jeux sorti demande toujours pour décemment… même s’il y a eu une parenthèse lié à la Xbox360/PS3… les éditeurs, par soucis d’économie se calquant sur les perfs des consoles…

Les choses reprennent leurs cours… et dans 3 ans , les jeux PC recommenceront à être bridé par les consoles….


votre avatar







mattox37 a écrit :



ça sent le portage dégelasse. Quand on a besoin d’une tel puissance CPU avec aussi peux de puissance GPU c’est que la parallélisation est mal/pas faite





Les nouvelles consoles ont 8Go de VRAM, et le CPU et le GPU communiquent via une mémoire unifiée plutôt que via un bus PCIe à la bande passante limite et à la latence élevée. Enfin elles sont équipées de GPU dernier cri.



Aucun PC actuel ne peut faire tourner un jeu pleinement optimisé pour ces consoles. Des versions spécifiques pour le PC sont possibles mais au prix d’un gros effort et d’une réduction des ambitions.


votre avatar







Bourriks a écrit :



Le premier jeu qui mettrait à mal ma bonne Radon 5770 ? J’avais peur avec Batman AA, mais pour rien. En revanche, j’aimerais bie pouvoir télécharger une démo version tipiakde WD, pour savoir vraiment si ma config supporte.





<img data-src=" />



Les démos existent plus vraiment


votre avatar







Kokusho a écrit :



Ca fait plaisir ça ! Enfin on va plus se trainer des jeux pensé pour Xbox avec des graphismes de 2002 et pouvoir enfin tirer partie de nos cartes graphiques à 400 balles. Non mais, ça commençait à bien faire ça !

Faut pas s’étonner que les gros jeux se faisaient cannibaliser par les mobiles si même graphiquement on s’éloignait à peine de se qu’on a sur iPad.







Faut p’tet pas abuser hein. Sur PC on est à des années lumières de ce qu’il se fait sur iPad.


votre avatar

J’vais sans doute galérer avec mon I5 750.



L’année prochaine je change tout ça.

votre avatar

Il sera si gourmand que ça niveau proco ? ça m’a l’air complètement pété à ce niveau <img data-src=" />

votre avatar







HarmattanBlow a écrit :



L’arrivée des nouvelles consoles fait mal aux configurations PC existantes… <img data-src=" />



Pour ma part je vais attendre l’arrivée de configs capables de faire tourner ces jeux à 60ips sans avoir besoin du système de refroidissement d’un A380.





intel/AMD/nvidia ont fait pas mal d’efforts pour limiter la conso des proc/cg.



perso avec intel 4670k + gtx770 ça passe…. sauf qu’avec mes 4go de ram le jeu m’enverra bouler je le sens <img data-src=" />


votre avatar







Emralegna a écrit :



Le moteur ainsi que DirectX 11 ne sont pas forcément un gage de haut qualité. Il y a des jeux utilisant le CryEngine qui sont bien plus moches que d’autres aux moteurs moins évolués. Et concernant le jeu, je doute qu’il sera au niveau d’un Crysis graphiquement.







Crysis n’a pas forcement les mêmes besoins, il y a quand meme une pseudo “simulation” de environnement, du coup le proc est plus important, peut etre aussi qu’il est mal optimiser.



Ceci-dis, j’ai pas souvenir que le jeux sortit dernièrement avec des optimisations merdique aient demandé des config musclé, en général quand tu as pas l’intention d’investir sur le portage/optimisation tu va pas non plus t tiré une balle sur le pied en limitent le nombre de clients


votre avatar







von-block a écrit :



Je n’y joue pas <img data-src=" />



Mais en effet Starcraft 2 doit être l’un des jeux le plus CPU limited rapidement









tout à fait ! Pour diablo 3 je dirais même qu’on est BattleNet limited… ^^


votre avatar







von-block a écrit :



Tout à fait d’accord. Par contre la plupart des options que tu nommes ne sont jamais implantées dans un jeu.



Je n’ai jamais vu l’option pour réduire la physique. Je n’ai jamais vu d’option pour réduire le nombre d’objets (sauf GTA avec le nbs de voitures).



J’en ai vu pour la qualité des objets, mais ce ne sont trop souvent que des textures différentes (basse définition vs haute définition).



Pour la distance d’affichage, il faut voir comment elle est gérée aussi. C’est certain que si l’AI et la physique des jeux est aussi calculé et si tous les petits objets sont aussi calculés, ça demande rapidement un monstre de puissance (on tombe dans l’exponentielle). Une distance d’affichage bien fait comme AC ou GTA remplit les attentes de la plupart des joueurs sans trop demander de CPU supplémentaire.



Je ne crois tout de même pas que ça explique la différence entre un i7 et un phenom, sauf bien sur pour monter en image seconde. Le phenom devrait faire du 30 fps et le i7 du 60+



Reste que j’aimerai voir les développeurs enfin mettre des options spécifiques CPU intensives.







TU ne vois pas les options simplement parce que ce n’est pas un paramètre que le développeur te laissera jouer puisque cela aura une influence notable sur le jeu. Prenons le jeu de la news, s’il diminue le nombre de personne, d’éléments et la qualité de la physique, ça ne sera probablement pas jouable. Donc on en met comme on a besoin et on base les config demandé sur ce.



Donc non, il n’y aura probablement pas d’options basé sur le traitement CPU. (sauf peux être lorsque ça peut être facilement fait comme le nombre d’unités dans les totals wars)



Concernant les phenom vs core X, les Cores d’intel sont super rapide en single thread. La plupart des optimisation d’intel ont été fait dans ce sens. C’est très payant lorsque :





  1. Il y a du code majoritairement monothread comme la plupart des jeux

    ou

  2. Il y a du code multithread mais dont la plupart des thread sont indépendant. (ne travaillent pas sur les mêmes données)



    Dans ces cas la, toutes leurs optimisations rapporte et donnent l’avantage sur les phenom et autre CPU. Cependant, lorsque vient le temps de faire du code multithread dont chaque thread travaillent sur les données de l’autres, les goulet d’étranglement des communications intercore viennent pas mal diminuer l’avantage des Cores d’intel.










votre avatar







XMalek a écrit :



Le “combien de fps gagnés” est une mauvaise question, le fps est défini par beaucoup d’autres paramètres (aller juste quelques exemples : taille et vitesse de l’edram, vitesse du framebuffer, durée des locks de texture, nombre de shaders, type des shaders, etc). Cela permettra surtout d’avoir des graphismes plus beau (textures dynmiques plus détaillées, meilleurs effets de lumière, véritable calcul dynamique de lumière (pas comme la plupart des jeux qui précalculent absolument tout)) et des post traitement (enfin?) corrects.



Pour le *5, il suffit de comparer l’affichage depuis la vram d’un gpu et depuis la ram en stream. Ben c’est simple l’un met (mini) 5 fois moins de temps.







Oui mais ce temps, ce n’est qu’un fragment de tout les calculs/chargements effectués et je doute que la PS4 soit 5 fois plus rapide sur l’ensemble des opérations.



Donc le nombre de FPS final pour le rendu utilisateur est une très bonne question : à options graphiques égales “à fond” combien de différence dans les FPS entre une PS4 avec ses 8 Go VRAM et un PC similaire mais avec 8Go DDR3 + 2Go VRAM du GPU.



Parce que bon faire des déclarations du type “fois 5 plus rapide” pour au final gagner 5% de FPS, c’est digne du département marketing.



Et quand on voit les déclarations selon lesquelles la PS4 va tourner en 1080p@60Hz, ben voilà c’est pas un foudre de guerre non plus.



D’ailleurs la config max ne pourrait pas s’expliquer par la capacité à afficher du 2560*1440 à la place du 1080p ?


votre avatar







von-block a écrit :



De la à expliquer la différence entre un i7 et un phenom ?



Qui sait peut être qu’ils nous réservent une révolution physique, AI et son.







Peut-être que le jeu monte au moins en 2560*1440 (voire en 4K) et qu’ils ont vraiment listé une grosse config’ pour des graphismes au final bien plus élévés que sur PS4 ?


votre avatar

ma question peut paraitre con mais je me demande si ma config sera assez musclé, quelqu’un pour me le confirmer ?

mon ordi est un msi gx60 -le portable hitman edition :





  • AMD Quad-Core A10-5750M (2,50 GHz, 3.5GHz en turbo)

  • 6 Go de ram en 1600MHz

  • cg AMD readon hd 7970m

  • un pauvre HDD 5400 tr/min de 500 Go ^^’



    je pense que la cg et le hdd devrais faire l’affaire, mais j’ai un serieux doute concernant mon processeur semble t’il un peu faiblard <img data-src=" />

votre avatar







von-block a écrit :



Tout à fait d’accord, mais nomme moi un jeu qui te laisse choisir la qualité de la simulation physique ?



SI watch dogs le fait je dis bravo <img data-src=" />





Crysis est un exemple très marquant à ce niveau là puisqu’il change fondamentalement le gameplay. Avec les détails physiques au minimum, rien n’est destructible. En montant les détails, la destruction est de plus en plus réaliste.


votre avatar







Pochi a écrit :



Oui mais ce temps, ce n’est qu’un fragment de tout les calculs/chargements effectués et je doute que la PS4 soit 5 fois plus rapide sur l’ensemble des opérations.



Donc le nombre de FPS final pour le rendu utilisateur est une très bonne question : à options graphiques égales “à fond” combien de différence dans les FPS entre une PS4 avec ses 8 Go VRAM et un PC similaire mais avec 8Go DDR3 + 2Go VRAM du GPU.



Parce que bon faire des déclarations du type “fois 5 plus rapide” pour au final gagner 5% de FPS, c’est digne du département marketing.



Et quand on voit les déclarations selon lesquelles la PS4 va tourner en 1080p@60Hz, ben voilà c’est pas un foudre de guerre non plus.



D’ailleurs la config max ne pourrait pas s’expliquer par la capacité à afficher du 2560*1440 à la place du 1080p ?







Je pense que tu ne comprends pas (ou ne veux pas comprendre).



Entre un affichage depuis la RAM et un affichage depuis la VRAM, il y a un facteur 5 de temps. d’où le cinq fois plus rapide. Je ne parle NULLE PART des fps. Le fps c’est l’argument du type qui n’a jamais touché à la programmation graphique et qui pense que de base 999 fps &gt; 100 fps, alors qu’entre les deux il peut y avoir une foule de chose supplémentaire et potentiellement un pipeline de rendu qui n’a rien à voir (un exemple con, mais par exemple l’antialiasing de la wii forcait le fps à 30, même si tu envoyais 120 images par secondes…)



Le truc est qu’actuellement aucun jeu ne se risque à afficher depuis la ram (sauf sur les pc ultra mega low end ou de toute facon pas le choix et donc ca rame encore plus) . Tous les jeux affichent depuis la vram. Donc l’argument ps4 = 8go de vram c’est que potentiellement tu as 8 go de textures contre 2 go de textures pour un pc et … c’est tout… tu n’auras pas de différence de perf.



Par contre potentiellement tu auras :





  • Un meilleur antialiasing car tu pourras faire du 16X sans soucis.

  • des meilleurs post traitement car tu ne sras pas obligé de réduire la résolution de ton rendu d’écran pour économiser de la vram

  • des meilleures perfs cpu (parce que l’accès à la vram est meilleure que l’aéccès à la ram “en général” (par contre tu as en général plus de raté de cache)






votre avatar







Punkenjoy a écrit :



TU ne vois pas les options simplement parce que ce n’est pas un paramètre que le développeur te laissera jouer puisque cela aura une influence notable sur le jeu. Prenons le jeu de la news, s’il diminue le nombre de personne, d’éléments et la qualité de la physique, ça ne sera probablement pas jouable. Donc on en met comme on a besoin et on base les config demandé sur ce.



Donc non, il n’y aura probablement pas d’options basé sur le traitement CPU. (sauf peux être lorsque ça peut être facilement fait comme le nombre d’unités dans les totals wars)







Ont dit donc la même chose. <img data-src=" />

Pourquoi un si grand écart alors dans les config demandées :)


votre avatar







Strimy a écrit :



Crysis est un exemple très marquant à ce niveau là puisqu’il change fondamentalement le gameplay. Avec les détails physiques au minimum, rien n’est destructible. En montant les détails, la destruction est de plus en plus réaliste.







Ah ouais ?



J’avais oublié pourtant j’ai bien du passer ce jeu une dizaine de fois.



Bon et bien espérons que se soit de même pour Watch dogs


votre avatar







von-block a écrit :



Tu crois donc que le jeu sera plus beau sur PS4 et Xbox one que sur PC ?





Oui, j’en suis même certain. Je m’attends à une version PC moins belle et saccadée même sur la config recommandée.



Cela dit la version PC aura au moins une plus haute résolution et il se pourrait même qu’il y ait un ou deux détails qui soient améliorés au niveau du moteur lui-même. Ce qui ne change généralement pas grand chose sans contenus artistiques correspondants (textures supplémentaires, etc), ce qui n’est presque jamais le cas.



Enfin les premiers jeux consoles n’exploiteront pas toute la machine : quand leur développement a commencé les specs n’étaient sans doute pas finalisées et il faudra développer de nouvelles techniques.


votre avatar







Pochi a écrit :



Oui, terme mal choisi, je voulais dire chargement. Mais l’exemple reste bon à mon avis car peu de jeux font vraiment de la génération de map.







De la génération de terrain, pe pas (sauf les Minecraft like) mais la gestion de l’IA des monstres, par exemple, à la volée. Encore une fois, dans la plupart des MMO (et pour éviter toute triche) tout ça est vérifié ou carrement fait sur le serveur.









Pochi a écrit :



J’avoue ne pas avoir regardé les détails du jeu, ça reste une bonne nouvelle.







Tous les jeux dans le style (de GTA à Skyrim) sont des très bon exemples de ce que peux donner une belle utilisation de l’IA, avec des personnages qui vivent leur vie, qui réagissent, etc.









Pochi a écrit :



Dev en général ou dev jeux vidéo ?







Jeu vidéo (après avoir été dev “général”). Actuellement sur un projet de MMOTRPG, donc je constate que la problématique “calculs sur la machine du joueur / calculs sur le serveur” est particulièrement intéressante. Personnellement je me contente de l’UI, je fais majoritairement du game design, mais je participe aux débats avec mes partenaires.

Sur mobile, à moins de faire du full natif (ce qui se fait de moins en moins) la plupart des devs ne s’occupent pas vraiment de ces problématiques. En utilisant des framework comme Unity, Gameclosure & co, on laisse tomber une bonne part de l’optimisation.



Je me penche aussi dessus car j’aimerais lancer un petit projet perso, une sorte de freeciv mais basé sur Unity.







Pochi a écrit :



Vu que c’est du tour à tour séquentiel, c’est peut-être pas ce qui ce parallélise le mieux ? Mais c’est vrai que ce genre de jeu est souvent ultra lent pour l’I.A. (j’ai retenté Heart Of Iron 3 y a pas longtemps et c’était encore la plaie sur un PC pourtant très correct).







C’est vrai, impossible de paralléliser les tours, mais le soucis c’est que l’IA n’est pas capable non plus de paralléliser les mouvements de ces troupes, alors que parfois leurs positions les une par rapport aux autres n’influe en rien sur le calcul (exemple : des unités au pole sud et au pole nord). Je ne dis pas que c’est simple, loin de là, mais je pense que l’équipe de Civ aurait pût se donner les moyens de réaliser ça.


votre avatar







HarmattanBlow a écrit :



Oui, j’en suis même certain. Je m’attends à une version PC moins belle et saccadée même sur la config recommandée.



Cela dit la version PC aura au moins une plus haute résolution et il se pourrait même qu’il y ait un ou deux détails qui soient améliorés au niveau du moteur lui-même. Ce qui ne change généralement pas grand chose sans contenus artistiques correspondants (textures supplémentaires, etc), ce qui n’est presque jamais le cas.



Enfin les premiers jeux consoles n’exploiteront pas toute la machine : quand leur développement a commencé les specs n’étaient sans doute pas finalisées et il faudra développer de nouvelles techniques.







Pour résumer le troll :



La version console sera + fluide même si l’éditeur dit qu’il galère à avoir un FPS stable. Plus beau même si les consoles sera incapable d’afficher du full HD alors même qu’elle rogne sur la qualité du jeux (forcement puisqu’ils disent que là ou c’est à 60FPS sur le pc, ça rame sur console).



Si le pc est plus beau en fait il ne l’est pas vraiment car c’était pas pensé lors de la création du jeu, et que de toute façon si c’est pas maintenant que les consoles auront des jeux plus beau, ben… ca sera + tard !



votre avatar

Qu’est ce qu’il faut pas entendre…



Si encore tu disais que sur console : oui c’est moins beau, oui c’est alléger par rapport à la version pc, mais que plus tard la puissance sera mieux gérer et cela va gommer en partie la différence…



Mais non… Il faut vraiment qu’une console à 30FPS sur du 900P soit plus beau et fluide et jouable que la version PC qui à tout pour elle. (Si ce n’est le prix puisqu’on est bien d’accord jouer sur pc c’est plus chere).

votre avatar

Si la version X1 sort avec une résolution encore + bridé (genre 720P) puisqu’elle est moins puissante… cela ne te fera même pas réfléchir..

votre avatar







laurentjust4u a écrit :



Pour résumer le troll





<img data-src=" />


votre avatar

<img data-src=" />

votre avatar







Pochi a écrit :



Autant de RAM qu’un PC actuel… Du coup je suis curieux de voir la différence de perf entre du VRAM + HDD vs RAM + SSD.







Au pif comme ça je dirai le goulot d’étranglement de la DDR3.


votre avatar







Pyroa a écrit :



Oh P* !!!!



Moi qui voulais l’acheter, ca sera sans moi. J’ai des dépenses plus importantes que la remise à niveau de mon PC :‘(



Configuration de Pyroa



Ma config est pas à jour, j’ai depuis installé un SSD Vertex 4 120Go.







Elle est nickel ta configuration !


votre avatar







europa2097 a écrit :



Desole, je ne veux pas te decevoir, mais le CPU joue pour beaucoup dans le rendu graphique et la physique, ca se tweak. Avant que la carte graphique ne calculent le rendu, le CPU prepare ce qui doit etre rendu. Pour reprendre ta liste:



* La physique: tu peux changer le nombre d’objets traites par de la real physics vs fake physics (en gros, calcul complexe de physique de collision contre physique basique pour des objets lointains). Pour ce qui est proche du joueur, tu vas calculer de la physique complexe pour l’interaction, mais pour ce qui est loin, tu peux reduire les details physique selon le CPU (drapeaux, collisions…)



* Nbr d’objets = touche beaucoup le CPU. avant de rendre la trame, il faut que le CPU parcourt la liste d’objets a rendre, faire des calculs divers (physique, animation, clipping pour determiner si c’est a rendre) et ensuite, l’envoyer a la carte graphique. Aujourd’hui, je me bats avec le monde pour leur dire que Crysis premier du nom n’est plus GPU limited mais CPU limited (de ma propre experience) a cause du nombre d’objets. D’ailleurs, pour se renseigner la dessus, il y a aussi le nombre de drawcalls qui joue.



* detail d’objets: la aussi, le CPU morfle. Pour rendre les objets, le CPU doit preparer la liste de vertices que la carte graphique doit transformer. Plus il y a de details, plus il y a de vertices a afficher, et donc a calculer et a envoyer a la carte graphique.



* Distance d’affichage: bien la encore, plus t’affiches loin, plus t’affiches d’objets a l’ecran. C’est un melange des deux points precendants.



Un tres bon exemple pour demontrer mes dires serait Arma 2. Si tu n’as jamais joue, tu as une version gratuite (arma 2 free) pour te faire une opinion. Lance GPU-z en arriere pour tracker l’utilisation GPU. Ensuite, dans Arma 2, tu peux tweaker la distance de rendu et /ou la qualite des objets. Bien crois moi qu’a 10km de rendu, le GPU se tourne les pouces, parce que justement, le CPU a trop de boulot.

Pour ceux qui ont des SLIs, y a aussi un autre indicateur. Nvidia propose d’afficher une jauge d’utilisation SLI. Dans les jeux qui sont CPU limited, la jauge est quasi au minimum.







Tout à fait d’accord. Par contre la plupart des options que tu nommes ne sont jamais implantées dans un jeu.



Je n’ai jamais vu l’option pour réduire la physique. Je n’ai jamais vu d’option pour réduire le nombre d’objets (sauf GTA avec le nbs de voitures).



J’en ai vu pour la qualité des objets, mais ce ne sont trop souvent que des textures différentes (basse définition vs haute définition).



Pour la distance d’affichage, il faut voir comment elle est gérée aussi. C’est certain que si l’AI et la physique des jeux est aussi calculé et si tous les petits objets sont aussi calculés, ça demande rapidement un monstre de puissance (on tombe dans l’exponentielle). Une distance d’affichage bien fait comme AC ou GTA remplit les attentes de la plupart des joueurs sans trop demander de CPU supplémentaire.



Je ne crois tout de même pas que ça explique la différence entre un i7 et un phenom, sauf bien sur pour monter en image seconde. Le phenom devrait faire du 30 fps et le i7 du 60+



Reste que j’aimerai voir les développeurs enfin mettre des options spécifiques CPU intensives.


votre avatar







RDeluxe a écrit :



Attention, ton exemple sur Wow n’est pas bien choisi ! La carte de Wow n’est pas “générée” par ton PC, à vrai dire celui ci fait bêtement du loading d’un monde déjà généré à 100% par le serveur. C’est une des raisons de la “faible” consommation CPU des MMO en général : aucune (ou presque) éléments du monde n’est géré par la machine du joueur. Le CPU peut à la limite servir pour quelques calculs graphiques, et encore.







Oui, terme mal choisi, je voulais dire chargement. Mais l’exemple reste bon à mon avis car peu de jeux font vraiment de la génération de map.







RDeluxe a écrit :



Y a de gros, gros progrès à faire en terme d’IA, autonomie des PNJ, etc. Un jeu comme Watchdog est une parfait exemple de ce genre d’utilisation.







J’avoue ne pas avoir regardé les détails du jeu, ça reste une bonne nouvelle.







RDeluxe a écrit :



Faisant partie de ce petit monde







Dev en général ou dev jeux vidéo ?







RDeluxe a écrit :



Autre exemple qui me met hors de moi : l’optimisation CPU de Civ5. Ca s’est améliorer avec les derniers patchs, mais pour un jeu tour/tour avoir des chargements de plus d’une minute sur une config à base de i5 3570k c’est pas normal. M’est avis que y a pas (ou presque) d’opti multi thread digne de ce nom.







Vu que c’est du tour à tour séquentiel, c’est peut-être pas ce qui ce parallélise le mieux ? Mais c’est vrai que ce genre de jeu est souvent ultra lent pour l’I.A. (j’ai retenté Heart Of Iron 3 y a pas longtemps et c’était encore la plaie sur un PC pourtant très correct).


votre avatar







NeoSlaaV a écrit :



Un autre facteur qui peut impacter fortement le CPU est la qualité de la simulation physique. On peut influer par exemple sur le pas temporel de la simulation







Tout à fait d’accord, mais nomme moi un jeu qui te laisse choisir la qualité de la simulation physique ?



SI watch dogs le fait je dis bravo <img data-src=" />


votre avatar

Est-ce que ça va tourner sur mon bi-proc Intel Xeon E5-4650, 128Go de Ram et mon quad SLI de GeForce GTX TITAN ? <img data-src=" />



<img data-src=" />

votre avatar

Un jeu codé avec à la truelle à n’en pas douté et les spec niveau GPU c’est juste un foutage de gueule tellement ça ne veut rien dire, Radeon HD 5850 ok mais HD6000 WTF? une HD6450 ça ira?



Faut espéré que la nouvelle API d’AMD marche histoire que les spec requisse pour les jeux pc soient moins délirante.



Ce serait bien aussi que les éditeurs se mettent à indiquer les conf minimal pour les pc portables parce que bon un i5 de pc portable c’est au mieux au niveau d’un i3 desktop et niveau GPU c’est un peu la même affaire.

votre avatar







taralafifi a écrit :



Est-ce que ça va tourner sur mon bi-proc Intel Xeon E5-4650, 128Go de Ram et mon quad SLI de GeForce GTX TITAN ? <img data-src=" />



<img data-src=" />









Pas avant que Nvidia sorte un driver pour le quad SLI de titan optimisé pour ce jeu <img data-src=" />


votre avatar







Pochi a écrit :



Les perfs de quoi par 5 ? Et combien ça fait de FPS gagnées au final (parce que je ne pense vraiment pas que la PS4 affiche 5 fois les FPS d’un PC actuel) ?







Autant de RAM qu’un PC actuel… Du coup je suis curieux de voir la différence de perf entre du VRAM + HDD vs RAM + SSD.







Le “combien de fps gagnés” est une mauvaise question, le fps est défini par beaucoup d’autres paramètres (aller juste quelques exemples : taille et vitesse de l’edram, vitesse du framebuffer, durée des locks de texture, nombre de shaders, type des shaders, etc). Cela permettra surtout d’avoir des graphismes plus beau (textures dynmiques plus détaillées, meilleurs effets de lumière, véritable calcul dynamique de lumière (pas comme la plupart des jeux qui précalculent absolument tout)) et des post traitement (enfin?) corrects.



Pour le *5, il suffit de comparer l’affichage depuis la vram d’un gpu et depuis la ram en stream. Ben c’est simple l’un met (mini) 5 fois moins de temps.


votre avatar







von-block a écrit :



Je n’ai jamais vu l’option pour réduire la physique. Je n’ai jamais vu d’option pour réduire le nombre d’objets (sauf GTA avec le nbs de voitures).







Les nuages de particules ça fait partie de la physique (D3 et WoW de mémoire) ?


votre avatar







von-block a écrit :



Je n’ai jamais vu l’option pour réduire la physique. Je n’ai jamais vu d’option pour réduire le nombre d’objets (sauf GTA avec le nbs de voitures).







Pour le nombre d’objets, j’ai fréquement vu une option sur la vitesse de disparition des cadravres (CS, L4D…).


votre avatar







taralafifi a écrit :



Est-ce que ça va tourner sur mon bi-proc Intel Xeon E5-4650, 128Go de Ram et mon quad SLI de GeForce GTX TITAN ? <img data-src=" />



<img data-src=" />





En 320x240 16 couleurs ca devrait etre fluide <img data-src=" />


votre avatar

en ce qui concerne les “détails” physique de nombreux jeux permettent le réglage : exemple de mémoire : Diablo 3 et starcraft 2

votre avatar







HarmattanBlow a écrit :



Parce que les deux plateformes n’afficheront pas la même chose.







Tu crois donc que le jeu sera plus beau sur PS4 et Xbox one que sur PC ?



C’est une hypothèse, attendons de voir les tests.



Personnellement je n’y crois pas, mais ce n’est que moi.


votre avatar







Pochi a écrit :



Les nuages de particules ça fait partie de la physique (D3 et WoW de mémoire) ?







De la à expliquer la différence entre un i7 et un phenom ?



Qui sait peut être qu’ils nous réservent une révolution physique, AI et son.


votre avatar







laurentjust4u a écrit :



en ce qui concerne les “détails” physique de nombreux jeux permettent le réglage : exemple de mémoire : Diablo 3 et starcraft 2







Je n’y joue pas <img data-src=" />



Mais en effet Starcraft 2 doit être l’un des jeux le plus CPU limited rapidement


Watch Dogs : la configuration minimale est encore plus musclée que prévu

  • Une petite inflation ?

Fermer