Connexion
Abonnez-vous

The Witcher 3 : CD Projekt mise tout sur les plateformes next-gen

Les consoles actuelles seraient incapables de le faire fonctionner

The Witcher 3 : CD Projekt mise tout sur les plateformes next-gen

Le 05 avril 2013 à 08h00

Marcin Iwinski, le PDG de CD Projekt, la firme à l'origine de la plateforme GoodOldGames mais aussi de la saga The Witcher, s'est entretenu avec nos confrères d'Edge Online au sujet du troisième volet de la série. L'homme a affirmé que The Witcher 3 serait un produit réservé aux plateformes next-gen.

  The Wicher 3

 

Démarré depuis maintenant quelque temps, le développement de The Witcher 3 suit son cours. Cependant, les possesseurs de consoles de la génération actuelle risquent de grincer des dents en apprenant que le PDG du studio chargé de créer le jeu vient d'annoncer que The Witcher 3 ne sera pas disponible sur les consoles de cette génération. 

 

« Nous avons clairement dit que The Witcher 3 ne serait disponible que sur les plateformes de prochaine génération. Ce qui est cool avec le PC, c'est qu'il fait perpétuellement partie de la next-gen. Donc je pense que de nombreuses personnes avec de grosses franchises et ayant besoin de toucher beaucoup de monde sont face à un dilemme, et devront faire beaucoup de compromis, qui ne seront pas nécessairement bons pour les joueurs », affirme le dirigeant. 

 

Si du côté de CD Projekt on a choisi de tout miser sur la PlayStation 4 et la prochaine Xbox, de nombreux éditeurs n'ont pas souhaité mettre tous leurs oeufs dans le même panier. Chez Ubisoft, le très attendu Watchdogs sera par exemple disponible sur Xbox 360 et PlayStation 3. Il en est de même pour Blizzard, qui a choisi de porter Diablo III sur PlayStation 3 et 4, certainement pour profiter d'une base de clients plus large. 

 

Cela ne semble toutefois pas être la priorité du studio de Varsovie, qui mise tout sur la qualité de son titre pour attirer les foules. « The Witcher 3 est tellement grand... avec un monde plus grand que celui de Skyrim, et tout ce que nous voulons mettre à l'intérieur, il est juste impossible que nous puissions le faire tourner sur une console actuelle. Il nous faudrait deux ans de travaux pour le porter sur PS3 et 360, pour une expérience qui serait mitigée... On ne ferait jamais un truc pareil » assure le responsable.

 

La patience sera donc de mise avant de pouvoir mettre la main sur The Witcher 3. Aucune date de sortie n'est encore annoncée, et les précommandes ne sont toujours pas ouvertes. Vous pouvez cependant vous inscrire sur le site officiel du jeu pour être prévenu dès l'ouverture de celles-ci.

Commentaires (69)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar







Edtech a écrit :



Il raconte n’importe quoi, la Wii U est largement au-dessus de la PS3 mais légèrement en-dessous de la PS4….





Largement ? <img data-src=" />


votre avatar







Edtech a écrit :



Il raconte n’importe quoi, la Wii U est largement au-dessus de la PS3 mais légèrement en-dessous de la PS4….





Au dessus oui (heureusement, la PS3 et la xbox 360 ont quand même fait leurs âges), largement non. Elle sera par contre largement en dessous de nex gen, surtout avec l’unification de mémoire CPU+GPU utilisant la même GDDR5 pour la PS4, ce veut dire moins de transfert entre ces deux composants et surtout une bande passant énorme de 6 Go ! Si la prochaine xbox à choisit la même stratégie technique, ça risque de faire un sacré gap avec la génération actuelle (sinon, si la xbox n’a pas la même caractéristique ça limite l’intérêt étant donné que la plupart des jeux sont développé pour les deux plateformes).


votre avatar







js2082 a écrit :



Peut-on vraiment parler de concurrence?





Non …





js2082 a écrit :



D’ailleurs, je n’ai jamais compris comment les testeurs ont pu mettre les mêmes notes aux 2 jeux. (sans doute à cause de cette histoire de monde ouvert/cloisonné





… et c’est même pour ça qu’on peu leur mettre la même note, ils sont différents ! <img data-src=" />


votre avatar







kirire a écrit :



Au dessus oui (heureusement, la PS3 et la xbox 360 ont quand même fait leurs âges), largement non. Elle sera par contre largement en dessous de nex gen, surtout avec l’unification de mémoire CPU+GPU utilisant la même GDDR5 pour la PS4, ce veut dire moins de transfert entre ces deux composants et surtout une bande passant énorme de 6 Go ! Si la prochaine xbox à choisit la même stratégie technique, ça risque de faire un sacré gap avec la génération actuelle (sinon, si la xbox n’a pas la même caractéristique ça limite l’intérêt étant donné que la plupart des jeux sont développé pour les deux plateformes).









Au dessus ou au dessous ça ne change quasiment rien quand les jeux sont développés pour plusieurs plateformes.

Il y a un nivellement par le bas pour être sur que ça passe partout. C’est devenue très rare les améliorations spécifique qui font que le jeux est plus beau sur tel ou tel console (à part le pc et encore… les portages capcom c’est du copié collé de la version console).



c’est pour ça que witcher 3 ne sera certainement pas calibré pour la wii u.

Par contre assassin creed 4, qui doit sortir sur toutes les machines il me semble, risque d’être quasi identique quelque soit la console (à peu de choses près, il y aura certainement un peu de grain à moudre pour les possesseurs de ps4 et xbox720)


votre avatar







Paladin_Fr a écrit :



Au dessus ou au dessous ça ne change quasiment rien quand les jeux sont développés pour plusieurs plateformes.

Il y a un nivellement par le bas pour être sur que ça passe partout. C’est devenue très rare les améliorations spécifique qui font que le jeux est plus beau sur tel ou tel console (à part le pc et encore… les portages capcom c’est du copié collé de la version console).



c’est pour ça que witcher 3 ne sera certainement pas calibré pour la wii u.

Par contre assassin creed 4, qui doit sortir sur toutes les machines il me semble, risque d’être quasi identique quelque soit la console (à peu de choses près, il y aura certainement un peu de grain à moudre pour les possesseurs de ps4 et xbox720)





Tu paraphrases mes propos.


votre avatar

Pas tout à fait car je suppute qu’un jeux développé sur ps4, xbox720 et wii u auront peu ou prou le même rendu (ce qui est un peu osé de ma part je le reconnais)

votre avatar







Paladin_Fr a écrit :



Pas tout à fait car je suppute qu’un jeux développé sur ps4, xbox720 et wii u auront peu ou prou le même rendu (ce qui est un peu osé de ma part je le reconnais)









Et quelle supputation as tu fait pour en arriver à ces conclusion ?


votre avatar







Paladin_Fr a écrit :



Pas tout à fait car je suppute qu’un jeux développé sur ps4, xbox720 et wii u auront peu ou prou le même rendu (ce qui est un peu osé de ma part je le reconnais)





Non en fait je pense que tu vas avoir les jeux fait sur les 3 plateformes qui ce mettrons, en effet, au niveau du minorant (la wii U), et les jeux fait sur PS4 et xbox 3 et que “SI” la xbox 3 possède les mêmes caractéristiques que la PS4 avec la communion des espaces mémoire en GDDR 5, là la Wii U n’est même plus en course, mais franchement les PC actuel non plus, faut être réaliste…



Cette vision n’est pas irréaliste, c’est ce qui était fait avec la Wii, beaucoup de développeur développé seulement sur PS3 et xbox 360, délaissant la Wii. Maintenant si la Xbox 3 n’adopte pas cette jonction de mémoire, je doute que beaucoup de développeur s’amuse à adapter leurs jeux aux caractéristiques unique à une seule console.



Comme je disais, dans des prix “raisonnable” (par raisonnable j’entends pas une tesla ou une quadro) pour le moment il n’y a que la Titan qui possède une telle quantité de mémoire et qu’un jeu taillé pour ces consoles, on risque fort de ce sentir à l’étroit sur un 680 gtx qui possède 2 Go de GDDR 5.

Après wait & see <img data-src=" />


votre avatar







kirire a écrit :



Non en fait je pense que tu vas avoir les jeux fait sur les 3 plateformes qui ce mettrons, en effet, au niveau du minorant (la wii U), et les jeux fait sur PS4 et xbox 3 et que “SI” la xbox 3 possède les mêmes caractéristiques que la PS4 avec la communion des espaces mémoire en GDDR 5, là la Wii U n’est même plus en course, mais franchement les PC actuel non plus, faut être réaliste…



Cette vision n’est pas irréaliste, c’est ce qui était fait avec la Wii, beaucoup de développeur développé seulement sur PS3 et xbox 360, délaissant la Wii. Maintenant si la Xbox 3 n’adopte pas cette jonction de mémoire, je doute que beaucoup de développeur s’amuse à adapter leurs jeux aux caractéristiques unique à une seule console.



Comme je disais, dans des prix “raisonnable” (par raisonnable j’entends pas une tesla ou une quadro) pour le moment il n’y a que la Titan qui possède une telle quantité de mémoire et qu’un jeu taillé pour ces consoles, on risque fort de ce sentir à l’étroit sur un 680 gtx qui possède 2 Go de GDDR 5.

Après wait & see <img data-src=" />





Ok on a pas 8g de DDR5 mais on a des procs plus puissants, de la ram normal et des carte videos plus puissantes. Cela compense et pas qu’un peu la difference de ram entre console next-gen et PC.


votre avatar







yeagermach1 a écrit :



Ok on a pas 8g de DDR5 mais on a des procs plus puissants, de la ram normal et des carte videos plus puissantes. Cela compense et pas qu’un peu la difference de ram entre console next-gen et PC.







C’est claire, la PS4 n’arrivera jamais à la cheville de ma bécane actuelle (haut de gamme), faut pas rêver.



Entre mon PC octocore à 4.3GHz, 16Gio de DD3 et une HD7970 Ghz (3Gio de GDDR5) couplée à une GTX650 et la PS4, je donne mon PC grand gagnant ! Et d’ici la fin de vie de la console, ça ne sera plus un fossé mais la fosse des Marianne entre les deux !



Pour ça que ces consoles ne m’intéressent pas. Au moins sur Wii U, j’ai un gameplay différent et Zelda. Pour tout le reste, il y a le PC !


votre avatar

Faut pas exagerer non plus, il y a plein de jeux uniquement consoles qui peuvent valoir la peine de les acheter. Meme si pour un meme jeu, je prendrais systematiquement la version PC si dispo.

votre avatar







yeagermach1 a écrit :



Faut pas exagerer non plus, il y a plein de jeux uniquement consoles qui peuvent valoir la peine de les acheter. Meme si pour un meme jeu, je prendrais systematiquement la version PC si dispo.







Bah en 20 ans, seuls des jeux Nintendo m’on suffisamment tenté pour acheter des consoles. Mais ça pourrait arriver bien sûr !


votre avatar

depuis les années 2000 on va dire le pc a toujours été bien plus puissant qu’une console même ceux qui défendaient la ps3 à sa sortie elle était complètement largué par le haut de gamme de l’époque.



La seule chose qui pour moi vaut le coup d’acheter une console c’est bien ses exclues (et jouer à plusieurs en écran splitté mais les jeux qui offrent cette possibilité sont de plus en plus rare cf le dernier ssx et maintenant j’ai 4 manettes sur mon pc ahah)

votre avatar







kirire a écrit :



mais franchement les PC actuel non plus, faut être réaliste…





Oui et non :

* Les 8Go offrent avant tout la capacité d’utiliser de plus hautes textures simultanément, tu peux toujours tout rééchantilloner à la moitié de la résolution.



* Cela dit les 8Go seront rarement utilisés simultanément et il sera plus fréquent d’avoir 2Go affichés et 6Go prêts à entrer en scène à tel point du niveau ou lors de telle anim. La RAM convient aussi bien pour ça, même pas besoin de rééchantilloner.



* Passés les 6 premiers mois de ventes toutes les capacités de production installées seront disponibles dans les usines et les prix de la GDDR5 baisseront rapidement.



* L’architecture unifiée ouvre la voix à des algos qui seraient aujourd’hui difficiles à mettre en oeuvre sur un PC du fait de la latence et de la BP. Mais enfin ça resterait assez rare ; la puissance CPU étant limitée on ne va pas gaspiller celle-ci pour faire des tonnes de rendus intermédiaires, de post-prod et compagnie. A part pour un ou deux jeux, je n’imagine pas que ça fasse grande différence.



* La puissance CPU et GPU correspondent à un PC actuel de médiocre et moyenne gamme, respectivement. En pratique cela équivaut à plus que ça grâce à l’homogénéité de la plateforme, le contrôle bas-niveau sur le GPU, la possibilité de diviser efficacement le GPU en calcul et graphismes, et autres raffinements de la PS4.



Bref, ça dépendra des jeux. Au doigt mouillé je dirais que la très grande partie tourneront bien sur un bon PC actuel à condition d’utiliser la même résolution pourrie que sur télé. Pour les autres il faudra baisser les options ou mettre à jour le PC. Enfin quelques rares curiosités dans les années à venir pourraient rester hors de portée. Mais l’un dans l’autre le PC reprendra vite le dessus.


votre avatar

Ouais enfin le pc haut de gamme ça coute tout de même très cher (et je parle en terme de surcout par rapport à un pc classique…)



Personnellement je ne me vois plus mettre 200 euro dans une carte graphique.

Et à 200 euro on est pas dans le haut de gamme.

votre avatar







Paladin_Fr a écrit :



Ouais enfin le pc haut de gamme ça coute tout de même très cher (et je parle en terme de surcout par rapport à un pc classique…)



Personnellement je ne me vois plus mettre 200 euro dans une carte graphique.

Et à 200 euro on est pas dans le haut de gamme.





Aujourd’hui tu dois pouvoir trouver la même puissance GPU que la PS4 pour 150€ seulement. La même puissance CPU coûte 100€. Rajoute 100€ pour 8Go de RAM. Et maintenant augmente le tout pour avoir un truc plus solide vu qu’à puissance égale les jeux seront plus performants sur PS4.



EDIT : Au temps pour moi, le GPU coûte plutôt dans les 300€ aujourd’hui. Bon ben attends un an.


votre avatar

The Witcher 3 sera un open world ?… Vraiment impatient de voir ce que ça va donner <img data-src=" />

votre avatar

<img data-src=" />

votre avatar



Ce qui est cool avec le PC, c’est qu’il fait perpétuellement partie de la next-gen





Lui je l’aime bien <img data-src=" /> Je lui prédit de grandes choses dans la vie

votre avatar



The Witcher 3 est tellement grand… avec un monde plus grand que celui de Skyrim, et tout ce que nous voulons mettre à l’intérieur



Cool d’avoir une concurrence directe entre The Witcher et Skyrim <img data-src=" />

votre avatar

<img data-src=" /> <img data-src=" /> <img data-src=" />

votre avatar

Hmmm…. pas mal vivement qu’on change ces vielles consoles qui nous pourrissent les yeux

votre avatar

100€ pour 8Go de GDDR5 ? Non.

Comparer la GDDR5 avec la DDR3 des PC actuels, c’est pas franchement ce qui se fait de mieux. De plus, sur PS4 (et sauf changement de dernière minute) la mémoire est unifiée. En gros, la console utilise 8Go de mémoire de carte graphique (enfin, vous avez compris l’idée…) pour la CG et le CPU. La bande passante étant suffisamment élevée pour minimiser l’impact d’un CPU “faiblement” fréquencé.



De plus, les consoles ont un énorme avantage sur le PC, c’est que leur hardware est fixe et connu d’avance. Ce qui permet une optimisation parfaite.



Alors, oui, les consoles next-gen sont seront moins puissantes que les PC haut de gamme. C’est pas le même ordre de prix non plus.

Ce qu’il faut plutôt espérer, c’est que les éditeurs jouent le jeu et optimisent un peu plus les jeux sur PC.

votre avatar







kirire a écrit :



Au dessus oui (heureusement, la PS3 et la xbox 360 ont quand même fait leurs âges), largement non. Elle sera par contre largement en dessous de nex gen, surtout avec l’unification de mémoire CPU+GPU utilisant la même GDDR5 pour la PS4, ce veut dire moins de transfert entre ces deux composants et surtout une bande passant énorme de 6 Go ! Si la prochaine xbox à choisit la même stratégie technique, ça risque de faire un sacré gap avec la génération actuelle (sinon, si la xbox n’a pas la même caractéristique ça limite l’intérêt étant donné que la plupart des jeux sont développé pour les deux plateformes).







pour moi ça veut aussi dire bande passante divisé par 2 parce qu’il faudra se la partager



votre avatar

j’imagine aussi que sur PC la CG peut accéder à la mémoire centrale assé rapidement via le PCIe

votre avatar

Non, sur un PC à 300 euros tu ne peux pas jouer, c’est une légende urbaine ça ! A ce prix, même Windows (qui vaut à lui seul le tiers de cette somme) rame.

Je suis joueur PC, mais faut être réaliste, c’est clairement pas le même prix entre une console et un PC… L’avantage, c’est que le PC peut servir à autre chose que jouer, par exemple je met régulièrement à profit la puissance de ma machine pour des calcules.

Et encore une fois, unifier la mémoire CPU et GPU en GDDR 5 c’est pas anodin et des jeux optimisés pour ce genre d’architecture, on risque d’avoir certaine difficulté sur ordi dans un premier temps… et je parle pas de puissance de calcule là, car oui ma 680 GTX est bien plus puissante que la PS4, ou xbox 3, mais il faudrait pas que ma 680 GTX soit bridé par un flux RAM -&gt; VRAM trop lent car le jeux est conçu pour 6 Go de VRAM et donc elle galère à afficher tout les détails d’une ville ouverte ou autre.

J’ai pas dis que ce sera le cas, je dis juste que c’est une possibilité qui est envisageable. De plus (je me répète) ce cas de figure n’est possible que si la xbox 3 possède le même type d’architecture, sinon on s’en fout, les développeur ne vont pas s’amuser à optimiser un jeux en le rendant plus beau juste pour une console <img data-src=" />

votre avatar







AirTé a écrit :



Comparer la GDDR5 avec la DDR3 des PC actuels, c’est pas franchement ce qui se fait de mieux. De plus, sur PS4 (et sauf changement de dernière minute) la mémoire est unifiée.





J’ai expliqué dans le détail quelques messages au-dessus de celui-ci les conséquences de cette différence d’architecture. Pour les raisons que j’y ai détaillées dans bon nombre de scénarios les 8Go de GDDR5 ne seront pas plus utiles que les 2Go de GDDR5 de l’actuel haut de gamme actuelle sur PC et les 8Go de DDR3 qui vont avec. Dans les autres cas il faudra de toute façon rééchantilloner les textures sur PC.





La bande passante étant suffisamment élevée pour minimiser l’impact d’un CPU “faiblement” fréquencé.



Non ça ne pourrait pas compenser puisque la BP est très rarement une limite pour les CPU aujourd’hui. L’obstacle est bien plus souvent la latence, or celle-ci est encore pire sur la GDDR. L’un dans l’autre la PS4 est extrêmement faible côté CPU. C’est pourquoi les développeurs déporteront de nombreux calculs vers le GPU et c’est à ça que servira surtout la mémoire unifiée sur ces nouvelles consoles, du fait des fréquents aller-retours qui seront nécessaires entre CPU et GPU. La console a été conçue ainsi, ce sera parfois compliqué et limitatif mais enfin l’impact sur les coûts en vaut sans doute la chandelle.



Sur PC en revanche les calculs resteront typiquement en majorité réalisés sur le CPU sans que des aller-retours ne soient nécessaires, si bien que pour la majorité des jeux la dissociation des mémoires CPU et GPU ne sera pas un obstacle.







Reparateur a écrit :



pour moi ça veut aussi dire bande passante divisé par 2 parce qu’il faudra se la partager





Le CPU ne devrait pas peser bien lourd dans la BP.







Reparateur a écrit :



j’imagine aussi que sur PC la CG peut accéder à la mémoire centrale assé rapidement via le PCIe





Non, la latence est très importante, la BP limitée et le partage est donc parfois difficile à réaliser. Sur quelques applications, notamment de calcul pur plutôt que graphiques, c’est un obstacle important. Mais encore une fois je doute que ça compte beaucoup pour les jeux PC pour les raisons expliquées dans ma réponse à AirTé.







kirire a écrit :



Non, sur un PC à 300 euros tu ne peux pas jouer, c’est une légende urbaine ça !





Je n’ai pas dit un PC à 300€. Je me suis borné à lister quelques prix pour montrer qu’on n’a pas non plus besoin de vendre un rein. Il est évident que le jeu sur PC est plus coûteux que le jeu sur consoles, du moins si l’on n’achète un PC que pour ça.







kirire a écrit :



Et encore une fois, unifier la mémoire CPU et GPU en GDDR 5 c’est pas anodin et des jeux optimisés pour ce genre d’architecture, on risque d’avoir certaine difficulté sur ordi dans un premier temps…





Si le jeu est simplement recompilé sans aucune adaptation, ça tournera comme une bouse. Mais replacer les calculs sur le CPU est bien plus facile que de les déporter sur le GPU.





et je parle pas de puissance de calcule là, car oui ma 680 GTX est bien plus puissante que la PS4, ou xbox 3, mais il faudrait pas que ma 680 GTX soit bridé par un flux RAM -&gt; VRAM trop lent car le jeux est conçu pour 6 Go de VRAM



Comme je l’ai déjà écrit, pour certains jeux il faudra réduire la taille des textures jusqu’à ce que nous ayons des cartes à 8Go de RAM. Mais là aussi rien de très sorcier.


votre avatar

j’comprend pas cette histoire de limite sur PC



le MEgaTexture c’est pour les cornichon?



le pcie 3.0 aussi ?



alors autant en écriture je comprend mais pour la lecture de donnée en mémoire par le GPU j’pense pas qu’il y ais de soucis pour les PC

votre avatar







kirire a écrit :



Non, sur un PC à 300 euros tu ne peux pas jouer, c’est une légende urbaine ça ! A ce prix, même Windows (qui vaut à lui seul le tiers de cette somme) rame.







J’ai vendu un PC Quad Core Q6600 4 Go de RAM avec une Geforce GTS 8800 512Mo y’a un mois à 300€.

Les jeux des consoles actuels tournent encore très bien dessus.

Et avec une petite CG à 150€ au cul, il se fera une deuxième jeunesse sans problème.









kirire a écrit :



Et encore une fois, unifier la mémoire CPU et GPU en GDDR 5 c’est pas anodin et des jeux optimisés pour ce genre d’architecture, on risque d’avoir certaine difficulté sur ordi dans un premier temps…







Moué, je pense que tu peux garder ta GTX 680 encore un moment…



Les stats de la PS4 me font penser à certaines configs qu’on voit dans les supermarchés :

Les éléments peu couteux (donc la RAM en ce moment) sont boostés de manière complétement disproportionnée par rapport au reste.

C’est un peu comme si on mettait 64Go de RAM sur un Netbook quoi…



C’est bien joli de stocker des Gigaoctets de super textures Ultra HD et super vite… mais si t’as pas un GPU qui arrache tout derrière pour les appliquer aux modèles 3D, ça sert vraiment à que dalle !… à part vendre… <img data-src=" />


votre avatar







Reparateur a écrit :



j’comprend pas cette histoire de limite sur PC



le MEgaTexture c’est pour les cornichon?



le pcie 3.0 aussi ?



alors autant en écriture je comprend mais pour la lecture de donnée en mémoire par le GPU j’pense pas qu’il y ais de soucis pour les PC





PCIe 3.0 = 32Go/s (contre 16 pour le 2.0). Soit, à 60ips, environ 500Mo par image.





  1. Cette faible bande passante signifie que ce que tu peux dessiner à l’écran est limité par la taille de ta VRAM (mémoire vidéo) : impossible de dire au GPU d’aller à chaque image prendre les 6Go restants en RAM pour les afficher à l’écran, le PCIe est trop lent. La VRAM doit donc contenir tout ce qui est nécessaire au rendu, la RAM ne pouvant servir qu’à stocker ce qui pourrait bientôt servir, ainsi que des données non-destinées à l’affichage.



  2. Imaginons que je crée un jeu de conduite, ces 500 Mo représentent ta bande passante disponible pour ton disque dur SSD (le contrôleur SATA étant branché via PCIe), l’intégralité des données à afficher pour le vallon qui vient d’apparaître au détour de la colline (stocké en RAM si tu n’as pas 8Go de VRAM comme les consoles) et l’ensemble des échanges entre CPU et GPU (par exemple pour les effets de particule de poussière ou la déformation de la carlingue). Si ces 500 Mo sont excédés, le jeu se gèle jusqu’à ce que tout soit terminé et le joueur perçoit une saccade.



  3. La bande passante est une chose, la latence en est une autre et celle du bus PCIe est mauvaise : des dizaines à des centaines de microsecondes selon la direction. En comptant 500 microsecondes pour un aller-retour et puisque le rendu d’une image à 60ips dure 15ms, alors je peux au mieux faire 30 aller-retours de mes données entre le CPU et le GPU pour chaque image. Ça n’est en général pas très important pour les graphismes, mais ça pourrait l’être pour certains calculs complexes réalisés sur le GPU car ceux-ci ne peuvent traiter que des calculs simples et le reste doit être fait sur le CPU, ce qui nécessite des aller-retours fréquents.





    Maintenant, encore une fois, si tu as assez de VRAM (1 à 8Go selon les jeux) pour contenir tout ce qui est nécessaire à une image tu n’as pas le pb n°1. Si tu as carrément assez de VRAM pour contenir toute la scène (probablement 8Go), tu n’as donc plus que des besoins mineurs en bande passante, ce qui t’enlève aussi le pb n°2 dans 99% des cas. Reste le pb n°3 qu’on résout sur PC en faisant beaucoup plus de calculs sur le CPU vu que le nôtre est plus puissant, sauf pour les trois jeux pour lesquels ça ne sera pas possible (parce qu’ils utilisent le GPU pour des trucs cools) et ceux qui auront été adaptés avec les pieds (parce qu’ils sont édités par Bethsoft).







    AxelDG a écrit :



    C’est bien joli de stocker des Gigaoctets de super textures Ultra HD et super vite… mais si t’as pas un GPU qui arrache tout derrière pour les appliquer aux modèles 3D, ça sert vraiment à que dalle !… à part vendre… <img data-src=" />





    Augmenter la taille des textures ne demande pas plus de puissance GPU.


votre avatar







HarmattanBlow a écrit :



Augmenter la taille des textures ne demande pas plus de puissance GPU.







Oui mais même la plus belle des textures n’aura un rendu crédible sur un polygone à 20 faces… <img data-src=" />


votre avatar

Ce qu’il faut aussi retenir du studio CDProjeck c’est qu’il n’y a pas de DRM ou de connexion permanente à internet pour jouer.

Quand le jeu est de qualité en plus, moi je dis allez y achetez chez eux. <img data-src=" />

votre avatar







AxelDG a écrit :



Les stats de la PS4 me font penser à certaines configs qu’on voit dans les supermarchés : Les éléments peu couteux (donc la RAM en ce moment) sont boostés de manière complétement disproportionnée par rapport au reste.









AxelDG a écrit :



Oui mais même la plus belle des textures n’aura un rendu crédible sur un polygone à 20 faces… <img data-src=" />





D’abord les polygones seront loin d’être à vingt faces : niveau GPU c’est une belle bête aujourd’hui. Ensuite on a besoin de mémoire pour les textures : celles qu’on voit aujourd’hui sont trop souvent moches car trop petites, on a besoin de plus en plus de couches de textures pour rendre les objets (transluminescence, déformations géométriques, etc) et on utilise de plus en plus de rendus intermédiaires pour la lumière et les ombres (occlusion, ombres, davantage de source lumineuses). Donc 8 Go de mémoire n’étaient pas du luxe ! Loin de là ! En-dessous ça aurait vraiment été décevant, c’est bien plus important qu’un GPU deux fois plus puissant.



Sans parler du fait qu’une mémoire unifiée permet de proposer un CPU plus faiblard tout en permettant de réaliser des effets de particules et de physique poussés : on réduit les coûts sans trop sacrifier les perfs (certains trucs ne seront faisables que sur PC, d’autres seulement sur consoles). Personnellement je trouve que c’est une bonne architecture.


votre avatar







HarmattanBlow a écrit :



D’abord les polygones seront loin d’être à vingt faces : niveau GPU c’est une belle bête aujourd’hui. Ensuite on a besoin de mémoire pour les textures : celles qu’on voit aujourd’hui sont trop souvent moches car trop petites, on a besoin de plus en plus de couches de textures pour rendre les objets (transluminescence, déformations géométriques, etc) et on utilise de plus en plus de rendus intermédiaires pour la lumière et les ombres (occlusion, ombres, davantage de source lumineuses). Donc 8 Go de mémoire n’étaient pas du luxe ! Loin de là ! En-dessous ça aurait vraiment été décevant, c’est bien plus important qu’un GPU deux fois plus puissant.



Sans parler du fait qu’une mémoire unifiée permet de proposer un CPU plus faiblard tout en permettant de réaliser des effets de particules et de physique poussés : on réduit les coûts sans trop sacrifier les perfs (certains trucs ne seront faisables que sur PC, d’autres seulement sur consoles). Personnellement je trouve que c’est une bonne architecture.







Bien sûr quand je parle de polygone à 20 faces, je caricature… mais tout ce qui concerne effets physiques, décompression vidéo (ça se voit de plus en plus), et je parle même pas du doublement de la puissance de calcul pour une éventuelle 3D, ça prend sur le GPU…



En ce qui me concerne, sachant que les 34 des constructeurs de CG sur PC ne montent pas au delà de 4Go de VRAM et sachant le faible prix que ça coute (y’a quand même un peu des ingénieurs chez eux aussi) je le dis et je le répète, je trouve les stats disproportionnées, oui… <img data-src=" />



Ceci dit, j’admets que tu sembles connaître plus de choses que moi sur le sujet. <img data-src=" />


votre avatar







AxelDG a écrit :



mais tout ce qui concerne effets physiques, décompression vidéo (ça se voit de plus en plus), et je parle même pas du doublement de la puissance de calcul pour une éventuelle 3D, ça prend sur le GPU…





Concernant le premier point les consoles partent avec un avantage grâce à la mémoire unifiée et au fait que les dévs pourront optimiser grâce à l’homogénéité de la plateforme. Concernant le second point, osef dans un jeu et, en-dehors, il y a tout ce qu’il faut et plus encore même pour une résolution en 4K. Concernant le troisième point, la stéréoscopie, celle-ci peut être approchée sans doubler tous les calculs.



Alors, bien sûr, on a toujours besoin de plus de puissance. Mais comme il faut faire des compromis…





En ce qui me concerne, sachant que les 34 des constructeurs de CG sur PC ne montent pas au delà de 4Go de VRAM et sachant le faible prix que ça coute (y’a quand même un peu des ingénieurs chez eux aussi) je le dis et je le répète, je trouve les stats disproportionnées, oui… <img data-src=" />



Parce que la mémoire vidéo des cartes PC est taillée par rapport aux besoins des jeux PC qui sont dans 95% des cas des adaptations de jeux conçus pour les 256Mo de mémoire de la PS3. Même quand les dévs font l’effort de fournir des textures dans une résolution doublée et d’ajouter des fonctionnalités au moteur, on reste loin des besoins des jeux next-gen.



Et même pour les jeux uniquement sur PC, la premier point fait qu’aujourd’hui 30% des joueurs de Steam ont moins d’1Go de VRAM et 40% ont 1Go. Donc…

<img data-src=" />



Ce n’est donc pas que la VRAM est inutile en soi, c’est que les consoles nous bridaient. Ajouter ou refaire quelques shaders pour profiter de la puissance ne demande pas beaucoup d’efforts. Mais refaire tous les modèles et textures du jeu ainsi que le modèle d’éclairage, c’est refaire le jeu tout entier.


votre avatar







HarmattanBlow a écrit :



Concernant le premier point les consoles partent avec un avantage grâce à la mémoire unifiée et au fait que les dévs pourront optimiser grâce à l’homogénéité de la plateforme. Concernant le second point, osef dans un jeu et, en-dehors, il y a tout ce qu’il faut et plus encore même pour une résolution en 4K. Concernant le troisième point, la stéréoscopie, celle-ci peut être approchée sans doubler tous les calculs.



Alors, bien sûr, on a toujours besoin de plus de puissance. Mais comme il faut faire des compromis…





Parce que la mémoire vidéo des cartes PC est taillée par rapport aux besoins des jeux PC qui sont dans 95% des cas des adaptations de jeux conçus pour les 256Mo de mémoire de la PS3. Même quand les dévs font l’effort de fournir des textures dans une résolution doublée et d’ajouter des fonctionnalités au moteur, on reste loin des besoins des jeux next-gen.



Et même pour les jeux uniquement sur PC, la premier point fait qu’aujourd’hui 30% des joueurs de Steam ont moins d’1Go de VRAM et 40% ont 1Go. Donc…







Joli argumentaire mais à mon avis tu te fourvoies sur plusieurs choses :

<img data-src=" />Concernant le premier point les consoles partent avec un avantage grâce à la mémoire unifiée

La mémoire unifiée c’est bien mais pas quand ça dure plus de 5 ans… Après t’as l’air d’un con avec ta techno de merde.

D’ailleurs l’explication de la VRAM, elle est là ! Sony espère que sa console va pouvoir durer en cachant la misère d’une techno vieillissante avec de jolies textures… Tout un programme quoi ! Dans 10 ans on a encore les mêmes jeux mais putain les textures elles sont trop HD ! Même si c’est tout carré quand tu colles ta gueule dessus ça pixelise même pas ! <img data-src=" />

<img data-src=" />Parce que la mémoire vidéo des cartes PC est taillée par rapport aux besoins des jeux PC qui sont dans 95%

Tu rêves !!!

Heureusement qu’une petite part d’éditeurs respectent encore le milieu qui les a lancés : The Witcher, Tomb Raider, Far Cry, BattleField, les jeux Blizzard, Bethesda (même s’ils filent un mauvais coton en ce moment) et bien d’autres….



<img data-src=" /> Les 30% avec des PC de merde avec moins de 1 Go de VRAM, ce sera fait.

Ces joueurs là n’acheteront pas plus de console Next Gen que de PC gamer.

C’est débile de prendre cet argument surtout si tu aimes les jeux vidéo…

A moins que tu n’aimes jouer qu’à des Angry Birds, évidemment.


votre avatar







AxelDG a écrit :



La mémoire unifiée c’est bien mais pas quand ça dure plus de 5 ans… Après t’as l’air d’un con avec ta techno de merde.





Mais si à la place ils avaient mis un CPU 30% plus puissant, ça n’aurait pas ralenti l’obsolescence, au contraire. Ce que tu reproches à Sony en fin de compte ce ne sont pas leurs choix techniques mais la durée de vie des consoles qui est liée à des raisons économiques justifiées (l’amortissement prend plusieurs années), tant pour eux que pour les éditeurs (rupture de cycle, nouveaux investissements nécessaires, etc).





Tu rêves !!!

Heureusement qu’une petite part d’éditeurs respectent encore le milieu qui les a lancés : The Witcher, Tomb Raider, Far Cry, BattleField, les jeux Blizzard, Bethesda (même s’ils filent un mauvais coton en ce moment) et bien d’autres….



The Witcher 2, le dernier Tomb Raider, Far Cry 2, le dernier Battlefield… Tous sont disponibles sur consoles et donc conçus en fonction de cette contrainte des 256 Mo. Quant à Blizzard ils portent Diablo 3 sur consoles et Project Titan est conçu avec les consoles en tête. Les jeux modernes uniquement PC sont rares et le plus petit dénominateur commun impose ses règles.





<img data-src=" /> Les 30% avec des PC de merde avec moins de 1 Go de VRAM, ce sera fait. Ces joueurs là n’acheteront pas plus de console Next Gen que de PC gamer.

C’est débile de prendre cet argument surtout si tu aimes les jeux vidéo…

A moins que tu n’aimes jouer qu’à des Angry Birds, évidemment.



On en revient aux raisons économiques : tu ne peux pas demander aux éditeurs de se priver d’un tiers du marché, donc ils font des jeux PC qui nécessitent 512 Mo de VRAM en basse résolution. Et 1Go à 2 Go en haute résolution en se contentant de doubler la taille des textures sans changer le moteur, ce qui ne change pas tant de choses en soi.



Et puis on peut aimer les jeux vidéos sans avoir 1k à claquer tous les trois ans (et je suis raisonnable). Du père de famille modeste à l’étudiant fauché en passant par l’ado moyen, c’est à chaque fois un effort important pour eux.



Le problème ne serait-il pas simplement que tu attends de Sony et des développeurs qu’ils visent uniquement des joueurs bien équipés ? Malheureusement ceux-ci ne pèsent pas assez lourd au regard des budgets modernes de développement.


votre avatar

Euh… tu serais pas communiquant chez Sony toi ?









HarmattanBlow a écrit :



The Witcher 2, le dernier Tomb Raider, Far Cry 2, le dernier Battlefield… Tous sont disponibles sur consoles et donc conçus en fonction de cette contrainte des 256 Mo.







Je rajoute à ça Diablo 3… dont j’ai vu les premiers screenshots….

Oué dispo sur console mais putain quand tu mets les différentes versions face aux version PC, t’as juste envie de dégueuler…! <img data-src=" />







HarmattanBlow a écrit :



Et puis on peut aimer les jeux vidéos sans avoir 1k à claquer tous les trois ans (et je suis raisonnable). Du père de famille modeste à l’étudiant fauché en passant par l’ado moyen, c’est à chaque fois un effort important pour eux.







Pas de souci là dessus mais c’est comme le mariage pour tous, c’est pas parce que t’aimes pas ou que tu n’es pas intéressé que tu dois faire chier le monde pour qui c’est capital !



Et ça vaut encore plus dans le cas des jeux vidéos ET EN PARTICULIER SI TU EN BÉNÉFICIE PLUS TARD !!!



Les gens comme toi faudrait les enfermer à vie sur leur machine de merde ! <img data-src=" />


votre avatar

Et la Wii U fait toujours partie de la “middle-gen” pour tous ces gens ?

votre avatar







Edtech a écrit :



Et la Wii U fait toujours partie de la “middle-gen” pour tous ces gens ?







Je me demandais exactement la même chose..

Est-ce que les futures PS4/XBox720 vont être ‘achement plus puissante que la Wii U ?


votre avatar

Dans “plate-forme next-gen” il incluent aussi la steambox?

votre avatar

Grosso-modo la Wii U est équivalente à la gen actuelle. Nintendo ne fait pas la course à la puissance, la société est donc déphasée avec les autres sur ce point. Et d’ailleurs ce n’est pas du tout son intérêt.

Nintendo privilégie les différentes approches de jeu (motion controller, mablette, etc). C’est ce qui fait son “charme” et le pourquoi la boîte n’a pas coulée.



Je ne pense pas u’il soit raisonnable d’essayer de comparer la Wii U à la “next gen”. C’est vraiment à part du reste.

votre avatar







Thalian54 a écrit :



Je me demandais exactement la même chose..

Est-ce que les futures PS4/XBox720 vont être ‘achement plus puissante que la Wii U ?





En terme de puissance de calcul, peut-être un peu… Mais la grosse différence sera en bande passante. Y aura que de la GDDR 5 dans la PS4 (6 Go si ma mémoire est bonne), moi avec ma 680 GTX je n’ai “que” 2 Go.

Donc ça veut dire qu’on pourra mettre de grosse texture qui consomme beaucoup de bande passante pour que les jeux soient plus jolies… Je pense que s’ils exploitent réellement cette caractéristique, les PC actuel, même haut de gamme (sauf peut-être la Titan), risque d’avoir un peu de mal face au console nex gen <img data-src=" />

Enfin au début, je pense qu’avec les GeForce 7xx (idem chez AMD) on va vite rattraper le retard <img data-src=" /> Car comme dis dans l’article, les PC sont en permanence “nex gen”… Mais donc la Wii U <img data-src=" />


votre avatar







Edtech a écrit :



Et la Wii U fait toujours partie de la “middle-gen” pour tous ces gens ?





Nan mais je pense qu’il n’envisage même pas d’éditer pour cette merde plate forme vu le public visé habituellement par ses jeux.


votre avatar







CUlater a écrit :



Cool d’avoir une concurrence directe entre The Witcher et Skyrim <img data-src=" />







Peut-on vraiment parler de concurrence?



Graphiquement, the Witcher est facilement comparable à Skyrim (sans les mods hein)

Niveau scénario, énorme avantage the Witcher. (y en a un dans Skyrim?<img data-src=" />)

Niveau gameplay, le système de the Witcher est bien mieux pensé (à mon humble avis).



D’ailleurs, je n’ai jamais compris comment les testeurs ont pu mettre les mêmes notes aux 2 jeux. (sans doute à cause de cette histoire de monde ouvert/cloisonné


votre avatar







Thalian54 a écrit :



Je me demandais exactement la même chose..

Est-ce que les futures PS4/XBox720 vont être ‘achement plus puissante que la Wii U ?





vu que la wii U est grosso merdo dans les même eaux que la PS3 et la 360 et que ni sony ni microsoft te dirons que la génération suivante n’apportera rien…. :o



nintendo a choisi de faire du low tech comme avec la wii 1ere du nom, ca garanti aux acheteurs quelques exclus par ci par là mais faut pas qu’ils s’attendent a être systématiquement dans le viseur des multisupports, surtout quand les grands studio mettrons terme à la période de transition :o


votre avatar







kirire a écrit :



En terme de puissance de calcul, peut-être un peu… Mais la grosse différence sera en bande passante. Y aura que de la GDDR 5 dans la PS4 (6 Go si ma mémoire est bonne), moi avec ma 680 GTX je n’ai “que” 2 Go.

Donc ça veut dire qu’on pourra mettre de grosse texture qui consomme beaucoup de bande passante pour que les jeux soient plus jolies… Je pense que s’ils exploitent réellement cette caractéristique, les PC actuel, même haut de gamme (sauf peut-être la Titan), risque d’avoir un peu de mal face au console nex gen <img data-src=" />

Enfin au début, je pense qu’avec les GeForce 7xx (idem chez AMD) on va vite rattraper le retard <img data-src=" /> Car comme dis dans l’article, les PC sont en permanence “nex gen”… Mais donc la Wii U <img data-src=" />





Personnellement c’est le jeu que j’attends (très impatiemment <img data-src=" />) pour calibrer ma prochaine carte graphique.

Sachant que sur PC la gestion de la mémoire est différente, plus de choses peuvent se passer en RAM et sur CPU que sur les consoles il n’est pas certain qu’ils faille l’équivalent d’une titan non plus.


votre avatar







js2082 a écrit :



Graphiquement, the Witcher est facilement comparable à Skyrim (sans les mods hein)

Niveau scénario, énorme avantage the Witcher. (y en a un dans Skyrim?<img data-src=" />)

Niveau gameplay, le système de the Witcher est bien mieux pensé (à mon humble avis). (…)





pour le 1er point, vu ce qu’on en a vu, c’est même parti pour être bien mieux..

pour l’univers n’a en effet rien a y envier…

mais pour le gameplay, vu que witcher 2 n’avais rien a voir avec witcher 1 et qu’ils annoncent encore avoir tout remanié pour le 3, l’est peut-être un peut tôt pour s’avancer :o


votre avatar

En gros en traduisant la novlangue ça veux plus ou moins dire qu’ils n’ont pas envie de se faire chier à optimiser le jeu correctement pour que ça puisse tourner sur les machines actuelles alors ils vont attendre les prochaines pour avoir la puissance nécessaire pour faire tourner correctement des trucs codés comme des gorets <img data-src=" />

votre avatar

J’arrive juste à le faire tourner avec une 460M sur mon portable que je peux amener partout. Il vient juste d’anoncer que ça ne tournera pas dessus, je vais devoir acquérir une tour à 2000 euros <img data-src=" />

votre avatar

Le tout n’est pas d’avoir un espace le plus grand possible mais le remplir de choses intéressantes à découvrir ou faire ! (parceque bon, ils ne vont pas battre Daggerfall 487000 km², 15000 patelins, 750000 NPCs)



J’espère aussi qu’ils termineront l’histoire un peu mieux (car Witcher 2… le dernier segment m’a laissé sur ma fin) .



Enfin bon, moi j’aime bien l’univers et les jeux qu’ils nous ont pondu (avec le bémol de la fin à l’arrache du 2) , du coup j’attends celui là avec intérêt !

votre avatar







kirire a écrit :











Aaah en effet, merci de la précision <img data-src=" />







Blastm a écrit :











Je pensais que la Wii U serait quand même un “bon chouilla” au dessus de la Ps3/Xbox 360.. Beh dommage alors. Heureusement que les textures ne sont pas garants de la qualité d’un jeu! Quoi que The Witcher 3 a quand même l’air assez kiffant <img data-src=" />


votre avatar







Thalian54 a écrit :



Aaah en effet, merci de la précision <img data-src=" />







Je pensais que la Wii U serait quand même un “bon chouilla” au dessus de la Ps3/Xbox 360.. Beh dommage alors. Heureusement que les textures ne sont pas garants de la qualité d’un jeu! Quoi que The Witcher 3 a quand même l’air assez kiffant <img data-src=" />







Il raconte n’importe quoi, la Wii U est largement au-dessus de la PS3 mais légèrement en-dessous de la PS4….


votre avatar







kirire a écrit :



The Witcher 3 sera un open world ?… Vraiment impatient de voir ce que ça va donner <img data-src=" />





Mon petit doigt me dit qu’il s’agira plus d’un monde semi-ouvert que d’un vrai monde ouvert à la Tamriel. Bref, quelque chose de tout de même plus verrouillé, ou regroupé par niveau, etc.


votre avatar







AxelDG a écrit :



Je rajoute à ça Diablo 3… dont j’ai vu les premiers screenshots….

Oué dispo sur console mais putain quand tu mets les différentes versions face aux version PC, t’as juste envie de dégueuler…! <img data-src=" />







D’un autre côté Diablo 3 est juste laid sur PC. Les modèles sont minables, les textures dégueulent… Alors certes c’est encore plus moche sur PC, mais heureusement qu’il y a des jeux à la fois plus beau et mieux optimisés.









AxelDG a écrit :



Pas de souci là dessus mais c’est comme le mariage pour tous, c’est pas parce que t’aimes pas ou que tu n’es pas intéressé que tu dois faire chier le monde pour qui c’est capital !



Et ça vaut encore plus dans le cas des jeux vidéos ET EN PARTICULIER SI TU EN BÉNÉFICIE PLUS TARD !!!







Sauf que ce que tu ne comprends pas c’est que ça va faire exploser le budget de dev des jeux de vouloir faire des versions avec d’énormes disparités graphiques. A l’heure où malgré le succès le secteur est en crise à cause, justement, de coûts de développement faramineux qui font que même un jeu AAA qui marche plutôt bien ne permet plus à l’éditeur de rentrer dans ses frais tu prends clairement tes désirs pour des réalités.





Bref, en fait, c’est comme ta comparaison moisie : tu prônes l’intérêt général mais en réalité tu ne soutiens que TON petit point de vue que TU considères raisonnable sans jamais te mettre à la place des gens en face ni écouter leurs arguments.


votre avatar







Fuinril a écrit :



Bref, en fait, c’est comme ta comparaison moisie : tu prônes l’intérêt général mais en réalité tu ne soutiens que TON petit point de vue que TU considères raisonnable sans jamais te mettre à la place des gens en face ni écouter leurs arguments.







EDIT :

En fait je me fous de manière absolument démesurée de ce que tu as argumenté vu que c’est à côté de la plaque.

Et puis au final ça suffira pour moi…


votre avatar







AxelDG a écrit :



Et toi t’es comme tout ceux qui ont voté notre président actuel…. :

Persuadés de révolutionner le genre en cautionnant les mêmes schémas encore et encore…

Bon t’as un excuse pour toi, c’est qu’on te laisse pas vraiment le choix petit ami consommateur à peu d’initiative… <img data-src=" />







Le truc bien c’est que moi j’ai le droit de vote.



Je sais pourquoi j’ai voté ce que j’ai voté et de ce point de vue je ne suis pas déçu, merci.



Pour le reste, si tu es persuadé que TOI tu peux changer le monde, vas y, va voir une banque, lève 300millions d’euros, développe un jeu capable de tourner sur 40 configs différentes et montre à toute l’industrie que ça peut être rentable.



Sinon, tu fais comme tout le monde et tu exerces ton pouvoir, tu te tais et tu consommes… ou pas… à condition bien entendu d’avoir assez de force de caractère pour résister aux campagnes marketting et à la pression sociale….


votre avatar







Fuinril a écrit :



Le truc bien c’est que moi j’ai le droit de vote.



Je sais pourquoi j’ai voté ce que j’ai voté et de ce point de vue je ne suis pas déçu, merci.



Pour le reste, si tu es persuadé que TOI tu peux changer le monde, vas y, va voir une banque, lève 300millions d’euros, développe un jeu capable de tourner sur 40 configs différentes et montre à toute l’industrie que ça peut être rentable.



Sinon, tu fais comme tout le monde et tu exerces ton pouvoir, tu te tais et tu consommes… ou pas… à condition bien entendu d’avoir assez de force de caractère pour résister aux campagnes marketting et à la pression sociale….





Autre chose à foutre en fait.. <img data-src=" />


votre avatar







js2082 a écrit :



Peut-on vraiment parler de concurrence?



Graphiquement, the Witcher est facilement comparable à Skyrim (sans les mods hein)



é







The Witcher 2 était déjà bien plus beau que Skyrim, faut dire que faire tourner à fond The Witcher 2 avec une HD5770 c’était pas possible à moins d’être à 15 fps pour jouer, avec tout les détails etc, mais il ne faut pas oublier que c’était aussi un monde fermer par rapport à Skyrim, bon là j’ai changé pour une HD6870 peut être que Witcher2 passe mieux en ultra high

( à moins que ma mémoire me joue des tours .. ) mais sûr que Witcher 2 en ultra high avait plus d’effet de bloom de lumière et de détails dans les textures et vêtements.

Bon j’ai aussi skyrim bourré de mod mais je trouve pas que le niveau est pareil


votre avatar







Elwyns a écrit :



The Witcher 2 était déjà bien plus beau que Skyrim, faut dire que faire tourner à fond The Witcher 2 avec une HD5770 c’était pas possible à moins d’être à 15 fps pour jouer, avec tout les détails etc, mais il ne faut pas oublier que c’était aussi un monde fermer par rapport à Skyrim, bon là j’ai changé pour une HD6870 peut être que Witcher2 passe mieux en ultra high

( à moins que ma mémoire me joue des tours .. ) mais sûr que Witcher 2 en ultra high avait plus d’effet de bloom de lumière et de détails dans les textures et vêtements.

Bon j’ai aussi skyrim bourré de mod mais je trouve pas que le niveau est pareil







The Witcher 2 a encore du mal à tourner en tout à fond en 1080p avec une HD7970 GHz Edition. Donc ça me fait rire de lire que les jeux PC sont pensés pour des consoles 10 fois moins puissantes !



Certes, c’est le cas de beaucoup, mais The Witcher 2 ou Tomb Raider n’ont juste rien à voir entre la version PC et la version console ! Et heureusement !


votre avatar







HarmattanBlow a écrit :



PCIe 3.0 = 32Go/s (contre 16 pour le 2.0). Soit, à 60ips, environ 500Mo par image.





  1. Cette faible bande passante signifie que ce que tu peux dessiner à l’écran est limité par la taille de ta VRAM (mémoire vidéo) : impossible de dire au GPU d’aller à chaque image prendre les 6Go restants en RAM pour les afficher à l’écran, le PCIe est trop lent. La VRAM doit donc contenir tout ce qui est nécessaire au rendu, la RAM ne pouvant servir qu’à stocker ce qui pourrait bientôt servir, ainsi que des données non-destinées à l’affichage.



  2. Imaginons que je crée un jeu de conduite, ces 500 Mo représentent ta bande passante disponible pour ton disque dur SSD (le contrôleur SATA étant branché via PCIe), l’intégralité des données à afficher pour le vallon qui vient d’apparaître au détour de la colline (stocké en RAM si tu n’as pas 8Go de VRAM comme les consoles) et l’ensemble des échanges entre CPU et GPU (par exemple pour les effets de particule de poussière ou la déformation de la carlingue). Si ces 500 Mo sont excédés, le jeu se gèle jusqu’à ce que tout soit terminé et le joueur perçoit une saccade.



  3. La bande passante est une chose, la latence en est une autre et celle du bus PCIe est mauvaise : des dizaines à des centaines de microsecondes selon la direction. En comptant 500 microsecondes pour un aller-retour et puisque le rendu d’une image à 60ips dure 15ms, alors je peux au mieux faire 30 aller-retours de mes données entre le CPU et le GPU pour chaque image. Ça n’est en général pas très important pour les graphismes, mais ça pourrait l’être pour certains calculs complexes réalisés sur le GPU car ceux-ci ne peuvent traiter que des calculs simples et le reste doit être fait sur le CPU, ce qui nécessite des aller-retours fréquents.





    Maintenant, encore une fois, si tu as assez de VRAM (1 à 8Go selon les jeux) pour contenir tout ce qui est nécessaire à une image tu n’as pas le pb n°1. Si tu as carrément assez de VRAM pour contenir toute la scène (probablement 8Go), tu n’as donc plus que des besoins mineurs en bande passante, ce qui t’enlève aussi le pb n°2 dans 99% des cas. Reste le pb n°3 qu’on résout sur PC en faisant beaucoup plus de calculs sur le CPU vu que le nôtre est plus puissant, sauf pour les trois jeux pour lesquels ça ne sera pas possible (parce qu’ils utilisent le GPU pour des trucs cools) et ceux qui auront été adaptés avec les pieds (parce qu’ils sont édités par Bethsoft).





    Augmenter la taille des textures ne demande pas plus de puissance GPU.









    eu dès le début je comprend pas ton raisonnement

    60 ips ou 300 c’est la même

    la carte vas pas loader 300 fois par seconde les texture



    elle a besoin de mémoire pour l’affichage mais pas besoin d’aller chercher 1 giga de texture à chaque rafraichissement



    et certain dev comme id arrive à faire loader depuis ton DD à la CG une texture de 5 giga en streaming de manière transparente


votre avatar

après c’est sur c’est plus compliqué et la latence fait que pas mal de truc seront impossibles

votre avatar

“Textures can measure up to 128000×128000 pixels”



voilà un PC peut faire ça avec un simple pcie 8X



donc avec le 32X ont à a de la marge



après les calcule GPU c’est une autre histoire


votre avatar







Fuinril a écrit :



D’un autre côté Diablo 3 est juste laid sur PC. Les modèles sont minables, les textures dégueulent… Alors certes c’est encore plus moche sur PC, mais heureusement qu’il y a des jeux à la fois plus beau et mieux optimisés.









Sauf que ce que tu ne comprends pas c’est que ça va faire exploser le budget de dev des jeux de vouloir faire des versions avec d’énormes disparités graphiques. A l’heure où malgré le succès le secteur est en crise à cause, justement, de coûts de développement faramineux qui font que même un jeu AAA qui marche plutôt bien ne permet plus à l’éditeur de rentrer dans ses frais tu prends clairement tes désirs pour des réalités.





Bref, en fait, c’est comme ta comparaison moisie : tu prônes l’intérêt général mais en réalité tu ne soutiens que TON petit point de vue que TU considères raisonnable sans jamais te mettre à la place des gens en face ni écouter leurs arguments.







une machine puissante diminue les cout de dev



optimiser un jeux pour le faire passer sur une machine super limité est très compliqué

avoir une plétore de puissance un DD et plein de RAM facilite grandement le boulot

même pour les graphiste



t’a déjà essayé de faire une map pour une vieux jeux genre DUke3D et une map pour le dernier unreal

ça vas juste 1000 fois plus vite et de manière plus simple sur le dernier unreal avec un rendu 50 fois meilleur



bon c’est surtout le coté soft qui fait la différence mais avec le matos d’antan ça marcherais pas



votre avatar







Reparateur a écrit :



eu dès le début je comprend pas ton raisonnement

60 ips ou 300 c’est la même

la carte vas pas loader 300 fois par seconde les texture





Bonjour.




  1. S’il n’y a pas assez de VRAM pour contenir toutes les textures nécessaires, certaines restent en RAM. Et à chaque image qu’on veut rendre il faut donc échanger des objets entre RAM et VRAM. Dans un tel cas, si, il faut alors recharger N fois par seconde les mêmes textures et autant dire que le PCIe est trop lent pour ça.



  2. Il y a aussi les chargements ponctuels : au détour d’une colline le joueur voit pour la première fois le reste du décor, celui-ci n’était pas chargé jusqu’à maintenant. Si l’envers du décor pèse plus lourd que la bande passante par image, alors il sera impossible de la charger en une 1/60ème de seconde et il y aura donc saccade.





    et certain dev comme id arrive à faire loader depuis ton DD à la CG une texture de 5 giga en streaming de manière transparente







    Reparateur a écrit :



    “Textures can measure up to 128000×128000 pixels” voilà un PC peut faire ça avec un simple pcie 8X





    128000x128000 peut sembler énorme mais ça ne l’est pas. Quelle est la résolution ? 1cm² = 1 pixel. C’est assez grossier et pourtant ça ne remplit que des niveaux de 1,28km de côté. Applique la même méthode à un Elder Scrolls et il te faudrait une texture de centaines de gigaoctets.



    Et puis une texture c’est une chose mais pour donner à n’importe quel objet une apparence potable il te faut entre 2 et 8 textures selon le type d’objet et le niveau techno du moteur



    Enfin note que le moteur d’ID a peut-être des textures de 128kx128k mais le bus PCIe ne permet pas de la charger suffisamment rapidement et la VRAM ne peut pas la contenir entièrement. Soit les reliefs de la carte ont été conçus pour éliminer les endroits depuis lesquels le nombre de textures à charger par 1/60ème de seconde deviendrait trop important (surplomb depuis lequel toute la map se dévoilerait par ex), soit des textures basses résolutions soient utilisées la plupart du temps.



    PS : Si je ne m’abuse le PCIe 2.1 n’est que deux fois plus lent que le 3x.

    PPS : on peut toujours trouver que 500Mo sont bien assez mais s’il y a 8Go de VRAM c’est bien parce que 500Mo ne sont pas énormes.


votre avatar

je ne suis pas dev



mais je ne suis pas d’accord avec toi



je pense que les dev ça faire passer bien plus de texture que ne peut en contenir ta CG sans que ça se mettent à ramer sévère

après c’est sur ça doit être bien plus compliqué



comme je l’ai dit + haut + de puissance et ram facilite toujours le boulot

votre avatar







Reparateur a écrit :



je pense que les dev ça faire passer bien plus de texture que ne peut en contenir ta CG sans que ça se mettent à ramer sévère

après c’est sur ça doit être bien plus compliqué





Les dévs sont malheureusement soumis aux lois de la physique. Il n’y a pas de solution miracle, je te le garantis. Tu peux tricher de multiples façons, notamment avec des textures et maillages basse résolution quand l’objet est vu de loin, mais tu ne peux pas faire passer plus de données que ce que la BP permet ni effectuer un rendu avec plus de données que ce que la VRAM + la BP permettent.



Et pour info je suis dév. Pas dans le JV, en revanche j’ai régulièrement eu à travailler sur des moteurs de rendu et à anticiper les limites des CG.





comme je l’ai dit + haut + de puissance et ram facilite toujours le boulot



En 2000 un bonhomme était fait de 50 polygones avec une texture. Aujourd’hui il y a des textures à foison rien que pour la peau d’un seul visage, les vêtements, les cheveux et les yeux sont des objets individuels, et chacun a un procédé de rendu, d’animation et une gestion physique différents. Pour répondre à ces défis il a fallu décupler la taille des équipes. Le boulot a t-il été facilité ? Oui par certains côtés mais par d’autres il a été complexifié.


votre avatar

je parle du boulot de programmeur



c’est plus facile de coder un truc avec aucune limite hardware qu’un truc avec un hardware limité



c’est une question de bon sens

votre avatar







Reparateur a écrit :



je parle du boulot de programmeur



c’est plus facile de coder un truc avec aucune limite hardware qu’un truc avec un hardware limité



c’est une question de bon sens





Oui, développeur = programmeur.

Mais tu as toujours des limites hardware et plus celles-ci augmentent, plus les besoins augmentent. D’ailleurs c’est bien le but : faire davantage de choses.



Quelle que soit la génération, le programmeur en a bavé pour rester dans les limites rendues possibles par le matériel.


The Witcher 3 : CD Projekt mise tout sur les plateformes next-gen

Fermer