The Witcher 3 : CD Projekt mise tout sur les plateformes next-gen

The Witcher 3 : CD Projekt mise tout sur les plateformes next-gen

Les consoles actuelles seraient incapables de le faire fonctionner

Avatar de l'auteur

Kevin Hottot

Publié dansSociété numérique

05/04/2013
69
The Witcher 3 : CD Projekt mise tout sur les plateformes next-gen

Marcin Iwinski, le PDG de CD Projekt, la firme à l'origine de la plateforme GoodOldGames mais aussi de la saga The Witcher, s'est entretenu avec nos confrères d'Edge Online au sujet du troisième volet de la série. L'homme a affirmé que The Witcher 3 serait un produit réservé aux plateformes next-gen.

  The Wicher 3

 

Démarré depuis maintenant quelque temps, le développement de The Witcher 3 suit son cours. Cependant, les possesseurs de consoles de la génération actuelle risquent de grincer des dents en apprenant que le PDG du studio chargé de créer le jeu vient d'annoncer que The Witcher 3 ne sera pas disponible sur les consoles de cette génération. 

 

« Nous avons clairement dit que The Witcher 3 ne serait disponible que sur les plateformes de prochaine génération. Ce qui est cool avec le PC, c'est qu'il fait perpétuellement partie de la next-gen. Donc je pense que de nombreuses personnes avec de grosses franchises et ayant besoin de toucher beaucoup de monde sont face à un dilemme, et devront faire beaucoup de compromis, qui ne seront pas nécessairement bons pour les joueurs », affirme le dirigeant. 

 

Si du côté de CD Projekt on a choisi de tout miser sur la PlayStation 4 et la prochaine Xbox, de nombreux éditeurs n'ont pas souhaité mettre tous leurs oeufs dans le même panier. Chez Ubisoft, le très attendu Watchdogs sera par exemple disponible sur Xbox 360 et PlayStation 3. Il en est de même pour Blizzard, qui a choisi de porter Diablo III sur PlayStation 3 et 4, certainement pour profiter d'une base de clients plus large. 

 

Cela ne semble toutefois pas être la priorité du studio de Varsovie, qui mise tout sur la qualité de son titre pour attirer les foules. « The Witcher 3 est tellement grand... avec un monde plus grand que celui de Skyrim, et tout ce que nous voulons mettre à l'intérieur, il est juste impossible que nous puissions le faire tourner sur une console actuelle. Il nous faudrait deux ans de travaux pour le porter sur PS3 et 360, pour une expérience qui serait mitigée... On ne ferait jamais un truc pareil » assure le responsable.

 

La patience sera donc de mise avant de pouvoir mettre la main sur The Witcher 3. Aucune date de sortie n'est encore annoncée, et les précommandes ne sont toujours pas ouvertes. Vous pouvez cependant vous inscrire sur le site officiel du jeu pour être prévenu dès l'ouverture de celles-ci.

69
Avatar de l'auteur

Écrit par Kevin Hottot

Tiens, en parlant de ça :

Carte graphique AMD GeForce

Cartes graphiques : 30 ans d’évolution des GPU

Ha… la bonne époque d’un CF de 4870 X2 !

18:10 Hard 12

Google lance son opération de communications Gemini pour rivaliser avec OpenAI

Preprint not PR-print

17:31 IA 5
Ecran bleu de Windows

Linux : le composant systemd se dote d’un écran bleu de la mort

LoL Micro$oft

16:33 Soft 25

Sommaire de l'article

Introduction

Carte graphique AMD GeForce

Cartes graphiques : 30 ans d’évolution des GPU

Hard 12

Google lance son opération de communications Gemini pour rivaliser avec OpenAI

IA 5
Ecran bleu de Windows

Linux : le composant systemd se dote d’un écran bleu de la mort

Soft 25
Une petite fille en train d'apprendre à programmer et hacker logiciels et appareils électroniques

Un roman graphique explique les logiciels libres aux enfants

SoftSociété 17
Nouveautés pour Messenger

Meta lance (enfin) le chiffrement de bout en bout de Messenger, entre autres

Socials 5

#LeBrief : cloud européen, OSIRIS-REx a frôlée la catastrophe, CPU AMD Ryzen 8040

Windows en 2024 : beaucoup d’IA, mais pas forcément un « 12 »

Soft 18
Einstein avec des qubits en arrière plan

Informatique quantique, qubits : avez-vous les bases ?

HardScience 9
Notifications iPhone

Surveillance des notifications : un sénateur américain demande la fin du secret

DroitSécu 15

En ligne, les promos foireuses restent d’actualité

DroitWeb 19

#LeBrief : modalité des amendes RGPD, cyberattaque agricole, hallucinations d’Amazon Q, 25 ans d’ISS

Logo Twitch

Citant des « coûts prohibitifs », Twitch quitte la Corée du Sud

ÉcoWeb 29
Formation aux cryptomonnaies par Binance à Pôle Emploi

Binance fait son marketing pendant des formations sur la blockchain destinées aux chômeurs

Éco 10
Consommation électrique du CERN

L’empreinte écologique CERN en 2022 : 1 215 GWh, 184 173 teqCO₂, 3 234 Ml…

Science 6
station électrique pour voitures

Voitures électriques : dans la jungle, terrible jungle, des bornes de recharge publiques

Société 75

#LeBrief : intelligence artificielle à tous les étages, fichier biométrique EURODAC

KDE Plasma 6

KDE Plasma 6 a sa première bêta, le tour des nouveautés

Soft 13
Un homme noir regarde la caméra. Sur son visage, des traits blancs suggèrent un traitement algorithmique.

AI Act et reconnaissance faciale : la France interpelée par 45 eurodéputés

DroitSociété 4
Api

La CNIL préconise l’utilisation des API pour le partage de données personnelles entre organismes

SécuSociété 3
Fouet de l’Arcep avec de la fibre

Orange sanctionnée sur la fibre : l’argumentaire de l’opérateur démonté par l’Arcep

DroitWeb 23
Bombes

Israël – Hamas : comment l’IA intensifie les attaques contre Gaza

IA 22

#LeBrief : bande-annonce GTA VI, guerre électronique, Spotify licencie massivement

Poing Dev

Le poing Dev – Round 7

Next 102
Logo de Gaia-X sour la forme d’un arbre, avec la légende : infrastructure de données en forme de réseau

Gaia-X « vit toujours » et « arrive à des étapes très concrètes »

WebSécu 6

Trois consoles portables en quelques semaines

Hard 37
Une tasse estampillée "Keep calm and carry on teaching"

Cyberrésilience : les compromis (provisoires) du trilogue européen

DroitSécu 3

#LeBrief : fuite de tests ADN 23andMe, le milliard pour Android Messages, il y a 30 ans Hubble voyait clair

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Commentaires (69)


kirire
Le 05/04/2013 à 08h05

The Witcher 3 sera un open world ?… Vraiment impatient de voir ce que ça va donner <img data-src=" />


Patatt Abonné
Le 05/04/2013 à 08h07

<img data-src=" />


Azariel Abonné
Le 05/04/2013 à 08h08


Ce qui est cool avec le PC, c’est qu’il fait perpétuellement partie de la next-gen


Lui je l’aime bien <img data-src=" /> Je lui prédit de grandes choses dans la vie


CUlater
Le 05/04/2013 à 08h14


The Witcher 3 est tellement grand… avec un monde plus grand que celui de Skyrim, et tout ce que nous voulons mettre à l’intérieur

Cool d’avoir une concurrence directe entre The Witcher et Skyrim <img data-src=" />


Danytime
Le 05/04/2013 à 08h29

<img data-src=" /> <img data-src=" /> <img data-src=" />


Alameda
Le 05/04/2013 à 08h39

Hmmm…. pas mal vivement qu’on change ces vielles consoles qui nous pourrissent les yeux


Edtech Abonné
Le 05/04/2013 à 08h42

Et la Wii U fait toujours partie de la “middle-gen” pour tous ces gens ?


Thalian54
Le 05/04/2013 à 08h56






Edtech a écrit :

Et la Wii U fait toujours partie de la “middle-gen” pour tous ces gens ?



Je me demandais exactement la même chose..
Est-ce que les futures PS4/XBox720 vont être ‘achement plus puissante que la Wii U ?



pyrignis Abonné
Le 05/04/2013 à 09h10

Dans “plate-forme next-gen” il incluent aussi la steambox?


AirTé
Le 05/04/2013 à 09h10

Grosso-modo la Wii U est équivalente à la gen actuelle. Nintendo ne fait pas la course à la puissance, la société est donc déphasée avec les autres sur ce point. Et d’ailleurs ce n’est pas du tout son intérêt.
Nintendo privilégie les différentes approches de jeu (motion controller, mablette, etc). C’est ce qui fait son “charme” et le pourquoi la boîte n’a pas coulée.

Je ne pense pas u’il soit raisonnable d’essayer de comparer la Wii U à la “next gen”. C’est vraiment à part du reste.


kirire
Le 05/04/2013 à 09h16






Thalian54 a écrit :

Je me demandais exactement la même chose..
Est-ce que les futures PS4/XBox720 vont être ‘achement plus puissante que la Wii U ?


En terme de puissance de calcul, peut-être un peu… Mais la grosse différence sera en bande passante. Y aura que de la GDDR 5 dans la PS4 (6 Go si ma mémoire est bonne), moi avec ma 680 GTX je n’ai “que” 2 Go.
Donc ça veut dire qu’on pourra mettre de grosse texture qui consomme beaucoup de bande passante pour que les jeux soient plus jolies… Je pense que s’ils exploitent réellement cette caractéristique, les PC actuel, même haut de gamme (sauf peut-être la Titan), risque d’avoir un peu de mal face au console nex gen <img data-src=" />
Enfin au début, je pense qu’avec les GeForce 7xx (idem chez AMD) on va vite rattraper le retard <img data-src=" /> Car comme dis dans l’article, les PC sont en permanence “nex gen”… Mais donc la Wii U <img data-src=" />



yvan Abonné
Le 05/04/2013 à 09h20






Edtech a écrit :

Et la Wii U fait toujours partie de la “middle-gen” pour tous ces gens ?


Nan mais je pense qu’il n’envisage même pas d’éditer pour cette merde plate forme vu le public visé habituellement par ses jeux.



js2082
Le 05/04/2013 à 09h21






CUlater a écrit :

Cool d’avoir une concurrence directe entre The Witcher et Skyrim <img data-src=" />



Peut-on vraiment parler de concurrence?

Graphiquement, the Witcher est facilement comparable à Skyrim (sans les mods hein)
Niveau scénario, énorme avantage the Witcher. (y en a un dans Skyrim?<img data-src=" />)
Niveau gameplay, le système de the Witcher est bien mieux pensé (à mon humble avis).

D’ailleurs, je n’ai jamais compris comment les testeurs ont pu mettre les mêmes notes aux 2 jeux. (sans doute à cause de cette histoire de monde ouvert/cloisonné



Blastm
Le 05/04/2013 à 09h21






Thalian54 a écrit :

Je me demandais exactement la même chose..
Est-ce que les futures PS4/XBox720 vont être ‘achement plus puissante que la Wii U ?


vu que la wii U est grosso merdo dans les même eaux que la PS3 et la 360 et que ni sony ni microsoft te dirons que la génération suivante n’apportera rien…. :o

nintendo a choisi de faire du low tech comme avec la wii 1ere du nom, ca garanti aux acheteurs quelques exclus par ci par là mais faut pas qu’ils s’attendent a être systématiquement dans le viseur des multisupports, surtout quand les grands studio mettrons terme à la période de transition :o



yvan Abonné
Le 05/04/2013 à 09h23






kirire a écrit :

En terme de puissance de calcul, peut-être un peu… Mais la grosse différence sera en bande passante. Y aura que de la GDDR 5 dans la PS4 (6 Go si ma mémoire est bonne), moi avec ma 680 GTX je n’ai “que” 2 Go.
Donc ça veut dire qu’on pourra mettre de grosse texture qui consomme beaucoup de bande passante pour que les jeux soient plus jolies… Je pense que s’ils exploitent réellement cette caractéristique, les PC actuel, même haut de gamme (sauf peut-être la Titan), risque d’avoir un peu de mal face au console nex gen <img data-src=" />
Enfin au début, je pense qu’avec les GeForce 7xx (idem chez AMD) on va vite rattraper le retard <img data-src=" /> Car comme dis dans l’article, les PC sont en permanence “nex gen”… Mais donc la Wii U <img data-src=" />


Personnellement c’est le jeu que j’attends (très impatiemment <img data-src=" />) pour calibrer ma prochaine carte graphique.
Sachant que sur PC la gestion de la mémoire est différente, plus de choses peuvent se passer en RAM et sur CPU que sur les consoles il n’est pas certain qu’ils faille l’équivalent d’une titan non plus.



Blastm
Le 05/04/2013 à 09h24






js2082 a écrit :

Graphiquement, the Witcher est facilement comparable à Skyrim (sans les mods hein)
Niveau scénario, énorme avantage the Witcher. (y en a un dans Skyrim?<img data-src=" />)
Niveau gameplay, le système de the Witcher est bien mieux pensé (à mon humble avis). (…)


pour le 1er point, vu ce qu’on en a vu, c’est même parti pour être bien mieux..
pour l’univers n’a en effet rien a y envier…
mais pour le gameplay, vu que witcher 2 n’avais rien a voir avec witcher 1 et qu’ils annoncent encore avoir tout remanié pour le 3, l’est peut-être un peut tôt pour s’avancer :o



Guinnness
Le 05/04/2013 à 09h27

En gros en traduisant la novlangue ça veux plus ou moins dire qu’ils n’ont pas envie de se faire chier à optimiser le jeu correctement pour que ça puisse tourner sur les machines actuelles alors ils vont attendre les prochaines pour avoir la puissance nécessaire pour faire tourner correctement des trucs codés comme des gorets <img data-src=" />


DniMam
Le 05/04/2013 à 09h31

J’arrive juste à le faire tourner avec une 460M sur mon portable que je peux amener partout. Il vient juste d’anoncer que ça ne tournera pas dessus, je vais devoir acquérir une tour à 2000 euros <img data-src=" />


MikeNeko
Le 05/04/2013 à 09h33

Le tout n’est pas d’avoir un espace le plus grand possible mais le remplir de choses intéressantes à découvrir ou faire ! (parceque bon, ils ne vont pas battre Daggerfall 487000 km², 15000 patelins, 750000 NPCs)

J’espère aussi qu’ils termineront l’histoire un peu mieux (car Witcher 2… le dernier segment m’a laissé sur ma fin) .

Enfin bon, moi j’aime bien l’univers et les jeux qu’ils nous ont pondu (avec le bémol de la fin à l’arrache du 2) , du coup j’attends celui là avec intérêt !


Thalian54
Le 05/04/2013 à 09h38






kirire a écrit :





Aaah en effet, merci de la précision <img data-src=" />



Blastm a écrit :





Je pensais que la Wii U serait quand même un “bon chouilla” au dessus de la Ps3/Xbox 360.. Beh dommage alors. Heureusement que les textures ne sont pas garants de la qualité d’un jeu! Quoi que The Witcher 3 a quand même l’air assez kiffant <img data-src=" />



Edtech Abonné
Le 05/04/2013 à 09h46






Thalian54 a écrit :

Aaah en effet, merci de la précision <img data-src=" />



Je pensais que la Wii U serait quand même un “bon chouilla” au dessus de la Ps3/Xbox 360.. Beh dommage alors. Heureusement que les textures ne sont pas garants de la qualité d’un jeu! Quoi que The Witcher 3 a quand même l’air assez kiffant <img data-src=" />



Il raconte n’importe quoi, la Wii U est largement au-dessus de la PS3 mais légèrement en-dessous de la PS4….



HarmattanBlow
Le 05/04/2013 à 09h51






kirire a écrit :

The Witcher 3 sera un open world ?… Vraiment impatient de voir ce que ça va donner <img data-src=" />


Mon petit doigt me dit qu’il s’agira plus d’un monde semi-ouvert que d’un vrai monde ouvert à la Tamriel. Bref, quelque chose de tout de même plus verrouillé, ou regroupé par niveau, etc.



AirTé
Le 05/04/2013 à 09h54






Edtech a écrit :

Il raconte n’importe quoi, la Wii U est largement au-dessus de la PS3 mais légèrement en-dessous de la PS4….


Largement ? <img data-src=" />



kirire
Le 05/04/2013 à 09h59






Edtech a écrit :

Il raconte n’importe quoi, la Wii U est largement au-dessus de la PS3 mais légèrement en-dessous de la PS4….


Au dessus oui (heureusement, la PS3 et la xbox 360 ont quand même fait leurs âges), largement non. Elle sera par contre largement en dessous de nex gen, surtout avec l’unification de mémoire CPU+GPU utilisant la même GDDR5 pour la PS4, ce veut dire moins de transfert entre ces deux composants et surtout une bande passant énorme de 6 Go ! Si la prochaine xbox à choisit la même stratégie technique, ça risque de faire un sacré gap avec la génération actuelle (sinon, si la xbox n’a pas la même caractéristique ça limite l’intérêt étant donné que la plupart des jeux sont développé pour les deux plateformes).



Ares
Le 05/04/2013 à 10h19






js2082 a écrit :

Peut-on vraiment parler de concurrence?


Non …


js2082 a écrit :

D’ailleurs, je n’ai jamais compris comment les testeurs ont pu mettre les mêmes notes aux 2 jeux. (sans doute à cause de cette histoire de monde ouvert/cloisonné


… et c’est même pour ça qu’on peu leur mettre la même note, ils sont différents ! <img data-src=" />



Paladin_Fr
Le 05/04/2013 à 11h53






kirire a écrit :

Au dessus oui (heureusement, la PS3 et la xbox 360 ont quand même fait leurs âges), largement non. Elle sera par contre largement en dessous de nex gen, surtout avec l’unification de mémoire CPU+GPU utilisant la même GDDR5 pour la PS4, ce veut dire moins de transfert entre ces deux composants et surtout une bande passant énorme de 6 Go ! Si la prochaine xbox à choisit la même stratégie technique, ça risque de faire un sacré gap avec la génération actuelle (sinon, si la xbox n’a pas la même caractéristique ça limite l’intérêt étant donné que la plupart des jeux sont développé pour les deux plateformes).




Au dessus ou au dessous ça ne change quasiment rien quand les jeux sont développés pour plusieurs plateformes.
Il y a un nivellement par le bas pour être sur que ça passe partout. C’est devenue très rare les améliorations spécifique qui font que le jeux est plus beau sur tel ou tel console (à part le pc et encore… les portages capcom c’est du copié collé de la version console).

c’est pour ça que witcher 3 ne sera certainement pas calibré pour la wii u.
Par contre assassin creed 4, qui doit sortir sur toutes les machines il me semble, risque d’être quasi identique quelque soit la console (à peu de choses près, il y aura certainement un peu de grain à moudre pour les possesseurs de ps4 et xbox720)



kirire
Le 05/04/2013 à 12h14






Paladin_Fr a écrit :

Au dessus ou au dessous ça ne change quasiment rien quand les jeux sont développés pour plusieurs plateformes.
Il y a un nivellement par le bas pour être sur que ça passe partout. C’est devenue très rare les améliorations spécifique qui font que le jeux est plus beau sur tel ou tel console (à part le pc et encore… les portages capcom c’est du copié collé de la version console).

c’est pour ça que witcher 3 ne sera certainement pas calibré pour la wii u.
Par contre assassin creed 4, qui doit sortir sur toutes les machines il me semble, risque d’être quasi identique quelque soit la console (à peu de choses près, il y aura certainement un peu de grain à moudre pour les possesseurs de ps4 et xbox720)


Tu paraphrases mes propos.



Paladin_Fr
Le 05/04/2013 à 12h43

Pas tout à fait car je suppute qu’un jeux développé sur ps4, xbox720 et wii u auront peu ou prou le même rendu (ce qui est un peu osé de ma part je le reconnais)


von-block
Le 05/04/2013 à 12h55






Paladin_Fr a écrit :

Pas tout à fait car je suppute qu’un jeux développé sur ps4, xbox720 et wii u auront peu ou prou le même rendu (ce qui est un peu osé de ma part je le reconnais)




Et quelle supputation as tu fait pour en arriver à ces conclusion ?



kirire
Le 05/04/2013 à 12h56






Paladin_Fr a écrit :

Pas tout à fait car je suppute qu’un jeux développé sur ps4, xbox720 et wii u auront peu ou prou le même rendu (ce qui est un peu osé de ma part je le reconnais)


Non en fait je pense que tu vas avoir les jeux fait sur les 3 plateformes qui ce mettrons, en effet, au niveau du minorant (la wii U), et les jeux fait sur PS4 et xbox 3 et que “SI” la xbox 3 possède les mêmes caractéristiques que la PS4 avec la communion des espaces mémoire en GDDR 5, là la Wii U n’est même plus en course, mais franchement les PC actuel non plus, faut être réaliste…

Cette vision n’est pas irréaliste, c’est ce qui était fait avec la Wii, beaucoup de développeur développé seulement sur PS3 et xbox 360, délaissant la Wii. Maintenant si la Xbox 3 n’adopte pas cette jonction de mémoire, je doute que beaucoup de développeur s’amuse à adapter leurs jeux aux caractéristiques unique à une seule console.

Comme je disais, dans des prix “raisonnable” (par raisonnable j’entends pas une tesla ou une quadro) pour le moment il n’y a que la Titan qui possède une telle quantité de mémoire et qu’un jeu taillé pour ces consoles, on risque fort de ce sentir à l’étroit sur un 680 gtx qui possède 2 Go de GDDR 5.
Après wait & see <img data-src=" />



yeagermach1
Le 05/04/2013 à 13h09






kirire a écrit :

Non en fait je pense que tu vas avoir les jeux fait sur les 3 plateformes qui ce mettrons, en effet, au niveau du minorant (la wii U), et les jeux fait sur PS4 et xbox 3 et que “SI” la xbox 3 possède les mêmes caractéristiques que la PS4 avec la communion des espaces mémoire en GDDR 5, là la Wii U n’est même plus en course, mais franchement les PC actuel non plus, faut être réaliste…

Cette vision n’est pas irréaliste, c’est ce qui était fait avec la Wii, beaucoup de développeur développé seulement sur PS3 et xbox 360, délaissant la Wii. Maintenant si la Xbox 3 n’adopte pas cette jonction de mémoire, je doute que beaucoup de développeur s’amuse à adapter leurs jeux aux caractéristiques unique à une seule console.

Comme je disais, dans des prix “raisonnable” (par raisonnable j’entends pas une tesla ou une quadro) pour le moment il n’y a que la Titan qui possède une telle quantité de mémoire et qu’un jeu taillé pour ces consoles, on risque fort de ce sentir à l’étroit sur un 680 gtx qui possède 2 Go de GDDR 5.
Après wait & see <img data-src=" />


Ok on a pas 8g de DDR5 mais on a des procs plus puissants, de la ram normal et des carte videos plus puissantes. Cela compense et pas qu’un peu la difference de ram entre console next-gen et PC.



Edtech Abonné
Le 05/04/2013 à 13h28






yeagermach1 a écrit :

Ok on a pas 8g de DDR5 mais on a des procs plus puissants, de la ram normal et des carte videos plus puissantes. Cela compense et pas qu’un peu la difference de ram entre console next-gen et PC.



C’est claire, la PS4 n’arrivera jamais à la cheville de ma bécane actuelle (haut de gamme), faut pas rêver.

Entre mon PC octocore à 4.3GHz, 16Gio de DD3 et une HD7970 Ghz (3Gio de GDDR5) couplée à une GTX650 et la PS4, je donne mon PC grand gagnant ! Et d’ici la fin de vie de la console, ça ne sera plus un fossé mais la fosse des Marianne entre les deux !

Pour ça que ces consoles ne m’intéressent pas. Au moins sur Wii U, j’ai un gameplay différent et Zelda. Pour tout le reste, il y a le PC !



yeagermach1
Le 05/04/2013 à 13h31

Faut pas exagerer non plus, il y a plein de jeux uniquement consoles qui peuvent valoir la peine de les acheter. Meme si pour un meme jeu, je prendrais systematiquement la version PC si dispo.


Edtech Abonné
Le 05/04/2013 à 13h35






yeagermach1 a écrit :

Faut pas exagerer non plus, il y a plein de jeux uniquement consoles qui peuvent valoir la peine de les acheter. Meme si pour un meme jeu, je prendrais systematiquement la version PC si dispo.



Bah en 20 ans, seuls des jeux Nintendo m’on suffisamment tenté pour acheter des consoles. Mais ça pourrait arriver bien sûr !



noraj
Le 05/04/2013 à 13h37

depuis les années 2000 on va dire le pc a toujours été bien plus puissant qu’une console même ceux qui défendaient la ps3 à sa sortie elle était complètement largué par le haut de gamme de l’époque.

La seule chose qui pour moi vaut le coup d’acheter une console c’est bien ses exclues (et jouer à plusieurs en écran splitté mais les jeux qui offrent cette possibilité sont de plus en plus rare cf le dernier ssx et maintenant j’ai 4 manettes sur mon pc ahah)


HarmattanBlow
Le 05/04/2013 à 14h02






kirire a écrit :

mais franchement les PC actuel non plus, faut être réaliste…


Oui et non :
* Les 8Go offrent avant tout la capacité d’utiliser de plus hautes textures simultanément, tu peux toujours tout rééchantilloner à la moitié de la résolution.

* Cela dit les 8Go seront rarement utilisés simultanément et il sera plus fréquent d’avoir 2Go affichés et 6Go prêts à entrer en scène à tel point du niveau ou lors de telle anim. La RAM convient aussi bien pour ça, même pas besoin de rééchantilloner.

* Passés les 6 premiers mois de ventes toutes les capacités de production installées seront disponibles dans les usines et les prix de la GDDR5 baisseront rapidement.

* L’architecture unifiée ouvre la voix à des algos qui seraient aujourd’hui difficiles à mettre en oeuvre sur un PC du fait de la latence et de la BP. Mais enfin ça resterait assez rare ; la puissance CPU étant limitée on ne va pas gaspiller celle-ci pour faire des tonnes de rendus intermédiaires, de post-prod et compagnie. A part pour un ou deux jeux, je n’imagine pas que ça fasse grande différence.

* La puissance CPU et GPU correspondent à un PC actuel de médiocre et moyenne gamme, respectivement. En pratique cela équivaut à plus que ça grâce à l’homogénéité de la plateforme, le contrôle bas-niveau sur le GPU, la possibilité de diviser efficacement le GPU en calcul et graphismes, et autres raffinements de la PS4.

Bref, ça dépendra des jeux. Au doigt mouillé je dirais que la très grande partie tourneront bien sur un bon PC actuel à condition d’utiliser la même résolution pourrie que sur télé. Pour les autres il faudra baisser les options ou mettre à jour le PC. Enfin quelques rares curiosités dans les années à venir pourraient rester hors de portée. Mais l’un dans l’autre le PC reprendra vite le dessus.



Paladin_Fr
Le 05/04/2013 à 14h08

Ouais enfin le pc haut de gamme ça coute tout de même très cher (et je parle en terme de surcout par rapport à un pc classique…)

Personnellement je ne me vois plus mettre 200 euro dans une carte graphique.
Et à 200 euro on est pas dans le haut de gamme.


HarmattanBlow
Le 05/04/2013 à 14h16






Paladin_Fr a écrit :

Ouais enfin le pc haut de gamme ça coute tout de même très cher (et je parle en terme de surcout par rapport à un pc classique…)

Personnellement je ne me vois plus mettre 200 euro dans une carte graphique.
Et à 200 euro on est pas dans le haut de gamme.


Aujourd’hui tu dois pouvoir trouver la même puissance GPU que la PS4 pour 150€ seulement. La même puissance CPU coûte 100€. Rajoute 100€ pour 8Go de RAM. Et maintenant augmente le tout pour avoir un truc plus solide vu qu’à puissance égale les jeux seront plus performants sur PS4.

EDIT : Au temps pour moi, le GPU coûte plutôt dans les 300€ aujourd’hui. Bon ben attends un an.



AirTé
Le 05/04/2013 à 14h32

100€ pour 8Go de GDDR5 ? Non.
Comparer la GDDR5 avec la DDR3 des PC actuels, c’est pas franchement ce qui se fait de mieux. De plus, sur PS4 (et sauf changement de dernière minute) la mémoire est unifiée. En gros, la console utilise 8Go de mémoire de carte graphique (enfin, vous avez compris l’idée…) pour la CG et le CPU. La bande passante étant suffisamment élevée pour minimiser l’impact d’un CPU “faiblement” fréquencé.

De plus, les consoles ont un énorme avantage sur le PC, c’est que leur hardware est fixe et connu d’avance. Ce qui permet une optimisation parfaite.

Alors, oui, les consoles next-gen sont seront moins puissantes que les PC haut de gamme. C’est pas le même ordre de prix non plus.
Ce qu’il faut plutôt espérer, c’est que les éditeurs jouent le jeu et optimisent un peu plus les jeux sur PC.


Reparateur
Le 05/04/2013 à 14h51






kirire a écrit :

Au dessus oui (heureusement, la PS3 et la xbox 360 ont quand même fait leurs âges), largement non. Elle sera par contre largement en dessous de nex gen, surtout avec l’unification de mémoire CPU+GPU utilisant la même GDDR5 pour la PS4, ce veut dire moins de transfert entre ces deux composants et surtout une bande passant énorme de 6 Go ! Si la prochaine xbox à choisit la même stratégie technique, ça risque de faire un sacré gap avec la génération actuelle (sinon, si la xbox n’a pas la même caractéristique ça limite l’intérêt étant donné que la plupart des jeux sont développé pour les deux plateformes).



pour moi ça veut aussi dire bande passante divisé par 2 parce qu’il faudra se la partager



Reparateur
Le 05/04/2013 à 14h58

j’imagine aussi que sur PC la CG peut accéder à la mémoire centrale assé rapidement via le PCIe


kirire
Le 05/04/2013 à 15h04

Non, sur un PC à 300 euros tu ne peux pas jouer, c’est une légende urbaine ça ! A ce prix, même Windows (qui vaut à lui seul le tiers de cette somme) rame.
Je suis joueur PC, mais faut être réaliste, c’est clairement pas le même prix entre une console et un PC… L’avantage, c’est que le PC peut servir à autre chose que jouer, par exemple je met régulièrement à profit la puissance de ma machine pour des calcules.
Et encore une fois, unifier la mémoire CPU et GPU en GDDR 5 c’est pas anodin et des jeux optimisés pour ce genre d’architecture, on risque d’avoir certaine difficulté sur ordi dans un premier temps… et je parle pas de puissance de calcule là, car oui ma 680 GTX est bien plus puissante que la PS4, ou xbox 3, mais il faudrait pas que ma 680 GTX soit bridé par un flux RAM -&gt; VRAM trop lent car le jeux est conçu pour 6 Go de VRAM et donc elle galère à afficher tout les détails d’une ville ouverte ou autre.
J’ai pas dis que ce sera le cas, je dis juste que c’est une possibilité qui est envisageable. De plus (je me répète) ce cas de figure n’est possible que si la xbox 3 possède le même type d’architecture, sinon on s’en fout, les développeur ne vont pas s’amuser à optimiser un jeux en le rendant plus beau juste pour une console <img data-src=" />


HarmattanBlow
Le 05/04/2013 à 15h23






AirTé a écrit :

Comparer la GDDR5 avec la DDR3 des PC actuels, c’est pas franchement ce qui se fait de mieux. De plus, sur PS4 (et sauf changement de dernière minute) la mémoire est unifiée.


J’ai expliqué dans le détail quelques messages au-dessus de celui-ci les conséquences de cette différence d’architecture. Pour les raisons que j’y ai détaillées dans bon nombre de scénarios les 8Go de GDDR5 ne seront pas plus utiles que les 2Go de GDDR5 de l’actuel haut de gamme actuelle sur PC et les 8Go de DDR3 qui vont avec. Dans les autres cas il faudra de toute façon rééchantilloner les textures sur PC.


La bande passante étant suffisamment élevée pour minimiser l’impact d’un CPU “faiblement” fréquencé.

Non ça ne pourrait pas compenser puisque la BP est très rarement une limite pour les CPU aujourd’hui. L’obstacle est bien plus souvent la latence, or celle-ci est encore pire sur la GDDR. L’un dans l’autre la PS4 est extrêmement faible côté CPU. C’est pourquoi les développeurs déporteront de nombreux calculs vers le GPU et c’est à ça que servira surtout la mémoire unifiée sur ces nouvelles consoles, du fait des fréquents aller-retours qui seront nécessaires entre CPU et GPU. La console a été conçue ainsi, ce sera parfois compliqué et limitatif mais enfin l’impact sur les coûts en vaut sans doute la chandelle.

Sur PC en revanche les calculs resteront typiquement en majorité réalisés sur le CPU sans que des aller-retours ne soient nécessaires, si bien que pour la majorité des jeux la dissociation des mémoires CPU et GPU ne sera pas un obstacle.



Reparateur a écrit :

pour moi ça veut aussi dire bande passante divisé par 2 parce qu’il faudra se la partager


Le CPU ne devrait pas peser bien lourd dans la BP.



Reparateur a écrit :

j’imagine aussi que sur PC la CG peut accéder à la mémoire centrale assé rapidement via le PCIe


Non, la latence est très importante, la BP limitée et le partage est donc parfois difficile à réaliser. Sur quelques applications, notamment de calcul pur plutôt que graphiques, c’est un obstacle important. Mais encore une fois je doute que ça compte beaucoup pour les jeux PC pour les raisons expliquées dans ma réponse à AirTé.



kirire a écrit :

Non, sur un PC à 300 euros tu ne peux pas jouer, c’est une légende urbaine ça !


Je n’ai pas dit un PC à 300€. Je me suis borné à lister quelques prix pour montrer qu’on n’a pas non plus besoin de vendre un rein. Il est évident que le jeu sur PC est plus coûteux que le jeu sur consoles, du moins si l’on n’achète un PC que pour ça.



kirire a écrit :

Et encore une fois, unifier la mémoire CPU et GPU en GDDR 5 c’est pas anodin et des jeux optimisés pour ce genre d’architecture, on risque d’avoir certaine difficulté sur ordi dans un premier temps…


Si le jeu est simplement recompilé sans aucune adaptation, ça tournera comme une bouse. Mais replacer les calculs sur le CPU est bien plus facile que de les déporter sur le GPU.


et je parle pas de puissance de calcule là, car oui ma 680 GTX est bien plus puissante que la PS4, ou xbox 3, mais il faudrait pas que ma 680 GTX soit bridé par un flux RAM -&gt; VRAM trop lent car le jeux est conçu pour 6 Go de VRAM

Comme je l’ai déjà écrit, pour certains jeux il faudra réduire la taille des textures jusqu’à ce que nous ayons des cartes à 8Go de RAM. Mais là aussi rien de très sorcier.



Reparateur
Le 05/04/2013 à 16h22

j’comprend pas cette histoire de limite sur PC

le MEgaTexture c’est pour les cornichon?

le pcie 3.0 aussi ?

alors autant en écriture je comprend mais pour la lecture de donnée en mémoire par le GPU j’pense pas qu’il y ais de soucis pour les PC


AxelDG
Le 05/04/2013 à 18h29






kirire a écrit :

Non, sur un PC à 300 euros tu ne peux pas jouer, c’est une légende urbaine ça ! A ce prix, même Windows (qui vaut à lui seul le tiers de cette somme) rame.



J’ai vendu un PC Quad Core Q6600 4 Go de RAM avec une Geforce GTS 8800 512Mo y’a un mois à 300€.
Les jeux des consoles actuels tournent encore très bien dessus.
Et avec une petite CG à 150€ au cul, il se fera une deuxième jeunesse sans problème.




kirire a écrit :

Et encore une fois, unifier la mémoire CPU et GPU en GDDR 5 c’est pas anodin et des jeux optimisés pour ce genre d’architecture, on risque d’avoir certaine difficulté sur ordi dans un premier temps…



Moué, je pense que tu peux garder ta GTX 680 encore un moment…

Les stats de la PS4 me font penser à certaines configs qu’on voit dans les supermarchés :
Les éléments peu couteux (donc la RAM en ce moment) sont boostés de manière complétement disproportionnée par rapport au reste.
C’est un peu comme si on mettait 64Go de RAM sur un Netbook quoi…

C’est bien joli de stocker des Gigaoctets de super textures Ultra HD et super vite… mais si t’as pas un GPU qui arrache tout derrière pour les appliquer aux modèles 3D, ça sert vraiment à que dalle !… à part vendre… <img data-src=" />



HarmattanBlow
Le 05/04/2013 à 18h39






Reparateur a écrit :

j’comprend pas cette histoire de limite sur PC

le MEgaTexture c’est pour les cornichon?

le pcie 3.0 aussi ?

alors autant en écriture je comprend mais pour la lecture de donnée en mémoire par le GPU j’pense pas qu’il y ais de soucis pour les PC


PCIe 3.0 = 32Go/s (contre 16 pour le 2.0). Soit, à 60ips, environ 500Mo par image.




  1. Cette faible bande passante signifie que ce que tu peux dessiner à l’écran est limité par la taille de ta VRAM (mémoire vidéo) : impossible de dire au GPU d’aller à chaque image prendre les 6Go restants en RAM pour les afficher à l’écran, le PCIe est trop lent. La VRAM doit donc contenir tout ce qui est nécessaire au rendu, la RAM ne pouvant servir qu’à stocker ce qui pourrait bientôt servir, ainsi que des données non-destinées à l’affichage.


  2. Imaginons que je crée un jeu de conduite, ces 500 Mo représentent ta bande passante disponible pour ton disque dur SSD (le contrôleur SATA étant branché via PCIe), l’intégralité des données à afficher pour le vallon qui vient d’apparaître au détour de la colline (stocké en RAM si tu n’as pas 8Go de VRAM comme les consoles) et l’ensemble des échanges entre CPU et GPU (par exemple pour les effets de particule de poussière ou la déformation de la carlingue). Si ces 500 Mo sont excédés, le jeu se gèle jusqu’à ce que tout soit terminé et le joueur perçoit une saccade.


  3. La bande passante est une chose, la latence en est une autre et celle du bus PCIe est mauvaise : des dizaines à des centaines de microsecondes selon la direction. En comptant 500 microsecondes pour un aller-retour et puisque le rendu d’une image à 60ips dure 15ms, alors je peux au mieux faire 30 aller-retours de mes données entre le CPU et le GPU pour chaque image. Ça n’est en général pas très important pour les graphismes, mais ça pourrait l’être pour certains calculs complexes réalisés sur le GPU car ceux-ci ne peuvent traiter que des calculs simples et le reste doit être fait sur le CPU, ce qui nécessite des aller-retours fréquents.


    Maintenant, encore une fois, si tu as assez de VRAM (1 à 8Go selon les jeux) pour contenir tout ce qui est nécessaire à une image tu n’as pas le pb n°1. Si tu as carrément assez de VRAM pour contenir toute la scène (probablement 8Go), tu n’as donc plus que des besoins mineurs en bande passante, ce qui t’enlève aussi le pb n°2 dans 99% des cas. Reste le pb n°3 qu’on résout sur PC en faisant beaucoup plus de calculs sur le CPU vu que le nôtre est plus puissant, sauf pour les trois jeux pour lesquels ça ne sera pas possible (parce qu’ils utilisent le GPU pour des trucs cools) et ceux qui auront été adaptés avec les pieds (parce qu’ils sont édités par Bethsoft).



    AxelDG a écrit :

    C’est bien joli de stocker des Gigaoctets de super textures Ultra HD et super vite… mais si t’as pas un GPU qui arrache tout derrière pour les appliquer aux modèles 3D, ça sert vraiment à que dalle !… à part vendre… <img data-src=" />


    Augmenter la taille des textures ne demande pas plus de puissance GPU.



AxelDG
Le 05/04/2013 à 18h44






HarmattanBlow a écrit :

Augmenter la taille des textures ne demande pas plus de puissance GPU.



Oui mais même la plus belle des textures n’aura un rendu crédible sur un polygone à 20 faces… <img data-src=" />



dualboot
Le 05/04/2013 à 19h04

Ce qu’il faut aussi retenir du studio CDProjeck c’est qu’il n’y a pas de DRM ou de connexion permanente à internet pour jouer.
Quand le jeu est de qualité en plus, moi je dis allez y achetez chez eux. <img data-src=" />


HarmattanBlow
Le 05/04/2013 à 19h10






AxelDG a écrit :

Les stats de la PS4 me font penser à certaines configs qu’on voit dans les supermarchés : Les éléments peu couteux (donc la RAM en ce moment) sont boostés de manière complétement disproportionnée par rapport au reste.




AxelDG a écrit :

Oui mais même la plus belle des textures n’aura un rendu crédible sur un polygone à 20 faces… <img data-src=" />


D’abord les polygones seront loin d’être à vingt faces : niveau GPU c’est une belle bête aujourd’hui. Ensuite on a besoin de mémoire pour les textures : celles qu’on voit aujourd’hui sont trop souvent moches car trop petites, on a besoin de plus en plus de couches de textures pour rendre les objets (transluminescence, déformations géométriques, etc) et on utilise de plus en plus de rendus intermédiaires pour la lumière et les ombres (occlusion, ombres, davantage de source lumineuses). Donc 8 Go de mémoire n’étaient pas du luxe ! Loin de là ! En-dessous ça aurait vraiment été décevant, c’est bien plus important qu’un GPU deux fois plus puissant.

Sans parler du fait qu’une mémoire unifiée permet de proposer un CPU plus faiblard tout en permettant de réaliser des effets de particules et de physique poussés : on réduit les coûts sans trop sacrifier les perfs (certains trucs ne seront faisables que sur PC, d’autres seulement sur consoles). Personnellement je trouve que c’est une bonne architecture.



AxelDG
Le 05/04/2013 à 19h19






HarmattanBlow a écrit :

D’abord les polygones seront loin d’être à vingt faces : niveau GPU c’est une belle bête aujourd’hui. Ensuite on a besoin de mémoire pour les textures : celles qu’on voit aujourd’hui sont trop souvent moches car trop petites, on a besoin de plus en plus de couches de textures pour rendre les objets (transluminescence, déformations géométriques, etc) et on utilise de plus en plus de rendus intermédiaires pour la lumière et les ombres (occlusion, ombres, davantage de source lumineuses). Donc 8 Go de mémoire n’étaient pas du luxe ! Loin de là ! En-dessous ça aurait vraiment été décevant, c’est bien plus important qu’un GPU deux fois plus puissant.

Sans parler du fait qu’une mémoire unifiée permet de proposer un CPU plus faiblard tout en permettant de réaliser des effets de particules et de physique poussés : on réduit les coûts sans trop sacrifier les perfs (certains trucs ne seront faisables que sur PC, d’autres seulement sur consoles). Personnellement je trouve que c’est une bonne architecture.



Bien sûr quand je parle de polygone à 20 faces, je caricature… mais tout ce qui concerne effets physiques, décompression vidéo (ça se voit de plus en plus), et je parle même pas du doublement de la puissance de calcul pour une éventuelle 3D, ça prend sur le GPU…

En ce qui me concerne, sachant que les 34 des constructeurs de CG sur PC ne montent pas au delà de 4Go de VRAM et sachant le faible prix que ça coute (y’a quand même un peu des ingénieurs chez eux aussi) je le dis et je le répète, je trouve les stats disproportionnées, oui… <img data-src=" />

Ceci dit, j’admets que tu sembles connaître plus de choses que moi sur le sujet. <img data-src=" />



HarmattanBlow
Le 05/04/2013 à 20h18






AxelDG a écrit :

mais tout ce qui concerne effets physiques, décompression vidéo (ça se voit de plus en plus), et je parle même pas du doublement de la puissance de calcul pour une éventuelle 3D, ça prend sur le GPU…


Concernant le premier point les consoles partent avec un avantage grâce à la mémoire unifiée et au fait que les dévs pourront optimiser grâce à l’homogénéité de la plateforme. Concernant le second point, osef dans un jeu et, en-dehors, il y a tout ce qu’il faut et plus encore même pour une résolution en 4K. Concernant le troisième point, la stéréoscopie, celle-ci peut être approchée sans doubler tous les calculs.

Alors, bien sûr, on a toujours besoin de plus de puissance. Mais comme il faut faire des compromis…


En ce qui me concerne, sachant que les 34 des constructeurs de CG sur PC ne montent pas au delà de 4Go de VRAM et sachant le faible prix que ça coute (y’a quand même un peu des ingénieurs chez eux aussi) je le dis et je le répète, je trouve les stats disproportionnées, oui… <img data-src=" />

Parce que la mémoire vidéo des cartes PC est taillée par rapport aux besoins des jeux PC qui sont dans 95% des cas des adaptations de jeux conçus pour les 256Mo de mémoire de la PS3. Même quand les dévs font l’effort de fournir des textures dans une résolution doublée et d’ajouter des fonctionnalités au moteur, on reste loin des besoins des jeux next-gen.

Et même pour les jeux uniquement sur PC, la premier point fait qu’aujourd’hui 30% des joueurs de Steam ont moins d’1Go de VRAM et 40% ont 1Go. Donc…
<img data-src=" />

Ce n’est donc pas que la VRAM est inutile en soi, c’est que les consoles nous bridaient. Ajouter ou refaire quelques shaders pour profiter de la puissance ne demande pas beaucoup d’efforts. Mais refaire tous les modèles et textures du jeu ainsi que le modèle d’éclairage, c’est refaire le jeu tout entier.



AxelDG
Le 05/04/2013 à 20h43






HarmattanBlow a écrit :

Concernant le premier point les consoles partent avec un avantage grâce à la mémoire unifiée et au fait que les dévs pourront optimiser grâce à l’homogénéité de la plateforme. Concernant le second point, osef dans un jeu et, en-dehors, il y a tout ce qu’il faut et plus encore même pour une résolution en 4K. Concernant le troisième point, la stéréoscopie, celle-ci peut être approchée sans doubler tous les calculs.

Alors, bien sûr, on a toujours besoin de plus de puissance. Mais comme il faut faire des compromis…


Parce que la mémoire vidéo des cartes PC est taillée par rapport aux besoins des jeux PC qui sont dans 95% des cas des adaptations de jeux conçus pour les 256Mo de mémoire de la PS3. Même quand les dévs font l’effort de fournir des textures dans une résolution doublée et d’ajouter des fonctionnalités au moteur, on reste loin des besoins des jeux next-gen.

Et même pour les jeux uniquement sur PC, la premier point fait qu’aujourd’hui 30% des joueurs de Steam ont moins d’1Go de VRAM et 40% ont 1Go. Donc…



Joli argumentaire mais à mon avis tu te fourvoies sur plusieurs choses :
<img data-src=" />Concernant le premier point les consoles partent avec un avantage grâce à la mémoire unifiée
La mémoire unifiée c’est bien mais pas quand ça dure plus de 5 ans… Après t’as l’air d’un con avec ta techno de merde.
D’ailleurs l’explication de la VRAM, elle est là ! Sony espère que sa console va pouvoir durer en cachant la misère d’une techno vieillissante avec de jolies textures… Tout un programme quoi ! Dans 10 ans on a encore les mêmes jeux mais putain les textures elles sont trop HD ! Même si c’est tout carré quand tu colles ta gueule dessus ça pixelise même pas ! <img data-src=" />
<img data-src=" />Parce que la mémoire vidéo des cartes PC est taillée par rapport aux besoins des jeux PC qui sont dans 95%
Tu rêves !!!
Heureusement qu’une petite part d’éditeurs respectent encore le milieu qui les a lancés : The Witcher, Tomb Raider, Far Cry, BattleField, les jeux Blizzard, Bethesda (même s’ils filent un mauvais coton en ce moment) et bien d’autres….

<img data-src=" /> Les 30% avec des PC de merde avec moins de 1 Go de VRAM, ce sera fait.
Ces joueurs là n’acheteront pas plus de console Next Gen que de PC gamer.
C’est débile de prendre cet argument surtout si tu aimes les jeux vidéo…
A moins que tu n’aimes jouer qu’à des Angry Birds, évidemment.



HarmattanBlow
Le 05/04/2013 à 21h05






AxelDG a écrit :

La mémoire unifiée c’est bien mais pas quand ça dure plus de 5 ans… Après t’as l’air d’un con avec ta techno de merde.


Mais si à la place ils avaient mis un CPU 30% plus puissant, ça n’aurait pas ralenti l’obsolescence, au contraire. Ce que tu reproches à Sony en fin de compte ce ne sont pas leurs choix techniques mais la durée de vie des consoles qui est liée à des raisons économiques justifiées (l’amortissement prend plusieurs années), tant pour eux que pour les éditeurs (rupture de cycle, nouveaux investissements nécessaires, etc).


Tu rêves !!!
Heureusement qu’une petite part d’éditeurs respectent encore le milieu qui les a lancés : The Witcher, Tomb Raider, Far Cry, BattleField, les jeux Blizzard, Bethesda (même s’ils filent un mauvais coton en ce moment) et bien d’autres….

The Witcher 2, le dernier Tomb Raider, Far Cry 2, le dernier Battlefield… Tous sont disponibles sur consoles et donc conçus en fonction de cette contrainte des 256 Mo. Quant à Blizzard ils portent Diablo 3 sur consoles et Project Titan est conçu avec les consoles en tête. Les jeux modernes uniquement PC sont rares et le plus petit dénominateur commun impose ses règles.


<img data-src=" /> Les 30% avec des PC de merde avec moins de 1 Go de VRAM, ce sera fait. Ces joueurs là n’acheteront pas plus de console Next Gen que de PC gamer.
C’est débile de prendre cet argument surtout si tu aimes les jeux vidéo…
A moins que tu n’aimes jouer qu’à des Angry Birds, évidemment.

On en revient aux raisons économiques : tu ne peux pas demander aux éditeurs de se priver d’un tiers du marché, donc ils font des jeux PC qui nécessitent 512 Mo de VRAM en basse résolution. Et 1Go à 2 Go en haute résolution en se contentant de doubler la taille des textures sans changer le moteur, ce qui ne change pas tant de choses en soi.

Et puis on peut aimer les jeux vidéos sans avoir 1k à claquer tous les trois ans (et je suis raisonnable). Du père de famille modeste à l’étudiant fauché en passant par l’ado moyen, c’est à chaque fois un effort important pour eux.

Le problème ne serait-il pas simplement que tu attends de Sony et des développeurs qu’ils visent uniquement des joueurs bien équipés ? Malheureusement ceux-ci ne pèsent pas assez lourd au regard des budgets modernes de développement.



AxelDG
Le 05/04/2013 à 21h23

Euh… tu serais pas communiquant chez Sony toi ?






HarmattanBlow a écrit :

The Witcher 2, le dernier Tomb Raider, Far Cry 2, le dernier Battlefield… Tous sont disponibles sur consoles et donc conçus en fonction de cette contrainte des 256 Mo.



Je rajoute à ça Diablo 3… dont j’ai vu les premiers screenshots….
Oué dispo sur console mais putain quand tu mets les différentes versions face aux version PC, t’as juste envie de dégueuler…! <img data-src=" />



HarmattanBlow a écrit :

Et puis on peut aimer les jeux vidéos sans avoir 1k à claquer tous les trois ans (et je suis raisonnable). Du père de famille modeste à l’étudiant fauché en passant par l’ado moyen, c’est à chaque fois un effort important pour eux.



Pas de souci là dessus mais c’est comme le mariage pour tous, c’est pas parce que t’aimes pas ou que tu n’es pas intéressé que tu dois faire chier le monde pour qui c’est capital !

Et ça vaut encore plus dans le cas des jeux vidéos ET EN PARTICULIER SI TU EN BÉNÉFICIE PLUS TARD !!!

Les gens comme toi faudrait les enfermer à vie sur leur machine de merde ! <img data-src=" />



Fuinril
Le 05/04/2013 à 21h55






AxelDG a écrit :

Je rajoute à ça Diablo 3… dont j’ai vu les premiers screenshots….
Oué dispo sur console mais putain quand tu mets les différentes versions face aux version PC, t’as juste envie de dégueuler…! <img data-src=" />



D’un autre côté Diablo 3 est juste laid sur PC. Les modèles sont minables, les textures dégueulent… Alors certes c’est encore plus moche sur PC, mais heureusement qu’il y a des jeux à la fois plus beau et mieux optimisés.




AxelDG a écrit :

Pas de souci là dessus mais c’est comme le mariage pour tous, c’est pas parce que t’aimes pas ou que tu n’es pas intéressé que tu dois faire chier le monde pour qui c’est capital !

Et ça vaut encore plus dans le cas des jeux vidéos ET EN PARTICULIER SI TU EN BÉNÉFICIE PLUS TARD !!!



Sauf que ce que tu ne comprends pas c’est que ça va faire exploser le budget de dev des jeux de vouloir faire des versions avec d’énormes disparités graphiques. A l’heure où malgré le succès le secteur est en crise à cause, justement, de coûts de développement faramineux qui font que même un jeu AAA qui marche plutôt bien ne permet plus à l’éditeur de rentrer dans ses frais tu prends clairement tes désirs pour des réalités.


Bref, en fait, c’est comme ta comparaison moisie : tu prônes l’intérêt général mais en réalité tu ne soutiens que TON petit point de vue que TU considères raisonnable sans jamais te mettre à la place des gens en face ni écouter leurs arguments.



AxelDG
Le 05/04/2013 à 22h02






Fuinril a écrit :

Bref, en fait, c’est comme ta comparaison moisie : tu prônes l’intérêt général mais en réalité tu ne soutiens que TON petit point de vue que TU considères raisonnable sans jamais te mettre à la place des gens en face ni écouter leurs arguments.



EDIT :
En fait je me fous de manière absolument démesurée de ce que tu as argumenté vu que c’est à côté de la plaque.
Et puis au final ça suffira pour moi…



Fuinril
Le 05/04/2013 à 22h06






AxelDG a écrit :

Et toi t’es comme tout ceux qui ont voté notre président actuel…. :
Persuadés de révolutionner le genre en cautionnant les mêmes schémas encore et encore…
Bon t’as un excuse pour toi, c’est qu’on te laisse pas vraiment le choix petit ami consommateur à peu d’initiative… <img data-src=" />



Le truc bien c’est que moi j’ai le droit de vote.

Je sais pourquoi j’ai voté ce que j’ai voté et de ce point de vue je ne suis pas déçu, merci.

Pour le reste, si tu es persuadé que TOI tu peux changer le monde, vas y, va voir une banque, lève 300millions d’euros, développe un jeu capable de tourner sur 40 configs différentes et montre à toute l’industrie que ça peut être rentable.

Sinon, tu fais comme tout le monde et tu exerces ton pouvoir, tu te tais et tu consommes… ou pas… à condition bien entendu d’avoir assez de force de caractère pour résister aux campagnes marketting et à la pression sociale….



AxelDG
Le 05/04/2013 à 22h07






Fuinril a écrit :

Le truc bien c’est que moi j’ai le droit de vote.

Je sais pourquoi j’ai voté ce que j’ai voté et de ce point de vue je ne suis pas déçu, merci.

Pour le reste, si tu es persuadé que TOI tu peux changer le monde, vas y, va voir une banque, lève 300millions d’euros, développe un jeu capable de tourner sur 40 configs différentes et montre à toute l’industrie que ça peut être rentable.

Sinon, tu fais comme tout le monde et tu exerces ton pouvoir, tu te tais et tu consommes… ou pas… à condition bien entendu d’avoir assez de force de caractère pour résister aux campagnes marketting et à la pression sociale….


Autre chose à foutre en fait.. <img data-src=" />



Elwyns
Le 05/04/2013 à 22h20






js2082 a écrit :

Peut-on vraiment parler de concurrence?

Graphiquement, the Witcher est facilement comparable à Skyrim (sans les mods hein)

é



The Witcher 2 était déjà bien plus beau que Skyrim, faut dire que faire tourner à fond The Witcher 2 avec une HD5770 c’était pas possible à moins d’être à 15 fps pour jouer, avec tout les détails etc, mais il ne faut pas oublier que c’était aussi un monde fermer par rapport à Skyrim, bon là j’ai changé pour une HD6870 peut être que Witcher2 passe mieux en ultra high
( à moins que ma mémoire me joue des tours .. ) mais sûr que Witcher 2 en ultra high avait plus d’effet de bloom de lumière et de détails dans les textures et vêtements.
Bon j’ai aussi skyrim bourré de mod mais je trouve pas que le niveau est pareil



Edtech Abonné
Le 08/04/2013 à 07h56






Elwyns a écrit :

The Witcher 2 était déjà bien plus beau que Skyrim, faut dire que faire tourner à fond The Witcher 2 avec une HD5770 c’était pas possible à moins d’être à 15 fps pour jouer, avec tout les détails etc, mais il ne faut pas oublier que c’était aussi un monde fermer par rapport à Skyrim, bon là j’ai changé pour une HD6870 peut être que Witcher2 passe mieux en ultra high
( à moins que ma mémoire me joue des tours .. ) mais sûr que Witcher 2 en ultra high avait plus d’effet de bloom de lumière et de détails dans les textures et vêtements.
Bon j’ai aussi skyrim bourré de mod mais je trouve pas que le niveau est pareil



The Witcher 2 a encore du mal à tourner en tout à fond en 1080p avec une HD7970 GHz Edition. Donc ça me fait rire de lire que les jeux PC sont pensés pour des consoles 10 fois moins puissantes !

Certes, c’est le cas de beaucoup, mais The Witcher 2 ou Tomb Raider n’ont juste rien à voir entre la version PC et la version console ! Et heureusement !



Reparateur
Le 08/04/2013 à 08h25






HarmattanBlow a écrit :

PCIe 3.0 = 32Go/s (contre 16 pour le 2.0). Soit, à 60ips, environ 500Mo par image.




  1. Cette faible bande passante signifie que ce que tu peux dessiner à l’écran est limité par la taille de ta VRAM (mémoire vidéo) : impossible de dire au GPU d’aller à chaque image prendre les 6Go restants en RAM pour les afficher à l’écran, le PCIe est trop lent. La VRAM doit donc contenir tout ce qui est nécessaire au rendu, la RAM ne pouvant servir qu’à stocker ce qui pourrait bientôt servir, ainsi que des données non-destinées à l’affichage.


  2. Imaginons que je crée un jeu de conduite, ces 500 Mo représentent ta bande passante disponible pour ton disque dur SSD (le contrôleur SATA étant branché via PCIe), l’intégralité des données à afficher pour le vallon qui vient d’apparaître au détour de la colline (stocké en RAM si tu n’as pas 8Go de VRAM comme les consoles) et l’ensemble des échanges entre CPU et GPU (par exemple pour les effets de particule de poussière ou la déformation de la carlingue). Si ces 500 Mo sont excédés, le jeu se gèle jusqu’à ce que tout soit terminé et le joueur perçoit une saccade.


  3. La bande passante est une chose, la latence en est une autre et celle du bus PCIe est mauvaise : des dizaines à des centaines de microsecondes selon la direction. En comptant 500 microsecondes pour un aller-retour et puisque le rendu d’une image à 60ips dure 15ms, alors je peux au mieux faire 30 aller-retours de mes données entre le CPU et le GPU pour chaque image. Ça n’est en général pas très important pour les graphismes, mais ça pourrait l’être pour certains calculs complexes réalisés sur le GPU car ceux-ci ne peuvent traiter que des calculs simples et le reste doit être fait sur le CPU, ce qui nécessite des aller-retours fréquents.


    Maintenant, encore une fois, si tu as assez de VRAM (1 à 8Go selon les jeux) pour contenir tout ce qui est nécessaire à une image tu n’as pas le pb n°1. Si tu as carrément assez de VRAM pour contenir toute la scène (probablement 8Go), tu n’as donc plus que des besoins mineurs en bande passante, ce qui t’enlève aussi le pb n°2 dans 99% des cas. Reste le pb n°3 qu’on résout sur PC en faisant beaucoup plus de calculs sur le CPU vu que le nôtre est plus puissant, sauf pour les trois jeux pour lesquels ça ne sera pas possible (parce qu’ils utilisent le GPU pour des trucs cools) et ceux qui auront été adaptés avec les pieds (parce qu’ils sont édités par Bethsoft).


    Augmenter la taille des textures ne demande pas plus de puissance GPU.




    eu dès le début je comprend pas ton raisonnement
    60 ips ou 300 c’est la même
    la carte vas pas loader 300 fois par seconde les texture

    elle a besoin de mémoire pour l’affichage mais pas besoin d’aller chercher 1 giga de texture à chaque rafraichissement

    et certain dev comme id arrive à faire loader depuis ton DD à la CG une texture de 5 giga en streaming de manière transparente



Reparateur
Le 08/04/2013 à 08h26

après c’est sur c’est plus compliqué et la latence fait que pas mal de truc seront impossibles


Reparateur
Le 08/04/2013 à 08h30

“Textures can measure up to 128000×128000 pixels”

voilà un PC peut faire ça avec un simple pcie 8X

donc avec le 32X ont à a de la marge

après les calcule GPU c’est une autre histoire


Reparateur
Le 08/04/2013 à 08h38






Fuinril a écrit :

D’un autre côté Diablo 3 est juste laid sur PC. Les modèles sont minables, les textures dégueulent… Alors certes c’est encore plus moche sur PC, mais heureusement qu’il y a des jeux à la fois plus beau et mieux optimisés.




Sauf que ce que tu ne comprends pas c’est que ça va faire exploser le budget de dev des jeux de vouloir faire des versions avec d’énormes disparités graphiques. A l’heure où malgré le succès le secteur est en crise à cause, justement, de coûts de développement faramineux qui font que même un jeu AAA qui marche plutôt bien ne permet plus à l’éditeur de rentrer dans ses frais tu prends clairement tes désirs pour des réalités.


Bref, en fait, c’est comme ta comparaison moisie : tu prônes l’intérêt général mais en réalité tu ne soutiens que TON petit point de vue que TU considères raisonnable sans jamais te mettre à la place des gens en face ni écouter leurs arguments.



une machine puissante diminue les cout de dev

optimiser un jeux pour le faire passer sur une machine super limité est très compliqué
avoir une plétore de puissance un DD et plein de RAM facilite grandement le boulot
même pour les graphiste

t’a déjà essayé de faire une map pour une vieux jeux genre DUke3D et une map pour le dernier unreal
ça vas juste 1000 fois plus vite et de manière plus simple sur le dernier unreal avec un rendu 50 fois meilleur

bon c’est surtout le coté soft qui fait la différence mais avec le matos d’antan ça marcherais pas



HarmattanBlow
Le 08/04/2013 à 13h59






Reparateur a écrit :

eu dès le début je comprend pas ton raisonnement
60 ips ou 300 c’est la même
la carte vas pas loader 300 fois par seconde les texture


Bonjour.




  1. S’il n’y a pas assez de VRAM pour contenir toutes les textures nécessaires, certaines restent en RAM. Et à chaque image qu’on veut rendre il faut donc échanger des objets entre RAM et VRAM. Dans un tel cas, si, il faut alors recharger N fois par seconde les mêmes textures et autant dire que le PCIe est trop lent pour ça.


  2. Il y a aussi les chargements ponctuels : au détour d’une colline le joueur voit pour la première fois le reste du décor, celui-ci n’était pas chargé jusqu’à maintenant. Si l’envers du décor pèse plus lourd que la bande passante par image, alors il sera impossible de la charger en une 1/60ème de seconde et il y aura donc saccade.


    et certain dev comme id arrive à faire loader depuis ton DD à la CG une texture de 5 giga en streaming de manière transparente



    Reparateur a écrit :

    “Textures can measure up to 128000×128000 pixels” voilà un PC peut faire ça avec un simple pcie 8X


    128000x128000 peut sembler énorme mais ça ne l’est pas. Quelle est la résolution ? 1cm² = 1 pixel. C’est assez grossier et pourtant ça ne remplit que des niveaux de 1,28km de côté. Applique la même méthode à un Elder Scrolls et il te faudrait une texture de centaines de gigaoctets.

    Et puis une texture c’est une chose mais pour donner à n’importe quel objet une apparence potable il te faut entre 2 et 8 textures selon le type d’objet et le niveau techno du moteur

    Enfin note que le moteur d’ID a peut-être des textures de 128kx128k mais le bus PCIe ne permet pas de la charger suffisamment rapidement et la VRAM ne peut pas la contenir entièrement. Soit les reliefs de la carte ont été conçus pour éliminer les endroits depuis lesquels le nombre de textures à charger par 1/60ème de seconde deviendrait trop important (surplomb depuis lequel toute la map se dévoilerait par ex), soit des textures basses résolutions soient utilisées la plupart du temps.

    PS : Si je ne m’abuse le PCIe 2.1 n’est que deux fois plus lent que le 3x.
    PPS : on peut toujours trouver que 500Mo sont bien assez mais s’il y a 8Go de VRAM c’est bien parce que 500Mo ne sont pas énormes.



Reparateur
Le 08/04/2013 à 14h23

je ne suis pas dev

mais je ne suis pas d’accord avec toi

je pense que les dev ça faire passer bien plus de texture que ne peut en contenir ta CG sans que ça se mettent à ramer sévère
après c’est sur ça doit être bien plus compliqué

comme je l’ai dit + haut + de puissance et ram facilite toujours le boulot


HarmattanBlow
Le 08/04/2013 à 15h05






Reparateur a écrit :

je pense que les dev ça faire passer bien plus de texture que ne peut en contenir ta CG sans que ça se mettent à ramer sévère
après c’est sur ça doit être bien plus compliqué


Les dévs sont malheureusement soumis aux lois de la physique. Il n’y a pas de solution miracle, je te le garantis. Tu peux tricher de multiples façons, notamment avec des textures et maillages basse résolution quand l’objet est vu de loin, mais tu ne peux pas faire passer plus de données que ce que la BP permet ni effectuer un rendu avec plus de données que ce que la VRAM + la BP permettent.

Et pour info je suis dév. Pas dans le JV, en revanche j’ai régulièrement eu à travailler sur des moteurs de rendu et à anticiper les limites des CG.


comme je l’ai dit + haut + de puissance et ram facilite toujours le boulot

En 2000 un bonhomme était fait de 50 polygones avec une texture. Aujourd’hui il y a des textures à foison rien que pour la peau d’un seul visage, les vêtements, les cheveux et les yeux sont des objets individuels, et chacun a un procédé de rendu, d’animation et une gestion physique différents. Pour répondre à ces défis il a fallu décupler la taille des équipes. Le boulot a t-il été facilité ? Oui par certains côtés mais par d’autres il a été complexifié.



Reparateur
Le 08/04/2013 à 16h06

je parle du boulot de programmeur

c’est plus facile de coder un truc avec aucune limite hardware qu’un truc avec un hardware limité

c’est une question de bon sens


HarmattanBlow
Le 08/04/2013 à 16h12






Reparateur a écrit :

je parle du boulot de programmeur

c’est plus facile de coder un truc avec aucune limite hardware qu’un truc avec un hardware limité

c’est une question de bon sens


Oui, développeur = programmeur.
Mais tu as toujours des limites hardware et plus celles-ci augmentent, plus les besoins augmentent. D’ailleurs c’est bien le but : faire davantage de choses.

Quelle que soit la génération, le programmeur en a bavé pour rester dans les limites rendues possibles par le matériel.