La définition d’Assassin’s Creed Unity sur PS4 et Xbox One fait débat
Same player shoot again
Le 07 octobre 2014 à 14h38
5 min
Société numérique
Société
Depuis le lancement des consoles de nouvelle génération le débat fait rage au sujet de leurs capacités techniques, que certains ne résument qu'à la définition native et au taux de rafraichissement qui sont utilisés pour tel ou tel jeu. De son côté, Ubisoft a voulu mettre la PS4 et la Xbox One sur un pied d'égalité avec Assassin's Creed Unity, mais tout ne s'est pas passé comme prévu.
Dans une entrevue avec nos confrères de Videogamer, Vincent Pontbriand, producteur senior chez Ubisoft, a fait une déclaration étonnante : Assassin's Creed Unity fonctionnera avec une définition native de 1600 x 900 pixels et un taux de rafraichissement de 30 images par seconde sur PlayStation 4 et Xbox One, alors que l'opus précédent avait droit à du 1080p, mais seulement sur PS4. Plus surprenant encore, le motif invoqué pour justifier ce choix : « Nous avons décidé de les verrouiller avec les mêmes caractéristiques techniques afin d'éviter tous les débats et ce genre de trucs ».
La partie CPU des consoles serait déjà à la limite
Avant de rentrer dans les détails, il est important de rappeler quel matériel on retrouve dans les PS4 et Xbox One (voir notre dossier). Toutes deux disposent en effet d'un SoC concu par AMD qui exploite une même base, mais n'est pas identique. Toutes deux disposent ainsi de huit cœurs basés sur l'architecture Jaguar, dont seule la fréquence varie entre les deux modèles : 1,6 GHz sur la PS4, et 1,75 GHz sur la Xbox One. Côté GPU, les deux puces partagent la même architecture (GCN) mais ne disposent pas du même nombre d'unités de traitement : 1152 à 800 MHz dans un cas, 768 à 853 MHz dans l'autre.
Si instinctivement on peut penser que c'est la partie chargée des calculs graphiques qui limite le plus souvent le niveau de détail affiché à l'écran, d'après Ubisoft c'est plutôt côté CPU que se trouve le problème. « Techniquement, nous sommes limités par le processeur. Les puces graphiques sont vraiment puissantes, et évidemment les graphismes sont plutôt réussis, mais c'est au CPU de gérer l'intelligence artificielle, le nombre de personnages que l'on voit à l'écran, et tout ça fonctionne en parallèle », explique le responsable.
« Nous avons été rapidement limités par ça et c'est un peu frustrant » poursuit-il. « Nous pensions que l'on pourrait décupler les possibilités de l'intelligence artificielle, avant de réaliser que cela allait être plutôt compliqué. Ce n'est pas le nombre de polygones qui influe sur la fluidité. On pourrait faire fonctionner le jeu à 100 images par seconde s'il n'était question que de graphismes, mais à cause de l'IA, nous sommes limités à 30 ». C'est donc surtout pour cela que les deux consoles auraient droit au même traitement, l'éditeur n'ayant pas non plus cherché plus loin pour éviter les guerres de fans.
Au vu des réactions des joueurs suite à cette entrevue, Ubisoft a d'abord précisé qu'aucune limitation n'a été instaurée dans le but de mettre les deux consoles sur un pied d'égalité. L'éditeur a ensuite précisé à nos confrères d'Eurogamer que « les caractéristiques finales d'Assassin's Creed Unity ne sont pas encore gravées dans le marbre ». Il n'est donc pas à exclure que l'une ou l'autre version du jeu pourra sauter le pas vers le 1080p si cela s'avère finalement possible. On se souviendra d'ailleurs qu'Assassin's Creed IV : Black Flag était passé à cette définition via un patch sur PS4.
Le sacro-saint 1080p est-il vraiment l'élément important ?
Mais est-ce vraiment si important que cela qu’un jeu fonctionne en 1080p à tout prix ? Microsoft a de son côté déjà pris position à ce sujet en expliquant que « le 1080p n’est pas une définition mythique ou parfaite » et que « La fluidité est significativement plus importante dans l'expérience de jeu que la définition ». Une déclaration qui est apparue comme étant plus que controversée dans la mesure où quelques jours plus tard on apprendra que le constructeur a fait le forcing auprès de Blizzard pour que Diablo III ne se contente pas d'une définition de type 900p sur sa console.
Les joueurs, eux, ne l’entendent pas de cette oreille. Pendant plusieurs mois, on leur a expliqué à grand renfort de conférences lors des différents salons que les nouvelles consoles seront capables de rivaliser avec les PC, et de proposer des jeux en Full HD avec une qualité d'image époustouflante. Près d'un an après leur lancement, force est de constater que c’est encore loin d’être le cas, alors que côté PC, on parle de 4K sur un, deux voire trois écrans. On peut donc comprendre leur déception, les constructeurs ayant martelé cet argument marketing pendant de longs mois pour au final ne pas tenir cette promesse, devant composer avec un SoC aux capacités limitées. D'autant plus que le 1080p est désormais la définition native d'une majorité de TV et de moniteurs.
Graphiquement parlant, une telle définition n'est pour autant pas un gage de qualité suffisant. On peut très bien faire fonctionner Pac Man en 1080p, cela ne le rendra pas aussi beau qu'un Crysis 3 en 900p avec les détails au maximum. Pourtant, c'est ce que les constructeurs ont vendu aux joueurs et c'est ce qu'ils attendent d'une console de nouvelle génération. Aux studios donc de s'adapter à cette situation, et faire en sorte de limiter la définition d'un jeu à du 900p ne permettra jamais « d'éviter tous les débats et ce genre de trucs ».
La définition d’Assassin’s Creed Unity sur PS4 et Xbox One fait débat
-
La partie CPU des consoles serait déjà à la limite
-
Le sacro-saint 1080p est-il vraiment l'élément important ?
Commentaires (162)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 07/10/2014 à 15h28
Tout le monde s’astique joyeusement sur la résolution et la puissance console…
Sauf si c’est un gros mensonge de marketeux, ce que je retiens de l’article, c’est que la gestion de IA à l’air de prendre de plus en plus de ressources.
Soit leur IA est pas optimisée. (mais bon vu le nb de personnes sur le jeu ca m’étonnerais)
D’un point de vue gameplay je trouve l’IA largement plus importante que quelques pixels, sans vouloir tacler votre débat stérile.
j’ai l’impression d’être le seul.
Le 07/10/2014 à 15h29
On pourrait faire fonctionner le jeu à 100 images par seconde s’il n’était question que de graphismes, mais à cause de l’IA, nous sommes limités à 30.
Quel est le rapport entre l’IA (gérée par le CPU) et le frame rate (géré par le GPU) ?
Ce n’est pas parce qu’il y a plus d’images par seconde qu’il faut que les ennemis réagissent plus vite, non ?
Sinon, comme dit par d’autres, générer des images à la même résolution que l’écran, c’est mieux. Après, c’est sûr que la qualité graphique dépend aussi de celle des textures et du nombre de polygones, et je veux bien comprendre qu’il puisse y avoir un compromis à trouver.
Le 07/10/2014 à 15h30
Le 07/10/2014 à 15h31
Le 07/10/2014 à 15h31
Le 07/10/2014 à 15h32
Le 07/10/2014 à 15h32
Le 07/10/2014 à 15h34
Le 07/10/2014 à 15h35
Le 07/10/2014 à 15h35
Le 07/10/2014 à 15h38
Le 07/10/2014 à 15h39
J’ouvre une parenthèse. Un jeu ne se résume pas seulement à ses graphismes. C’est pour cela d’ailleurs que je ne suis pas vraiment regardant sur les moteurs graphiques qui sont utilisés dans les jeux vidéos. Mais j’en ai rien à battre que des développeurs utilisent un moteur graphique “ancestral”, du moment qu’ils se rattrapent sur le reste !
Je suis un PCiste, et, franchement, les utilisateurs qui pètent plus haut que le cul en demandant des graphismes à mettre à terre leur configurations à 1500 -2000 euros, quand ce n’est pas plus, commencent sérieusement à me les briser. Je ferme la parenthèse.
Qu’est-ce qu’on s’en branle de la définition d’un jeu, lol ! Du moment qu’on se fait plaisir à y jouer… Je ne dit pas qu’il faut jouer en 800x600 non plus ! Mais là, on débat sur la différence entre du 1600x900 et du 1080p. L’un ou l’autre, c’est vrai que cela va changer la donne….
Le 07/10/2014 à 15h44
Le 07/10/2014 à 15h44
Le 07/10/2014 à 15h45
Le 07/10/2014 à 15h47
Le 07/10/2014 à 16h49
je lis vos commentaires et la xb4 et la PSone, ca fait vraiment pas rever. limite je trouve que les anciennes générations de consoles sont autrement plus intéressantes (la wiiU mise à part). j’ai l’impression que la grande majorité de l’industrie du JV console part dans la course à la résolution, à l’assistanat du joueur, et aux jeux vendus en kit, en améliorant les memes licenses daubiques à l’infini d’année en année sur un air de “viens chez nous, on a les memes jeux qu’en face, mais ici on a de la moquette murale”.
par contre si ca peut nous faire des portages PC enfin optimisés dispos sur steam a 10€ un an plus tard, tant mieux ! je suis pour " />
Le 07/10/2014 à 16h50
Le 07/10/2014 à 16h57
Le 07/10/2014 à 17h01
Le 07/10/2014 à 17h04
Le 07/10/2014 à 17h05
Le 07/10/2014 à 17h08
Le 07/10/2014 à 17h15
Conclusion : plus ton AI est forte et plus tes graphismes sont pourris et inversement. Comme une blonde en fait.
" />
Le 07/10/2014 à 17h19
Le 07/10/2014 à 17h21
Le plus important c’est le 60 fps.
1600x900 ou 1920x1080 peu importe.
Mais il faut 60 fps minimun !
Le 07/10/2014 à 17h31
Mdr oui oui directx 12 va combler le manque d’unités de calculs….. Si ca se trouve grace a directx 12 la x1 affichera du 4k et pulverisera le pc……..
Le 07/10/2014 à 17h31
ayé reparti pour le débat 1080p @60fps, GG \(ony et M\) pour cette connerie marketing…
Le 07/10/2014 à 17h35
" />
Tout ça pour rien.
HS : J’adore la nouvelle interface !! Mais need de nouveaux émoticones !!
Le 07/10/2014 à 19h24
Le 07/10/2014 à 19h34
Faut arrêter de chialer c’était obvious que le nombre de titre en 1080p à 60 ims serait de plus en plus anecdotique … à part les trolls ps4 je vois pas qui d’autres ça peut réellement atteindre dans l’ensemble peu de personnes feront la différence entre du 900p et du 1080p sans qu’on leur montre le pixel flou …
Et bon du 30 ips les gens qui jouent sur console sont habitués et pour le coup spécialement ceux qui étaient sur ps3 alors stop le faux débat ….
Le 07/10/2014 à 19h35
L’image avec la tour Eiffel, elle vient de chez Ubi ?
Le 07/10/2014 à 19h39
/me lit la news
/me se rue goulûment sur la même news chez jv.com
Les commentaires sont conformes à mes attentes " /> " /> " />
Le 07/10/2014 à 19h40
Le 07/10/2014 à 19h41
Question idiote à la place du CPU de la One et de la ps4 on aurait mis le CPU (cell) de la ps3, vu ca puissance il pourrais mieu gérer la physique non?
Le 07/10/2014 à 19h59
Le 07/10/2014 à 20h13
Le 07/10/2014 à 20h30
Le 07/10/2014 à 22h07
J’attendais pas mieux des commentaires de la par de PCistes … oui oui je l’emploi de manière totalement péjorative.
Que Ubisoft se cache derrière l’excuse de la limitation de puissance du CPU pour justifier et faire passer la pilule de la parité des consoles me débecte.
Faut t’il rappeler que la résolution d’un jeu n’a aucun impacte négatifs sur les drawcalls et qu’il peut y avoir un up de la résolution pris en charge par le GPU sans surcoût pour le CPU. Faut il rappeler à Ubisoft que la mémoire est unifier et que le GPU est capable de prendre en charge des calcules dédier au CPU (le GPGPU).
Ils ne veulent tout simplement pas se prendre la tête et Microsoft ayant l’exclusivité marketing du jeu, à fait pression auprès d’Ubisoft pour qu’il n’y ai pas de différences entre les deux versions.
Que cela soit en 900P ou en 1080P dans le fond je m’en cogne, mais que pour des raisons marketing cela impacte sur le jeu et que cela empêche de pleinement utiliser les capacités de la PS4 comme ca été le cas sur Watch Dogs.
Le 08/10/2014 à 05h33
Le 08/10/2014 à 05h36
Le 08/10/2014 à 05h52
Les gens gueulent parcequ’ils n’ont pas du 1080p / 60 ips mais ils sont prêt à jouer à des jeux indie débiles avec des graphismes hideux. Dans l’histoire, ils oublient vite que le jeu vidéo et ça que ce soit sur PC/console/tablette/… ça reste un jeu et que le principal c’est de se faire plaisir sans avoir à insulter les consoleux ou les PCistes.
Le 08/10/2014 à 06h31
Oui la résolution 1080P est importante car les constructeurs, ET les éditeurs ont vendu aux joueurs le “ten eighty P, sixty FPS” avant même la sortie des consoles.
On est en 2014, là où les moniteurs commencent à démocratiser le QHD et UHD, les consoles n’arriveraient même pas à tenir un malheureux HD ?
Qui plus est, 900P, à 30 FPS ? Donc le mec justifie le cut de la résolution pour une fluidité accrue, mais vend du 30 fps ?
Et beh …
Le 08/10/2014 à 06h35
Le 08/10/2014 à 06h39
Juste une question purement Microsoft. On parlait de ‘cloud’ afin d’alléger les charges de calcul sur le CPU (si je ne me trompe pas), mais les fabricants de jeux n’en parlent pas (sauf Forza).
Il me semblait que c’était un peu leur point fort chez Xbox, Ubisoft ne veut pas utiliser ce potentiel?
Le 07/10/2014 à 15h02
On peut très bien faire fonctionner Pac Man en 1080p
et c’est jouable pour un Tetris ou un Lotus Esprit Challenge " />
Le 07/10/2014 à 15h02
Le 1080p c’est pas mythique ni parfait mais ça remplit comme qui dirait tous les pixels de la grande majorité d’écrans et évité l’immonde flou du à l’upscaling.
Le 07/10/2014 à 15h04
Le 07/10/2014 à 15h04
On oublie totalement le gain de confort et de qualité d’image apporté par le fait d’utiliser la résolution native de l’écran. Si ils veulent faire des jeux en 1600 x 900, qu’ils vendent des télés 1600 x 900
Le 07/10/2014 à 15h06
Cela ressemble plus à un jeu mal optimisé qu’à des consoles “pas au niveau techniquement” … Je sais que les consoles auront toujours un temps de retard face au PC mais on ne va pas me faire croire qu’elles sont déjà exploitées à fond .
Le 07/10/2014 à 15h09
Le 07/10/2014 à 15h10
Le 07/10/2014 à 15h10
Le 07/10/2014 à 15h14
Le 07/10/2014 à 15h15
Le 07/10/2014 à 15h22
Ah ouais keu même, dans le genre foutage de gueule ils font fort, ils devraient faire de la politique chez ubisoft " />
Le 07/10/2014 à 15h22
Le 07/10/2014 à 15h25
Tout d’abord, la résolution, sur un LCD, il faut que ce soit la résolution native de l’écran ou un multiple, sinon c’est assez dégueulasse à l’écran, les pixels “bavent”. Ce n’est pas sur l’explosion ou l’effet de lumière que l’on va voir ça, ça a même tendance à cacher le crenelage. c’est surtout visible au niveau de l’UI où les traits et les caractères sont tout flous/baveux. Alors donc un 9001600 sur un écran 10801920, j’ai du mal.
Je trouve aberrant que pour une histoire de complexité de calcule d’IA, ceci doit être répercuter sur la fréquence. Autant sur les vieux jeux sur console 8 et 16bit, ou le jeu était calculé frame par frame et où rien n’était parallélisé, c’est logique. Mais putain, maintenant je pense que l’affichage d’une scène et son précalcule est séparé, c’est ce qui permet d’avoir des taux variables de FPS lorsque la CG galère un peu sans que le jeu ralentisse pour autant. Si l’IA a decidé à un instant t d’avancer de 5m (à vitesse constante) pendant la prochaine seconde, on sais qu’au bout de 0.2s, l’IA a avancé de 1m.
Sinon, pour ceux qui essaye de comparer une console à un ordi à 400€, je leur demande, avec quoi ils viennent de commenter, avec leur WiiU ? Il faudrait plutôt comparer un console à leur ordi actuel+400€.
Le 07/10/2014 à 15h25
Le 07/10/2014 à 15h26
Le 07/10/2014 à 15h27
Si le CPU est déjà le facteur limitant, Microsoft n’a peux être pas fait un si mauvais choix en y allant avec un CPU à 1.75 GHz au lieu de 1.6.
Mais peu importe, on parle d’une architecture avec un IPC moyen-faible basse consommation (ça au moins ça évite les surchauffes vu comment certain traitent leur console…). Certes, ils y ont mis 8 cores, mais ça demeure très faible comme CPU tout de même pour du jeu vidéo.
Mais bon, la résolution aide, mais comme dit dans le vidéo posté plus tôt dans les commentaires, plusieurs truc joue sur la qualité des graphismes.
Quake en 4K est + moche que Crysis 3 en 720p par exemple. La qualité des textures, la qualité du filtrages, la qualité de l’éclairage, la qualité des animations, la qualité des effets sont probablement plus important que la résolution seul. Perso, j’aime bien les jeu avec un univers artistique cohérent et pas nécessairement photo-réaliste.
Certes c’est dommage pour les consoles qu’elle ne soient pas aussi puissante que promis, mais à mon avis c’est un détail. On dit je veux une console pour ne pas me casser la tête et simplement jouer.
Et bien les consoles next gen le font. Si le choix de la résolution, la puissances des différents éléments est réellement un critère d’achat, aussi bien prendre un PC.
Le 08/10/2014 à 06h40
Je vois tres bien la difference sur ma télé 40 pouces entre un jeu 720p, 900p et 1080p… ca va de soi qu’en 1080p, t’aura une certaine finesse et piqué de l’image.
En plus sur console, t’ajoute le limite du rendu: clipping, anticrénelage limité, fov limité, textures limité… bon c’est sur qu’apres une console new gen sera forcement meilleur que la current gen, cela dit, c’est dommage faire une mise a jours pour 400e toujours en ayant autant de limites " />
Le 08/10/2014 à 06h41
Ce genre d’argument était acceptable du temps de la PS3 ou de la 360 qui entrait a peine dans la HD, pourtant sony promettait déja du 120fps, 6 ans plus tard les jeux sont un peu plus beau, mais toujours pas de 1080p en 60fps, ce qui devrait etre la norme pour n’importe quel machine du moment ou l’on joue sur des écran FullHD.
Le 08/10/2014 à 06h43
Le 08/10/2014 à 07h11
Perso j’ai acheté une xbox one mais pas du tout pour remplacer mon pc (où je dois changer la GC d’ailleurs)… Mais pour en faire ma machine multimédia ultime sous la tv : du jeux avec des potes en coop (comme ACu), de la tv et du lecteur de Blu-ray pour le petit, du kinect pour la grande avec Dance Central, de la lecture en streaming pour netfix… Mais j’ai jamais pensé que cela aller remplacer mon pc en terme de jeu (ou de machine central)
Après il est évident qu’un jeu comme The Witcher qui doit déchirer la rétine, ça sera sur pc (faut pas déconner)
Le 08/10/2014 à 07h19
En fait, les fabricant de console ont opté pour une architecture hardware similaire au pc. Du coup la comparaison se fait très rapidement.
Mais surtout, on vois que sur PC, avec la surenchère hardware permanente les développeurs de JV sont peu sensibilisé à l’optimisation.
Du coup, les jeux portés sur console seront chaque année bien plus éloigné de leur version pc en terme de performance.
Au final on peut espérer que tout cela profite au PC avec des jeux optimisés pour une architecture console qui vieillira très vite.
Le 08/10/2014 à 07h23
Le 08/10/2014 à 07h32
Le 08/10/2014 à 07h54
Le 08/10/2014 à 07h56
Le 08/10/2014 à 08h10
Le 08/10/2014 à 08h21
Le 08/10/2014 à 08h24
Le 08/10/2014 à 08h36
Le 08/10/2014 à 08h38
Le 08/10/2014 à 08h48
Le 08/10/2014 à 08h48
Le 08/10/2014 à 13h45
Il faut pas oublier qu’une partie des taches graphiques incombent au CPU. Le calcul des animations par exemple. Si le CPU est occupé par l’IA, ce calcul ne peut plus se faire dans les temps. Et cela influence le fps.
Rajoutez a cela le fait que la mémoire est commune et que la bande passante mémoire vs CPU/GPU l’est aussi. Ce qui est utilisé par le CPU niveau BP ne peut plus l’être par le GPU.
Donc pour ces deux raisons, oui un grand nombre d’IA influencera le framerate d’un jeu. Pour la définition, c’est le même ordre d’idée.
Quelqu’un plus haut parlait du GPGPU, oui en théorie on peut faire faire des calculs CPU sur le GPU. Bon en pratique cela marche pas avec tous les calculs. Mais surtout cela bouffe de la puissance niveau GPU qui ne pourra plus être utilisé pour les graphismes.
Comme le monsieur le dit lui même, si c’était juste pour afficher, les deux consoles feraient du “100” fps. Sauf qu’il y a plus que l’affichage a gérer.
Le 08/10/2014 à 18h10
Le 08/10/2014 à 18h17
Le 08/10/2014 à 19h33
Le 09/10/2014 à 03h15
Que les joueurs s’achètent des vieux moniteurs 720p ou 1280*1024 " />. Le mien m’a coûté 50 euros il y a 2 ans et il est super (classe vintage hipster avec le design carré), le jeux bouffent moins et j’upscale pas :p. Je joue sur PC et 360.
Au Japon ils font encore beaucoup de tv 720p beaucoup moins chères que les 1080p, et jusqu’à 30 pouces !
Le 09/10/2014 à 04h34
Le 09/10/2014 à 07h03
Le 09/10/2014 à 18h01
Le 13/10/2014 à 10h24
Le 13/10/2014 à 10h38
La nouvelle version de PCi c’est bien, mais l’édition des commentaires est toujours aussi limitée. Je fais l’effort de me relire et au final je n’ai pas le temps de corriger mes fautes. Faites quelque chose la dessus c’est vraiment pénible !
Le 07/10/2014 à 14h44
Je relance parfois Soul Reaver 1 sur Phone branche au LCD. Je le fais pas pour me bousiller la vue, mais par le plaisir que j’ai à y jouer.
Le 07/10/2014 à 14h45
C’est une honte ! Moi qui joue à 10cm de mon écran 50 pouces, je verrais que c’est du 900p tout cracra " />
Le 07/10/2014 à 14h46
“que les nouvelles consoles seront capables de rivaliser avec les PC” Ah ah sérieusement ? Les joueurs sur console sont aussi naïfs ?
Le 07/10/2014 à 14h47
ha ouais elle sont bien ces consoles nextgen qui ne font pas mieux que les anciennes
Le 07/10/2014 à 14h48
Le 07/10/2014 à 14h49
Le 07/10/2014 à 14h49
Comment ne pas troller sérieux.
Les consoles et tout l’écosystème autour me donne la gastro.
Le 07/10/2014 à 14h50
D’après ce que je lis, la Ps4 serait moins rapide que la XOne mais cette première serait plus apte à faire du 1080p !
Bon sans rire, vous y aviez cru à ce que raconte les constructeurs ??
C’est une simple évolution de la génération précédente, rien de plus…
Alors oui c’est un peu plus jolis, il n’y a presque plus d’aliasing mais ce n’est pas ça qui va faire que demain, les consoles nous feront du 4K 60ips…
Le 07/10/2014 à 14h50
Le 07/10/2014 à 14h51
Si je comprends bien les deux consoles sont pareilles et ne sont pas assez puissantes?
Le 07/10/2014 à 14h51
“La partie CPU des consoles serait déjà à la limite”
Elle est loin quand meme l’époque où Jason Rubin annonçait que la PS2 etait “tellement puissante” qui savaient pas comment ils allaient pouvoir l’exploiter… :p
Le 07/10/2014 à 14h51
Pendant plusieurs mois, on leur a expliqué à grand renfort de
conférences lors des différents salons que les nouvelles consoles seront
capables de rivaliser avec les PC, et de proposer des jeux en Full HD
avec une qualité d’image époustouflante. Près d’un an après leur
lancement, force est de constater que c’est encore loin d’être le cas,
alors que côté PC, on parle de 4K sur un, deux voire trois écrans. On
peut donc comprendre leur déception, les constructeurs ayant martelé cet
argument marketing pendant de longs mois pour au finalement ne pas
tenir cette promesse
Un Peu gonfle la je trouve … faut etre un peu con quand meme pour y croire a ce genre de discour … mais le plus con restant de comparer des configs a 400€ d’un cote pour les consoles et des configs 4k triplay de l’autre a quoi ? 2500€ ???
Je sais pas si c’est l’ateur de l’article ou si ce sont des propos cites mais ca me parait tres intelligent comme comparaison
Le 07/10/2014 à 17h43
Le 07/10/2014 à 17h45
Le 07/10/2014 à 17h47
Le 07/10/2014 à 17h57
Le 07/10/2014 à 18h09
Le 07/10/2014 à 18h12
Je ne suis pas expert mais je crois que DX12 optimisera les echanges entre le CPU et le GPU. Dans le cas des consoles avec leur memoire centrale je ne suis pas sûr qu’il y ait un gain significatif.
Le 07/10/2014 à 18h15
Le 07/10/2014 à 18h28
Le 07/10/2014 à 18h28
Le 07/10/2014 à 18h30
Moi je n’ai pas tellement les moyens.
je remercie SONY et MS de lancer de nouvelles consoles.
je vais acquérir la XBOX 360 avec 6 jeux,presque neuve,250Go,pour 125€.
Il faut aussi penser aux pauvres lorsque l’on lance une nouvelle machine.
Parce que du coup le secteur du jeu d’occasion reprend de l’essor.
A ce titre,je pense que le plus inquiétant sont les restrictions faites sur la revente des jeux,le prêt,la rétro compatibilité.
parce que personnellement j’ai une TV 82cm qui ne fait pas le 4K,et que du coup la limitation a 1080P ou 1900 me vont bien.
Le 07/10/2014 à 18h51
Le 07/10/2014 à 19h06
Le 07/10/2014 à 19h08
L’IA ou le 1080 à 60 i/s il faut choisir. On dirait une pub pour la prévention routière.
Il faudra peut être un jour que ces boites arrêtent d’être à la limite de la vérité pour vanter des choses qui ne seront pas possible dans les faits.
Le 07/10/2014 à 19h09
comme dit précédemment aussi là on est partie sur des architectures généralistes donc comme un pc classique, c’est pas parce qu’on a de la ram unifié que ça va changer ça.
Du coup une wiiU qui a encore des unités de calculs spécifiques pour certaines tâches pourrait être bien meilleure que ses concurrentes sur ces tâches là.
Avec cette nouvelle gen les consoles ont perdu leurs avantages d’avoir des unités très efficaces mais spécialisées et du coup bah on se retrouve avec des pc bof bof niveau puissance brutes qui n’arrivent pas à afficher le “sacro saint” 1080p@60fps
Le 07/10/2014 à 19h10
Le 07/10/2014 à 19h13
Le 08/10/2014 à 08h52
Le 08/10/2014 à 08h55
Le 08/10/2014 à 09h06
Le 08/10/2014 à 09h15
Le 08/10/2014 à 09h40
Le 08/10/2014 à 09h42
L’intelligence artificielle limitée par le CPU, haha ça doit être pour ça que cette série a les combats les plus ennuyeux possible " />
Le 08/10/2014 à 09h44
Le 08/10/2014 à 09h47
Le 08/10/2014 à 09h47
Le 08/10/2014 à 10h06
Le 08/10/2014 à 10h43
Le 08/10/2014 à 11h42
Pfiouuu… y’en a des commentaires pour pas grand chose ( le mien y compris ;) )
IMO tout cela n’est qu’un buzz pour faire parler du jeu.
Je joue (et j’ai joué) sur “à peu près” toutes les supports depuis ma console Radiola de 1979;
il y a toujours eu une gue-guerre entre fans de tel ou tel support. Les éditeurs ont compris depuis longtemps comment utiliser cela pour vendre plus.
Pour les détracteurs des “PC-qui-coûtent-deux-fois-plus-cher-que-les-consoles-Next-Gen”: regardez le prix des jeux, il n’est pas vraiment le même… juste pour l’exemple: j’ai eu Batman Arkham Origins en pré-commande à 25euros sur PC, il était à 70€ environ sur les consoles… (OK, je sens les trolls à 2Km : on s’en fout si le jeu n’est pas du goût de tout le monde).
J’ai aussi eu un tas de jeux en dépensant quelques € sur les Humble Bundles…
Et pour faire taire les trolls sus-nommés: j’ai aussi une Wii et une X-box, et j’en suis très satisfait.
Je suis bien d’accord avec ceux qui expliquent qu’un jeu ce n’est pas seulement de beaux graphismes ou une IA de folie, là c’était juste un mini coup de gueule un peu HS contre ce que j’appellerais “la Fan Attitude Outrancière”.
Le 08/10/2014 à 12h05
J’adore les gens qui dissent qu’une console coute 400€…
On oublie de parler du prix des jeux et accessoires mais surtout du online payant à 60€ minimum l’année.
La seule console qui ne coute pas cher c’est la WII U avec ses accessoires et jeux retro compatibles et son online gratuit, étonnamment sur cette plateforme on ne parle jamais des graphismes mais uniquement du plaisir de jeu, pour le reste il y a le PC.
Je retourne jouer à Mariokart 8 en 1080p et 60FPS… oups
Le 08/10/2014 à 12h32
Le 08/10/2014 à 12h56
En reprenant cette phrase de l’article :
« Nous avons décidé de les verrouiller avec les mêmes caractéristiques techniques afin d’éviter tous les débats et ce genre de trucs ».
Après 16 pages de commentaires, je pense qu’on peut dire qu’ils ont BIEN raté leur coup " />
Le 08/10/2014 à 13h08
Le 07/10/2014 à 14h51
Le 07/10/2014 à 14h51
franchement le gap visuel entre une pS3 et une ps4 ( ou xbox 360 vs one) n’est pas aussi grand que le passage de la PS2 vers la PS3 ( ou xbox vs 360)
Le 07/10/2014 à 14h52
Le 07/10/2014 à 14h52
“Graphiquement parlant, une telle définition n’est pour autant pas un
gage de qualité suffisant. On peut très bien faire fonctionner Pac Man en 1080p, cela ne le rendra pas aussi beau qu’un Crysis 3 en 900p avec les détails au maximum.”
Par contre, entre un crysis en 1080p et le même en 900p, sur une tv full hd, on la sent bien la différence, et c’est de celle la dont il est question.
Le 07/10/2014 à 14h52
Pourtant, c’est ce que les constructeurs ont vendu aux joueurs(…)
Bien aidés par la presse ( je ne parle pas de vous)…
Le 07/10/2014 à 14h53
Citation de l’article : “Au vu des réactions des joueurs suite à cette entrevue, Ubisoft a d’abord précisé qu’aucune limitation n’a été instaurée dans le but de mettre les deux consoles sur un pied d’égalité. “ Totalement pipo, ils passent les deux consoles en version 900p grâce à l’opération marketing de microsoft tout simplement. Tout comme il y avait la bouteille de parfum Destiny Xbox. Ubisoft est un éditeur multiplateforme, un peu d’argent pour “tout mettre à niveau”.
Le 07/10/2014 à 14h53
Le 07/10/2014 à 14h55
pour l’instant je me contente de ma 360" />
le temps qu’ils maitrisent la next gen.
et puis si ca se trouve il y aura direct x12 sur ces consoles et avec un peu de chance ils sauront faire des jeux en 1920x1080 à 60fps constants.
Le 07/10/2014 à 14h57
Le 07/10/2014 à 14h59
Le 07/10/2014 à 14h59
Aller ce qu’on leur avait déjà promis pour la PS3/X360 on leur donnera à la PS5/X?, le temps que sur PC ils soient bien tous en 4K " />
Le 07/10/2014 à 15h00
Le 07/10/2014 à 15h00
Eh oui c’est ca de concevoir des consoles avec une archi PC pas du tout adaptée à ce mode jeu. Une console c’est un système proprio c’est la base du concept de la console de jeu. C’est pas un système basé sur un standard c’est l’éxact oposé du standard… mais bon quand les dev prennent le pouvoir ca donne ce que l’on a aujourd’hui. (bon je troll mais à peine…)
le 1080p n’est pas une définition mythique ou parfaite » et que « La fluidité est significativement plus importante dans l’expérience de jeu que la définition ».
C’est marant Nintendo tebnanit les mêmes propos… il y a 10 ans de cela… pendant que MS je la jouait à qui a la plus grosse avec la 1ère XBox… le monde du JV j’vous jure….
Le 07/10/2014 à 15h02
Le 07/10/2014 à 15h02
Le 07/10/2014 à 15h02
Le 07/10/2014 à 15h49
Le 07/10/2014 à 15h52
Le 07/10/2014 à 15h53
Le 07/10/2014 à 15h53
Le 07/10/2014 à 15h56
Mouais, rien d’étonnant au fait qu’un APU Jaguar soit largué, surtout pour une console…
Ceci dit, ça fait 1 année qu’on se tape des la comm sur ces résolutions, et je crois qu’on va encore s’en taper pendant les 5 prochaines années… ça va être long!
Le 07/10/2014 à 15h57
Le 07/10/2014 à 16h00
Le 07/10/2014 à 16h02
Le 07/10/2014 à 16h11
Ca évite de se reprendre les pieds dans le tapis des 1080 non supportés par la X1 le prochain stade sera sans doute la SD car p’tre qu’il y a des joueurs qui ont encore des veilles téloches, au bout du compte on parlera pas plus des propriétés intrinsèques du titre de toute façon Ubichiotte …. " />
Le 07/10/2014 à 16h14
Le 07/10/2014 à 16h14
Le 07/10/2014 à 16h23
Le 07/10/2014 à 16h32
On parle tous de consoles limitées techniquement pour des “next-gen” mais les jeux d’aujourd’hui sont-ils aussi bien optimisés qu’il y a quelques années.
Je n’y connais rien en développement mais quand je vois un certains GTA V sur PS3/360 qui tourne plus qu’honorablement à la vue de son ambition technique…
En parallèle de cela, certains jeux soi-disant “next-gen” (je ne parle pas d’AC:U) avec des aires de jeux de la taille d’un cagibi et des scripts à tout bout de champs qui disent peiner à atteindre le 1810p.
Après c’est un débat plus vaste que j’ouvre ici, impliquant qu’avec de la puissance grandissante à portée de main des développeurs, il font moins d’effort sur l’optimisation.
Peut-être également arrive-t-on à un niveau où le rapport “puissance requise”/“amélioration visuel” augmente de manière exponentiel.
Le 07/10/2014 à 16h40
Je pense que bientôt on aura des cartes accélératrice pour l’ia comme on a eu pour le sont puis pour les graphisme et en fin la physique.
Le 07/10/2014 à 16h48