Connexion
Abonnez-vous

Xbox One contre la PlayStation 4 : combat de caractéristiques techniques

On comparerait bien les looks, mais la PS4 est encore au stade puzzle

Xbox One contre la PlayStation 4 : combat de caractéristiques techniques

Le 22 mai 2013 à 08h55

Hier soir, Microsoft dévoilait en grande pompe sa Xbox One. Avant de revenir sur le sujet dans un dossier complet, nous avons décidé de la comparer à la PlayStation 4  au niveau de ses caractéristiques techniques. Et pour le moment, il faut bien reconnaitre que les deux constructeurs sont plutôt avares dans les détails.

Le match entre Sony et Microsoft sur les consoles de salon peut enfin commencer puisque les deux constructeurs ont dévoilé une partie de leurs caractéristiques techniques et des fonctionnalités qu'ils préparent. Sony avait indiqué en février dernier quelques points de l'architecture employée pour le SoC (System On a Chip) qui anime sa PlayStation 4. Il utilise ainsi 8 cœurs x86 de la génération Jaguar en provenance d'AMD, mais aussi un GPU développant une puissance brute de 1,84 TFLOPS et qui s'appuie sur une Radeon « Next Generation  ».

 

De son côté, Microsoft a indiqué aussi embarquer une solution AMD dans sa Xbox One. Si l'on sait qu'elle est dotée de 8 cœurs pour la partie CPU, c'est un peu la seule chose qui a été évoquée. On apprendra néanmoins que le GPU est capable de gérer DirectX 11.1. Si nos confrères de Wired ont indiqué qu'une finesse de gravure de 40 nm était exploitée, nos confrères d'Engadget ont un son de cloche différent puisqu'ils évoquent une gravure en 28 nm. Au final, on ne sait donc pas vraiment ce qui est employé par le géant de Redmond, qui ne donne aucune information officielle de son côté. Espérons que cela change rapidement.

 

Bref, voici le récapitulatif de ce que nous savons pour le moment sur les deux consoles. Ce tableau sera bien entendu amené à évoluer en fonction des annonces de l'un ou de l'autre des deux fabricants. Comme toujours, n'hésitez pas à nous faire part de vos remarques et de vos idées au sein de nos commentaires.

Commentaires (118)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

40nm pour le cpu xbox <img data-src=" />

votre avatar

Euh, source pour la résolution de la PS4? C’est pas du 1080p au final?



edit : désolé, je suis mal réveillé, c’est la résolution pour la caméra &gt;&lt;

votre avatar







typhoon006 a écrit :



40nm pour le cpu xbox <img data-src=" />









c est dans votre actu du dessous xD


votre avatar







typhoon006 a écrit :



40nm pour le cpu xbox <img data-src=" />









Aponhcet a écrit :



c est dans votre actu du dessous xD





Sinon, au lieu de vous contenter de lire le tableau, lisez le texte hein… <img data-src=" />


votre avatar







Aponhcet a écrit :



c est dans votre actu du dessous xD









Si nos confrères de Wired ont indiqué qu’une finesse de gravure de 40 nm était exploitée, nos confrères d’Engadget ont un son de cloche différent puisqu’ils évoquent une gravure en 28 nm.





C’est pour ça qu’il ne l’ont pas inclu dans le tableau je pense.



Edit : Grillé par David :)


votre avatar







Aponhcet a écrit :



c est dans votre actu du dessous xD





Engadget parle de 28nm. Pour le coup, ca me parait quand même plus raisonnable que du 40nm qui commence à fortement dater…



EDIT : Burned…


votre avatar







David_L a écrit :



Sinon, au lieu de vous contenter de lire le tableau, lisez le texte hein… <img data-src=" />







c’est pas intéressant <img data-src=" />


votre avatar







yeagermach1 a écrit :



La combinaison memoire classique + Edram est deja d’actualité sur Xbox 360 et est plutot apprecié des devs.



Pourquoi changer une methode qui marche.







Il me semble que la Xbox 360 avait de la GDDR3 ou 5 - 512mo + eDRAM.



Franchement j’ai du mal à imaginer que la totalité de la ram de la Xbox One soit entièrement en DDR3. <img data-src=" />

C’est selon moi une faiblesse totale pour les capacités graphiques !


votre avatar

C’est toujours d’actualité pour la xbox one d’être ,et connecté au net et d’avoir obligatoirement le kinect2 de connecté?

Si c’est encore le cas, y aura intérêt à filtrer ce qui sort de la xbox.. d’ic à ce que MS nous la fasse à la skipe…

votre avatar







David_L a écrit :



Oui on se fout des specs, mais c’est toujours intéressant de voir ce qui est fait à ce niveau. Puis si on devait attendre de voir ce que valent les consoles, on en parlerait pas avant Q4. Tu serais plus avancé, hein <img data-src=" />







Ha ben de toute façon, pour les deux, on n’est pas beaucoup avancé non plus <img data-src=" />



E3 E3 E3 montre nous des jeux et du Gameplay <img data-src=" />


votre avatar

9 pages qui parlent de RAM, FapFapFap <img data-src=" />

votre avatar







spamator a écrit :



Pourquoi faire une présentation officielle si ce n’est pour ne pas dévoiler complemetement la console ??

Pour lutter contre la concurrence ? je ne pense pas que Sony change de composant du jour au lendemain qques mois avant la prez de la playstation..



je ne saisis pas l’intérêt d’une telle stratégie.





Partie GP présentée pour une conf GP

Partie Gamer pour l’E3


votre avatar







Snakeseater a écrit :



9 pages qui parlent de RAM, FapFapFap <img data-src=" />





T’as qu’à afficher plus de 10 messages par pages ! <img data-src=" />


votre avatar

Pour la valse hésitation entre 40 et 28 nm, est-ce que c’est pas dû au fait que certains auraient vu des cartes prototypes ou de pré-série avec ce qui est disponible (à un prix raisonnable) pour l’instant, soit 40nm, tandis que les cartes définitives auront le chip qu’AMD a promis (enfin, son fondeur a promis), soit 28nm ?

votre avatar

Contrairement à ce que laisse supposer la news, on connait la puissance de la partie GPU pour la Xbox : 1.2 Tflops. Ça a été confirmé.

Donc 1.2Tflops vs 1.8Tflops.



De toute manière, c’est bien simple. Les specs de VGLeaks de janvier son 100% juste. De la même manière qu’ils avaient tout juste pour la PS4 et pour la Wii U.









cyrano2 a écrit :



SI on se rappel l’interview de l’ingénieur de Sony, on a donc GDDR5 256 bits sans edram, vs DDR3 128 bits + 32 Mo d’edram.





Ce n’est pas de l’edram mais de l’esram (avec une BP de 102GB/s).


votre avatar







Sebdraluorg a écrit :



T’as qu’à afficher plus de 10 messages par pages ! <img data-src=" />







+1, moi j’ai que deux pages qui parlent de RAM, c’est tout de suite plus digeste ! <img data-src=" />


votre avatar







GutsCrush3R a écrit :



Contrairement à ce que laisse supposer la news, on connait la puissance de la partie GPU pour la Xbox : 1.2 Tflops. Ça a été confirmé.

Donc 1.2Tflops vs 1.8Tflops.



De toute manière, c’est bien simple. Les specs de VGLeaks de janvier son 100% juste. De la même manière qu’ils avaient tout juste pour la PS4 et pour la Wii U.





Ce n’est pas de l’edram mais de l’esram (avec une BP de 102GB/s).





A part qu’il s’etait gourré sur la taille de la memoire pour la PS4. Et tu as lu ou que la puissance du GPU confirmé par MS ?


votre avatar

Perso, ça aurait été mieux d’utiliser un code couleur : Vert quand la caractéristique est la meilleure des 2 et rouge quand c’est la moins bonne des 2.

votre avatar







Drepanocytose a écrit :



???

T’es sûr de toi ?

Que c’est lié au CPU et pas à l’OS, je veux dire ?



Ca me rappelle Flash sur les linux en 64bits il y a un temps, il fallait chrooter un environnement 32 bits pour le faire tourner…





lié à l’ OS si, autant pour moi.



Dans tout les cas les 64 bits n’est pas tjs compatible 32, la preuve =)


votre avatar

De la DDR3 pour la xbox ….. <img data-src=" />



En tout cas c’est AMD qui va être content d’équiper les 2 prochaines consoles de salon <img data-src=" />

votre avatar







cyrano2 a écrit :



Cela sent le même genre de problème de programmation que la PS3 avec ces cells ayant uniquement 256Ko de mémoire local:)





N’exagérons pas. <img data-src=" />

En fait je ne suis pas sûr que cela nécessite vraiment la moindre optimisation de la part des dévs : peu importe si pour un ou deux modèles les textures ne tiennent pas dans ce cache, pour la plupart ce sera le cas sans faire d’effort. Et a priori le driver devrait tout à fait être capable d’anticiper de façon transparente les chargement de textures en cache.


votre avatar







Snakeseater a écrit :



9 pages qui parlent de RAM, FapFapFap <img data-src=" />





Tu utilises encore de la mémoire paginée ?!









Ouais, bon, désolé, elle est nulle.


votre avatar







HarmattanBlow a écrit :



N’exagérons pas. <img data-src=" />

En fait je ne suis pas sûr que cela nécessite vraiment la moindre optimisation de la part des dévs : peu importe si pour un ou deux modèles les textures ne tiennent pas dans ce cache, pour la plupart ce sera le cas sans faire d’effort. Et a priori le driver devrait tout à fait être capable d’anticiper de façon transparente les chargement de textures en cache.







Et puis visiblement c’était déjà le cas sur la 360 et ça leur a plutôt réussi donc bon. Équipe qui gagne comme on dit <img data-src=" />



Perso j’ai quand même été plus emballé par la prèz et les specs de la PS4, ils ont réussi à me mettre l’eau à la bouche eux.


votre avatar







xxSeize a écrit :



Je veux dire, du 32 bits pour des jeux qui devraient aller de maintenant à 2018-2019, c’est pas un peu … moyen ? Aucun moyen que ça joue sur les performances à long terme ?





C’est du 64 bits, x86 c’est l’archi du CPU.

Mais je comprends ton erreur, on voit souvent ecrit, surtout dans les softs du’on DL, x86 par opposition à “x64”



Mais là on parle bien de x86 en 64bits.

De toute facon le 32 bits n’adresse pas plus de 4Go de mémoire, et là on est à 8Go.


votre avatar

Euh Directx 11 c’est une librairie/SDK graphique plutôt qu’une puce graphique. <img data-src=" />

votre avatar







JCLB a écrit :



Uhm le tableau….. <img data-src=" />

Compare des choux et des patates par endroit:



GDDR5 VS DDR3

On compare de la ram vidéo à de la RAM, alors que chacune a les 2 très probablement.







Le CPU de la PS4 utilisera cette GDDR5 pour son usage, contrairement à la BoiteX Un. Y a une vraie diff’ sur le papier du coup


votre avatar







nicolasdi28 a écrit :



Pour la ram, il n’y a pas un pb ?

Pour moi, la GDDR5 de la PS4 est la ram de la carte graphique, et la DDR3 de la Xbox one est celle du processeur ?





La DDR est en effet plutôt meilleure pour les tâches de calcul (faible latence) et la GDDR plutôt meilleure pour les tâches graphiques (forte bande passante), les deux consoles partent donc chacune avec un désavantage sur ces aspects respectifs. Cela dit il y a ces 32 MO de cache au sein du CPU/GPU qui pourraient bien compenser ce défaut sur l’aspect graphique (voire peut-être davantage), faciliter la programmation des jeux (grâce à l’avantage côté calculs) et donc l’exploitation de toute la puissance de la machine, tout en étant moins cher.



C’est un pari osé de MS mais pas inintéressant. Je me demande comment ça se comportera dans les faits. La Xbox ne sera peut-être pas perdante sur les perfs et pourrait peut-être avoir un avantage côté prix.



Malheureusement pour MS des générations de marketeux ont enseigné aux joueurs que GDDR = must-have. Sans doute les mêmes qui autrefois enseignaient la supériorité du GHz.


votre avatar







Drepanocytose a écrit :



C’est du 64 bits, x86 c’est l’archi du CPU.

Mais je comprends ton erreur, on voit souvent ecrit, surtout dans les softs du’on DL, x86 par opposition à “x64”



Mais là on parle bien de x86 en 64bits.

De toute facon le 32 bits n’adresse pas plus de 4Go de mémoire, et là on est à 8Go.









John Shaft a écrit :



Nope. Tout les procs PC ont une architecture x86 (d’ailleurs, hormis les smartphones/tablettes qui, hormis ceux avec proc Intel, qui utilisent une archi ARM, le x86 est majoritaire). Ensuite il y a la différence entre une architecture x86 32 bits et 64 bits. C’est là qu’il peut y avoir un écart de perfs.









DorianMonnier a écrit :



x86 != 32 bits !



Ça tournera sur du 64 bits.







C’est une RAM partagée pour la PS4 de sûr, et apparemment la Xbox One aussi, donc ça se tient.



Pour Radeon et DirectX, on est d’accord…









Ah merde, donc du coup pourquoi sur les fiches techniques des CPU, on en voit certains en 3264 bits, avec des applications (du genre un OS) en x86 ou x64 ? On peut tout mixer du genre avoir un CPU 64 bits pour des applications X86 ?


votre avatar







arno53 a écrit :



D’ailleurs j’ai pas compris le Kinect 2 n’a qu’un seul objectif ? Pour une gestion de la 3D il en faut forcement 2 non ?







fr.wikipedia.org Wikipedia


votre avatar







xxSeize a écrit :



Une ram partagée me semble plus opti pour une console.



Ceci dit, le fait d’avoir des CPU uniquement en architecture x86, c’est pas un peu limite vu les jeux qui vont tourner dessus ?





x86 est un abus de langage qui comprend aussi l’amd64, c’est le jeu d’instructions qui compte.

La console sera forcément en 64 bits, ne serait-ce que pour gérer les 8 Go de ram sans faire de pirouette logicielle.


votre avatar

Pourquoi a chaque news sur l’archi des consoles, le débat sur la RAM revient?



C’est pourtant simple :

Pour la ps3, 8Go de GDDR-5 partagée entre le CPU et GPU

Pour la Xbox One, à priori c’est 8go de DDR3 partage entre CPU et GPU



Et sinon les processeurs sont bien en x86-64bits, ne serait-ce que pour adresser les 8Go de RAM.

De plus toutes les gammes de processeurs x86 actuelles (hors atom et cie) gerent le 64 bits.

Et le processeur de la N64 gerait déjà le 64bits (je vous laisse faire le parallèle <img data-src=" />)

votre avatar







xxSeize a écrit :



Ah merde, donc du coup pourquoi sur les fiches techniques des CPU, on en voit certains en 3264 bits, avec des applications (du genre un OS) en x86 ou x64 ?







Abus de langage. x86 = x86-32, x64 = x86-64


votre avatar

Franchement, je sais que les spec pour nous geek c’est important mais… le quidam moyen s’en fiche non ?



Au final, les seules choses qui compte c’est :




  • que la console soit fiable,

  • que les jeux soient beau et fluident

  • que l’on peut s’en servir pour autre chose que jouer. &lt;== en tout cas pour moi



    Même si les spec aident à répondre à une de ces trois choses, au final, à l’achat, on se posera pas la question de “kikalaplugrosse”.

votre avatar







arno53 a écrit :



D’ailleurs j’ai pas compris le Kinect 2 n’a qu’un seul objectif ? Pour une gestion de la 3D il en faut forcement 2 non ?





Ce qui compte ce n’est pas d’avoir un rendu en 3D pour l’utilisateur, mais de capter une scène en 3D. Pour ça pas besoin de deux objectifs.

En fait le capteur ne fait que capturer l’information de profondeur de la scène. Comme l’utilisateur fait normalement face à son écran, ça suffit pour savoir dans quelle position est son corps.





En tous cas j’espère que Kinect sera optimisé pour des distances réduites, sinon l’intérêt sera toujours plutôt faible pour tous ceux (et on est nombreux dans ce cas !) qui ont un petit salon.


votre avatar

Merci pour les explications !











Nyco87 a écrit :



Franchement, je sais que les spec pour nous geek c’est important mais… le quidam moyen s’en fiche non ?



Au final, les seules choses qui compte c’est :




  • que la console soit fiable,

  • que les jeux soient beau et fluident

  • que l’on peut s’en servir pour autre chose que jouer. &lt;== en tout cas pour moi



    Même si les spec aident à répondre à une de ces trois choses, au final, à l’achat, on se posera pas la question de “kikalaplugrosse”.







    Ben quand tu vois que sur Xbox, il n’y a à proprement parler aucun jeu fluide, toujours des baisses de frame infâmes, très peu de jeux en 60 FPS, les specs deviennent importantes.


votre avatar







xxSeize a écrit :



Ah merde, donc du coup pourquoi sur les fiches techniques des CPU, on en voit certains en 3264 bits, avec des applications (du genre un OS) en x86 ou x64 ? On peut tout mixer du genre avoir un CPU 64 bits pour des applications X86 ?







Ouais tu confonds tout. <img data-src=" />



Alors x86, c’est une architecture de processeur, utilisé historiquement des les PC et compatible PC (y compris les Macs depuis quelques années).



Les premiers processeur x86 avaient un espace d’adressage de 16 bits, qui a évolué vers 32 puis 64 maintenant.



Les processeurs x86 assurent une compatibilité ascendante, donc tu peux faire tourner des applications 32 bits sur du 64 bits. <img data-src=" />



Edit : totalement grillé ! <img data-src=" />


votre avatar







John Shaft a écrit :



Abus de langage. x86 = x86-32, x64 = x86-64





Voilà.

x86 c’est l’architecture du CPU, à opposer à ARM par exemple.



Quand on voit écrit x86 et que ca ne parle pas de la microarchi, ca veut dire x86-32bits laplupart du temps, par abus de langage….



Mais c’est vrai que les editeurs font chier, ils pourraient écrire “x86-32” et “x86-64”, ca ne mange pas pain.



Edit : regrillé par Dorian.

Edit 2 : pour être complet, du peut faire tourner du x86-32 sur du x86-64 comme Dorian dit, et la limitation en terme d’adressage mémoire du 32 bit c’est 4 Go (2^32 schematiquement)


votre avatar







Nyco87 a écrit :





  • que les jeux soient beau et fluident





    Du verbe fluider.



    Pardon, c’était trop tentant <img data-src=" />


votre avatar







xxSeize a écrit :



Une ram partagée me semble plus opti pour une console.



Ceci dit, le fait d’avoir des CPU uniquement en architecture x86, c’est pas un peu limite vu les jeux qui vont tourner dessus ?





Sur ton PC tes jeux sont en x86 (regarde le chemin par défault ^^) et ceux depuis loooongtemps


votre avatar







JCLB a écrit :



Uhm le tableau….. <img data-src=" />

Compare des choux et des patates par endroit:





Radeon VS DirectX

DirectX est un moteur de rendu, on peut l’opposer à OpenGL par exemple.

Radeon est à opposer à geForce ou Intel, bon ici c’est du radeon partout puisque APU AMD.







OHHHH faut être sérieux quand même



Quand on te parle de next gen radeon vs direct x11.1 c’est pour te donner une idée des cartes graphiques qui vont être utilisé pas une comparaison pur.

D’ailleur l’article c’est combat des caractéristiques techniques pas comparaison.





Sinon

Tout le monde est concentré sur la RAM totale.

Personne ne parle de la eSRAM de la XO.

Vous pensez que c’est possible que cette petite partie de ram soit uniquement dédié au GPU.

Et puis comme dit on ne sait pas si sur la totalité de la ram de la XO est sur DDR3 notamment pour le GPU. Depuis 2009 presque ATI/AMD utilise uniquement de la GDDR pour ces carte graphiques <img data-src=" />


votre avatar







Charly32 a écrit :



Pourquoi a chaque news sur l’archi des consoles, le débat sur la RAM revient?



C’est pourtant simple :

Pour la ps3, 8Go de GDDR-5 partagée entre le CPU et GPU

Pour la Xbox One, à priori c’est 8go de DDR3 partage entre CPU et GPU



Et sinon les processeurs sont bien en x86-64bits, ne serait-ce que pour adresser les 8Go de RAM.

De plus toutes les gammes de processeurs x86 actuelles (hors atom et cie) gerent le 64 bits.

Et le processeur de la N64 gerait déjà le 64bits (je vous laisse faire le parallèle <img data-src=" />)







La N64 avait un bus mémoire de largeur de 64 bits pour la RAM vidéo, ça n’avait rien a voir avec la taille maximale d’adressage mémoire du CPU. C’est comme si je disais que mon PC est 384 bits parce que j’ai une Radeon 7970 avec un CPU 32 bits.


votre avatar







spamator a écrit :



Pour la RAM oui, mais changer le chipset graphique, ou mettre un module bluetooth ou wifi direct, ou qqch comme ça, ce nest pas pareil.



Enfin je pense





Autant changé le GPU je veux bien, autant le bluetooth je suis pas sur que ca soit compliqué ^^”


votre avatar







arno53 a écrit :



Sinon les logiciels 32 bits marche sur du x86 32 et 64 bits mais pas l’inverse ..





Pas tous, logiciels de musiques par exemples, même sur GNU/Linux te faut parfois mettre les librairies 32 bits !


votre avatar

A quoi sert le wifi direct concretement ?

votre avatar







amenophis57 a écrit :



jamais 2 consoles ne seront finalement aussi proche en terme de hardware ….







Comme les MACs et les PC <img data-src=" />



Apres ca devient limite normal vu le cout des développements de jeu et des critiques faite sur la difficulté de programmation des anciennes consoles … là on uniformise tout sur l’archi PC que tout les devs ont appris a l’école, les portagent sont facilité etc …


votre avatar







bingo.crepuscule a écrit :



À votre avis, Sony va toucher combien pour chaque Xbox One vendue?

Sachant qu’elle intègre un lecteur BD, c’est tout benef pour eux.



Et je ne parle même pas d’AMD qui se retrouve en première position sur le marché du jeu vidéo.





Attention tout de même, AMD ne fabrique rien. Après on ne sait pas s’ils touche un gros chèque ou un part sur chaque console vendue pour leur IP. On verra les prochains résultats financiers :)





Par contre, gros point faible pour Microsoft, la DDR3 risque d’en faire pâtir les portages…



Quel rapport ?







Charly32 a écrit :



Après microsoft à peut être préféré le 40nm pour avoir un meilleur rendement, car une puce de 5Md de transistor doit coûter bien cher à produire…autant avoir un meilleur Yield quitte à chauffer un peu plus(financièrement parlant).





Oui c’est sur, on met plus de puces en 40 nm que de puces en 28 nm sur un wafer <img data-src=" />





En revanche la DDR3 est moins rapide que la GDDR, mais elle devrait être moins chère, non? À voir comment les devs vont dealer avec ce goulot d’étranglement.



Rien à voir, ce sont juste des technos différentes. Plus rapide ou pas, ça dépend de la fréquence hein ;) Pour parler de goulot d’étranglement, il faut aussi en savoir plus que le simple type de mémoire.







nicolasdi28 a écrit :



Pour la ram, il n’y a pas un pb ?

Pour moi, la GDDR5 de la PS4 est la ram de la carte graphique, et la DDR3 de la Xbox one est celle du processeur ?





Non. Même si ça n’a pas été précisé par MS, c’est sans doute de la mémoire partagée. D’après toi, on fait comment avec les IGP intégré aux APU ? On met de la GDDR5 sur la mobo parce que avec un “G” ça rend mieux ? <img data-src=" /> Non, on partage la mémoire système ;) (sauf dans certains cas spécifiques).







arno53 a écrit :



D’ailleurs j’ai pas compris le Kinect 2 n’a qu’un seul objectif ? Pour une gestion de la 3D il en faut forcement 2 non ?





L’IR est utilisé pour la profondeur







JCLB a écrit :



Uhm le tableau….. <img data-src=" />

Compare des choux et des patates par endroit:



GDDR5 VS DDR3

On compare de la ram vidéo à de la RAM, alors que chacune a les 2 très probablement.





Non





Radeon VS DirectX

DirectX est un moteur de rendu, on peut l’opposer à OpenGL par exemple.

Radeon est à opposer à geForce ou Intel, bon ici c’est du radeon partout puisque APU AMD.



On met ce que l’on sait sur les GPU. L’un donne un nom, l’autre juste la version de DX supportée.







Nyco87 a écrit :



Franchement, je sais que les spec pour nous geek c’est important mais… le quidam moyen s’en fiche non ?



Au final, les seules choses qui compte c’est :




  • que la console soit fiable,

  • que les jeux soient beau et fluident

  • que l’on peut s’en servir pour autre chose que jouer. &lt;== en tout cas pour moi



    Même si les spec aident à répondre à une de ces trois choses, au final, à l’achat, on se posera pas la question de “kikalaplugrosse”.





    Oui on se fout des specs, mais c’est toujours intéressant de voir ce qui est fait à ce niveau. Puis si on devait attendre de voir ce que valent les consoles, on en parlerait pas avant Q4. Tu serais plus avancé, hein <img data-src=" />


votre avatar







nucl3arsnake a écrit :



Pas tous, logiciels de musiques par exemples, même sur GNU/Linux te faut parfois mettre les librairies 32 bits !







Ben ils marchent donc, certes il faut les bibliothèques, mais ça marche. <img data-src=" />


votre avatar







GoobY13 a écrit :



A quoi sert le wifi direct concretement ?







Si j’ai bien compris, c’est pour les liaisons avec les manettes (+ autres accessoires ?), ça remplace donc le bluetooth.


votre avatar







xxSeize a écrit :



Ben quand tu vois que sur Xbox, il n’y a à proprement parler aucun jeu fluide, toujours des baisses de frame infâmes, très peu de jeux en 60 FPS, les specs deviennent importantes.







La PS3 propose des jeux plus ternes et avec plus d’aliasing que la 360.

Comme quoi il n’y a pas de supériorité extrême.





votre avatar







CharmingShaman a écrit :



Pourquoi mettre GDDR5 et DDR3 sur la même ligne? Je croyais que l’un faisait référence à la mémoire de la CG alors que le second à la mémoire vive.. Un truc que je n’ai pas compris ou bien ça n’a vraiment rien à voir?







Dans nos PC, la GDDR est utilisé dans les cartes graphiques et la DDR3 pour le CPU… Mais des cartes graphiques avec de la DDR ont existé aussi, l’un n’empêche pas l’autre.



Après, bien que ces consoles ressemblent à des PC, le matos est quand même adapté à l’usage qui en est fait, donc dans ce cas là, le CPU à un contrôleur mémoire qui lui permet d’utiliser de la GDDR et de profiter de la bande passante supplémentaire qu’elle propose.



Mais dans tous les cas, il est peu probable que la XOne utilise de la DDR3 unifiée. Ou alors sur les 8Go, il y en a par exemple 2 en DDR3 pour le système et 6Go en GDDR5 pour les jeux. Nous n’avons pas plus de détails encore, donc difficile d’en tirer des infos fiables


votre avatar







DorianMonnier a écrit :



Ben ils marchent donc, certes il faut les bibliothèques, mais ça marche. <img data-src=" />





Certains ne marchent purement pas =) .



Je me rappel plus du logiciel mai un logiciel “grand public” de musiques (d’enregistrement), si ton processeur est 32 bits faut le 32 bits obligatoirement, et idem pour le 64 bits.


votre avatar







David_L a écrit :



Non. Même si ça n’a pas été précisé par MS, c’est sans doute de la mémoire partagée. D’après toi, on fait comment avec les IGP intégré aux APU ? On met de la GDDR5 sur la mobo parce que avec un “G” ça rend mieux ? <img data-src=" /> Non, on partage la mémoire système ;) (sauf dans certains cas spécifiques).







Je pensais qu’il y avait les deux, comme dans une archi PC ( avec CG dédiée)


votre avatar







GoobY13 a écrit :



A quoi sert le wifi direct concretement ?







Avoir une synergie avec les tablettes/smartphones compatible. De plus avec l’application SmartGlass on peut imaginé que MS pourras concurrencé l’idée de la WiiU.



Et puis windows (phone) blue seront compatible Miracast (qui s’appuie sur du Direct Wifi) pour envoyé un flux video d’un appareil a un autre. Enfaite y’a plein de posibilité et c’est bien <img data-src=" />


votre avatar







DorianMonnier a écrit :



Si j’ai bien compris, c’est pour les liaisons avec les manettes (+ autres accessoires ?), ça remplace donc le bluetooth.







Les manettes xbox 360 utilisent déjà le même procédé, elles se basent sur une techno Wifi, pas sur le bluetooth. :)


votre avatar







azedrummer a écrit :



Dans nos PC, la GDDR est utilisé dans les cartes graphiques et la DDR3 pour le CPU… Mais des cartes graphiques avec de la DDR ont existé aussi, l’un n’empêche pas l’autre.



Après, bien que ces consoles ressemblent à des PC, le matos est quand même adapté à l’usage qui en est fait, donc dans ce cas là, le CPU à un contrôleur mémoire qui lui permet d’utiliser de la GDDR et de profiter de la bande passante supplémentaire qu’elle propose.







Ah d’accord! merci pour les explications <img data-src=" />


votre avatar







lanic29 a écrit :



En tout cas c’est AMD qui va être content d’équiper les 2 prochaines consoles de salon <img data-src=" />







Qu’a moité, il ne se font ps une marge suffisante pour être confortable.



votre avatar

si nvidia veut pourrir MS et sony qui ont choisi AMD pour leurs consoles , ils sortent une carte graphique next-gen pour pc ,digne de ce nom n, aux belles performances et a un prix non exageré




votre avatar







amenophis57 a écrit :



si nvidia veut pourrir MS et sony qui ont choisi AMD pour leurs consoles , ils sortent une carte graphique next-gen pour pc ,digne de ce nom n, aux belles performances et a un prix non exageré







Oui, parce que leur console de jeux c’est pas vraiment ça côté attractivité par le tarif


votre avatar







levhieu a écrit :



Oui, parce que leur console de jeux c’est pas vraiment ça côté attractivité par le tarif







Je vois pas le rapport : combattre des consoles avec un GPU Oo


votre avatar









David_L a écrit :



L’IR est utilisé pour la profondeur







Si j’ai pas vraiment envie de balancer de l’infrarouge a tout bout de champ dans mes yeux et ceux de mon gamin pour éviter de devenir aveugle, je suis un vieux con?


votre avatar







amenophis57 a écrit :



si nvidia veut pourrir MS et sony qui ont choisi AMD pour leurs consoles , ils sortent une carte graphique next-gen pour pc ,digne de ce nom n, aux belles performances et a un prix non exageré







T’as le sens des affaires toi dis moi <img data-src=" />


votre avatar







amenophis57 a écrit :



si nvidia veut pourrir MS et sony qui ont choisi AMD pour leurs consoles , ils sortent une carte graphique next-gen pour pc ,digne de ce nom n, aux belles performances et a un prix non exageré







Geforce GTX Titan ?

Radeon HD 7990 ?



Et après, faut ajouter le core i7, les 8Go de RAM …


votre avatar

peu importe , ce qu’il faut voir par la c’est qu’un chip graphique AMd dans les 2 consoles ne va pas arranger leur image ou leur faire de la pub pour leur secteur carte graphique PC



Il va de sens que dans les mois a venir si je veux “m’assurer” un parfait portage pour les jeux , je vais etre tenté de prendre la nouvelle carte graphique AMD plutot que celle de nvidia

votre avatar







Groumfy a écrit :



Geforce GTX Titan ?

Radeon HD 7990 ?



Et après, faut ajouter le core i7, les 8Go de RAM …







la carte mere, le boitier, le refroidissement, les manettes…



la machine de jeux à 1500 € \o/


votre avatar







amenophis57 a écrit :



peu importe , ce qu’il faut voir par la c’est qu’un chip graphique AMd dans les 2 consoles ne va pas arranger leur image ou leur faire de la pub pour leur secteur carte graphique PC



Il va de sens que dans les mois a venir si je veux “m’assurer” un parfait portage pour les jeux , je vais etre tenté de prendre la nouvelle carte graphique AMD plutot que celle de nvidia







Parce que tu partirai du postulat erroné qu’un jeu peut profiter d’un parfait portage d’une console vers un pC qui favorisera AMD plutot qu’nvidia.


votre avatar

je pars du postulat que les jeux pc etant moins optimisé, moins le developpeur aura a se casser la tete en utilisant du materiel “similaire” et plus le portage sera bon

votre avatar







yeagermach1 a écrit :



A part qu’il s’etait gourré sur la taille de la memoire pour la PS4. Et tu as lu ou que la puissance du GPU confirmé par MS ?





Juste après la conférence, il y a eu un “architecture panel” sur la même scène.

http://majornelson.com/2013/05/21/xbox-one-architecture-panel/



Ils n’ont évidemment pas dit de vive voix 1.2 Tflops vu que ça ne les met pas sous une bonne lumière face aux 1.8 Tflops de la PS4, mais ils ont donné toutes les autres infos techniques. Avec ces infos, ce n’est plus que des maths pour savoir le nombre de Tflops de la machine.

D’ailleurs suite à ça on a eu de nombreux articles sur les specs. Entre autre :

http://www.anandtech.com/show/6972/xbox-one-hardware-compared-to-playstation-42

http://www.eurogamer.net/articles/digitalfoundry-spec-analysis-xbox-one



J’ai lu également une news ce matin d’un dév qui confirmait les 1.2 Tflops (1.26 plus précisément si je me souviens bien). Mais j’ai tellement lu d’infos de tous les côtés que je ne me souviens plus la source, désolé.


votre avatar







amenophis57 a écrit :



je pars du postulat que les jeux pc etant moins optimisé, moins le developpeur aura a se casser la tete en utilisant du materiel “similaire” et plus le portage sera bon







ça ne changera rien. Les jeux pour PC seront codé par rapport à DX11 oiu Open GL, pas au GPU utilisé.


votre avatar

ben justement c’est la que le dernier tomb raider et le tressfx nous montre le contraire..

Le faire fonctionner sur un chip nvidia relevait bien du bricolage

et ce n’est qu’un debut

votre avatar







Ralph- a écrit :



La N64 avait un bus mémoire de largeur de 64 bits pour la RAM vidéo, ça n’avait rien a voir avec la taille maximale d’adressage mémoire du CPU. C’est comme si je disais que mon PC est 384 bits parce que j’ai une Radeon 7970 avec un CPU 32 bits.







Non je persiste, la N64 embarquait bien un processeur capable de traiter des instructions 64 bits, ce que je dis n’a rien à avoir avec le bus mémoire.

Je t’invite à consulter le datasheet du CPU:

http://www.mips.com/media/files/archives/R4300iProductInformation.pdf







David_L a écrit :



[…]

Oui c’est sur, on met plus de puces en 40 nm que de puces en 28 nm sur un wafer <img data-src=" />







Beh oui mais si on jette la différence…<img data-src=" />

Sans compter que pour un fabricant tel nVidia ou AMD, on peu recycler des puces qui ont des parties non fonctionnelles dans un produit plus bas de gamme.

Si Microsoft choisi une technologie de gravure “obsolète” (entre guillemets), il doit bien y avoir une raison.

Peut être est-ce un aspect purement pécunier (rendement, techno mieux maitrisée =&gt; cout plus faibles) ou bien une manière de s’approvisionner plus rapidement (j’imagine que les chaines de gravure 28mm doivent être accaparées par de nombreux fabricants de soC, et GPU).







lossendae a écrit :



ça ne changera rien. Les jeux pour PC seront codé par rapport à DX11 oiu Open GL, pas au GPU utilisé.





Pour les jeux utilisant un moteur sur étagère (tel Unreal Engine) je ne pense pas que ça change beaucoup de choses; par contre pour celui qui va développer un moteur multiplateforme, il pourra l’optimiser pour l’architecture GPU AMD de manière plus rentable.

Il faut aussi garder à l’esprit que la collaboration entre éditeurs et fabricants de GPU est assez étroite, AMD ou nVidia “prétant” parfois des ingénieurs aux éditeurs afin de les aider à optimiser leurs moteurs graphiques.



Avec un peu de chances pour les fan du cameleon, ça va forcer nVidia à revoir son ratio performance/prix. :)


votre avatar







David_L a écrit :



Sinon, au lieu de vous contenter de lire le tableau, lisez le texte hein… <img data-src=" />







C’est pas de notre faute, c’est comme pour les BD, quand y a une image on regarde et ne lit plus <img data-src=" /> <img data-src=" />


votre avatar

Pour le coup, la PS4 a l’air bien mieux fournie. Cela justifiera surement un prix 50-100€ supérieur ?

votre avatar







David_L a écrit :



Sinon, au lieu de vous contenter de lire le tableau, lisez le texte hein… <img data-src=" />











fumer tue!





votre avatar

À votre avis, Sony va toucher combien pour chaque Xbox One vendue?

Sachant qu’elle intègre un lecteur BD, c’est tout benef pour eux.



Et je ne parle même pas d’AMD qui se retrouve en première position sur le marché du jeu vidéo.





Par contre, gros point faible pour Microsoft, la DDR3 risque d’en faire pâtir les portages…

votre avatar

Après microsoft à peut être préféré le 40nm pour avoir un meilleur rendement, car une puce de 5Md de transistor doit coûter bien cher à produire…autant avoir un meilleur Yield quitte à chauffer un peu plus(financièrement parlant).



En revanche la DDR3 est moins rapide que la GDDR, mais elle devrait être moins chère, non? À voir comment les devs vont dealer avec ce goulot d’étranglement.



Au final c’est AMD le grand gagnant de l’histoire qui place ses produits dans 2 consoles next gen…en espérant que ça fasse revenir ses finances dans le vert.

Intel n’est pas en reste vu que cela prouve à ses détracteur que le x86 n’est pas mort



Et pour conclure : vive le PC! <img data-src=" />

votre avatar

Pour la ram, il n’y a pas un pb ?

Pour moi, la GDDR5 de la PS4 est la ram de la carte graphique, et la DDR3 de la Xbox one est celle du processeur ?

votre avatar







nicolasdi28 a écrit :



Pour la ram, il n’y a pas un pb ?

Pour moi, la GDDR5 de la PS4 est la ram de la carte graphique, et la DDR3 de la Xbox one est celle du processeur ?







Mémoire partagée pour le PS4 si mes souvenirs sont bons. Pour la Xbox, aucune idée !


votre avatar







xxSeize a écrit :



Pour le coup, la PS4 a l’air bien mieux fournie. Cela justifiera surement un prix 50-100€ supérieur ?







bof à part au niveau de la ram, tout le reste a l’air kifkif quand même


votre avatar

D’ailleurs j’ai pas compris le Kinect 2 n’a qu’un seul objectif ? Pour une gestion de la 3D il en faut forcement 2 non ?

votre avatar







nicolasdi28 a écrit :



Pour la ram, il n’y a pas un pb ?

Pour moi, la GDDR5 de la PS4 est la ram de la carte graphique, et la DDR3 de la Xbox one est celle du processeur ?







Depuis la Xbox, la mémoire est partagée sur les consoles de Microsoft. ça offre plus de liberté aux devs j’imagine.



Mais je me souviens pas avoir entendu parler de la nature de la RAM. Et je pensais que la 360 était en GDDR. Ils régressent?



votre avatar







darkbeast a écrit :



bof à part au niveau de la ram, tout le reste a l’air kifkif quand même







Une ram partagée me semble plus opti pour une console.



Ceci dit, le fait d’avoir des CPU uniquement en architecture x86, c’est pas un peu limite vu les jeux qui vont tourner dessus ?


votre avatar







xxSeize a écrit :



Ceci dit, le fait d’avoir des CPU uniquement en architecture x86, c’est pas un peu limite vu les jeux qui vont tourner dessus ?





????

Ca depend du processeur, et il y a des GPU.


votre avatar







Drepanocytose a écrit :



????

Ca depend du processeur.







Je veux dire, du 32 bits pour des jeux qui devraient aller de maintenant à 2018-2019, c’est pas un peu … moyen ? Aucun moyen que ça joue sur les performances à long terme ?


votre avatar

Uhm le tableau….. <img data-src=" />

Compare des choux et des patates par endroit:



GDDR5 VS DDR3

On compare de la ram vidéo à de la RAM, alors que chacune a les 2 très probablement.





Radeon VS DirectX

DirectX est un moteur de rendu, on peut l’opposer à OpenGL par exemple.

Radeon est à opposer à geForce ou Intel, bon ici c’est du radeon partout puisque APU AMD.

votre avatar







xxSeize a écrit :



Je veux dire, du 32 bits pour des jeux qui devraient aller de maintenant à 2018-2019, c’est pas un peu … moyen ? Aucun moyen que ça joue sur les performances à long terme ?







x86 != 32 bits !



Ça tournera sur du 64 bits.







JCLB a écrit :



GDDR5 VS DDR3

On compare de la ram vidéo à de la RAM, alors que chacune a les 2 très probablement.







C’est une RAM partagée pour la PS4 de sûr, et apparemment la Xbox One aussi, donc ça se tient.



Pour Radeon et DirectX, on est d’accord…


votre avatar







xxSeize a écrit :



Ceci dit, le fait d’avoir des CPU uniquement en architecture x86, c’est pas un peu limite vu les jeux qui vont tourner dessus ?







Nope. Tout les procs PC ont une architecture x86 (d’ailleurs, hormis les smartphones/tablettes qui, hormis ceux avec proc Intel, qui utilisent une archi ARM, le x86 est majoritaire). Ensuite il y a la différence entre une architecture x86 32 bits et 64 bits. C’est là qu’il peut y avoir un écart de perfs.


votre avatar







David_L a écrit :



Sinon, au lieu de vous contenter de lire le tableau, lisez le texte hein… <img data-src=" />







Déjà on a été jusqu’au tableau, alors que des fois on se contente du titre! Note le progrès ! <img data-src=" />


votre avatar

Pourquoi faire une présentation officielle si ce n’est pour ne pas dévoiler complemetement la console ??

Pour lutter contre la concurrence ? je ne pense pas que Sony change de composant du jour au lendemain qques mois avant la prez de la playstation..



je ne saisis pas l’intérêt d’une telle stratégie.

votre avatar







Nathan1138 a écrit :



Du verbe fluider.



Pardon, c’était trop tentant <img data-src=" />







Oups bien vu <img data-src=" />



votre avatar







ze_fly a écrit :



Déjà on a été jusqu’au tableau, alors que des fois on se contente du titre! Note le progrès ! <img data-src=" />





Moi je m’arete au sous-titre, après y’a plus d’humour donc ca vaut pas le coup <img data-src=" />


votre avatar







spamator a écrit :



Pourquoi faire une présentation officielle si ce n’est pour ne pas dévoiler complemetement la console ??

…..





Pour pouvoir faire 2 présentations officielles et faire baver le geek en attendant <img data-src=" />


votre avatar







xxSeize a écrit :



Ah merde, donc du coup pourquoi sur les fiches techniques des CPU, on en voit certains en 3264 bits, avec des applications (du genre un OS) en x86 ou x64 ? On peut tout mixer du genre avoir un CPU 64 bits pour des applications X86 ?







C’est un abus de langage le x86 c’est surtout pour se différencier de l’ARM après aujourd’hui tout les processeur x86 sont en 64 bits (excepté les atoms qui sont encore en 32 mais qui devraient passé au 64 bits dans 1 an ou 2)



Sinon les logiciels 32 bits marche sur du x86 32 et 64 bits mais pas l’inverse ..


votre avatar







spamator a écrit :



Pourquoi faire une présentation officielle si ce n’est pour ne pas dévoiler complemetement la console ??

Pour lutter contre la concurrence ? je ne pense pas que Sony change de composant du jour au lendemain qques mois avant la prez de la playstation..



je ne saisis pas l’intérêt d’une telle stratégie.





Sur une news de l’annonce PS4, on pouvais lire que Sony avait augmenté la mémoire dispo a la dernière minute grace à la demande des dev, donc on sais pas.


votre avatar







Drepanocytose a écrit :



Pour pouvoir faire 2 présentations officielles et faire baver le geek en attendant <img data-src=" />







Ah ok…

On vit vraiment dans une société qui incite à la consommation.

je “baverai” plus en sachant tout ce qu il y a savoir plutot qu’en spéculant sur d’hypothétiques performances.



Ca me fzit penser la vidéo de “teasing” de Sony et de sa PS4… hoou que ca donne envie.. <img data-src=" />


votre avatar







DorianMonnier a écrit :



Edit : totalement grillé ! <img data-src=" />







Ça tombe bien, les beaux jours semblent revenir et avec eux les barbecues <img data-src=" />



<img data-src=" />


votre avatar

Ce n’est pas de la DDR3 sur la Xbox One, c’est impossible.



Il y a de la GDDR3 à 22Go/s sur la X360, ils peuvent mettre une mémoire encore plus lente aujourd’hui, ça me parait totalement improbable !

votre avatar

jamais 2 consoles ne seront finalement aussi proche en terme de hardware ….



et aucune des 2 ne fait vraiment rever ….



2014 l’annee du pc ?

votre avatar







nucl3arsnake a écrit :



Sur une news de l’annonce PS4, on pouvais lire que Sony avait augmenté la mémoire dispo a la dernière minute grace à la demande des dev, donc on sais pas.







Pour la RAM oui, mais changer le chipset graphique, ou mettre un module bluetooth ou wifi direct, ou qqch comme ça, ce nest pas pareil.



Enfin je pense


votre avatar







John Shaft a écrit :



Ça tombe bien, les beaux jours semblent revenir et avec eux les barbecues <img data-src=" />







C’est pas demain la veille en tout cas. <img data-src=" /> <img data-src=" />


votre avatar

En meme temps ca a famais fait rêvé le hard d’une console ‘next gen’





amenophis57 a écrit :



jamais 2 consoles ne seront finalement aussi proche en terme de hardware ….



et aucune des 2 ne fait vraiment rever ….



2014 l’annee du pc ?





votre avatar







amenophis57 a écrit :



2014 l’annee du pc ?





Seulement dans mes rêves. <img data-src=" />


votre avatar

Pourquoi mettre GDDR5 et DDR3 sur la même ligne? Je croyais que l’un faisait référence à la mémoire de la CG alors que le second à la mémoire vive.. Un truc que je n’ai pas compris ou bien ça n’a vraiment rien à voir?

votre avatar







nucl3arsnake a écrit :



Certains ne marchent purement pas =) .



Je me rappel plus du logiciel mai un logiciel “grand public” de musiques (d’enregistrement), si ton processeur est 32 bits faut le 32 bits obligatoirement, et idem pour le 64 bits.





???

T’es sûr de toi ?

Que c’est lié au CPU et pas à l’OS, je veux dire ?



Ca me rappelle Flash sur les linux en 64bits il y a un temps, il fallait chrooter un environnement 32 bits pour le faire tourner…


votre avatar







xxSeize a écrit :



Pour le coup, la PS4 a l’air bien mieux fournie. Cela justifiera surement un prix 50-100€ supérieur ?





J’ai l’impression exactement inverse pourtant ?


votre avatar







CharmingShaman a écrit :



Ah d’accord! merci pour les explications <img data-src=" />







<img data-src=" />


votre avatar







xxSeize a écrit :



Merci pour les explications !



Ben quand tu vois que sur Xbox, il n’y a à proprement parler aucun jeu fluide, toujours des baisses de frame infâmes, très peu de jeux en 60 FPS, les specs deviennent importantes.







Infâmes, faut pas abuser non plus. J’ai eu quelques jeux avec des ralentissements mais grosso modo ça tourne très bien. Après qu’on ait 40 ou 60 fps peu importe. S’acharner contre un détail pareil c’est du pinaillage, en pratique les gens s’amusent quand même dessus.

A te lire on dirait que la console est inutilisable tellement elle est lente, ce qui est faux. Après si certains de tes jeux sont mal optimisés c’est une autre histoire.


votre avatar







Vanilys a écrit :



J’ai l’impression exactement inverse pourtant ?







J’ai l’impression surtout que ce sont les mêmes consoles et que tout se jouera sur la partie logicielle et services associés.


votre avatar

Les consoles seront sensiblement identiques.

Ils sont pas fou étant donné que la plupart des jeux seront portés sur les deux plateformes.

Après c’est juste certaines fonctionnalités à l’usage qui feront la différence entres les deux consoles.



.

votre avatar







John Shaft a écrit :



Ça tombe bien, les beaux jours semblent revenir et avec eux les barbecues <img data-src=" />



<img data-src=" />





C’est faux en plus, puisque ça sortira comme chauffage d’appoint pour

l’hiver.

<img data-src=" />


votre avatar







ErGo_404 a écrit :



Infâmes, faut pas abuser non plus. J’ai eu quelques jeux avec des ralentissements mais grosso modo ça tourne très bien. Après qu’on ait 40 ou 60 fps peu importe. S’acharner contre un détail pareil c’est du pinaillage, en pratique les gens s’amusent quand même dessus.

A te lire on dirait que la console est inutilisable tellement elle est lente, ce qui est faux. Après si certains de tes jeux sont mal optimisés c’est une autre histoire.







Castlevania est une véritable horreur sur Xbox, même une fois le jeu installée. GoW 3 subit de sacré baisses sur les environnements ouverts, je parle pas non plus de Bayonetta ou tu peux limite descendre à 10 FPS avec certains moves … les exemples sont vraiment nombreux.


votre avatar







xxSeize a écrit :



Castlevania est une véritable horreur sur Xbox, même une fois le jeu installée. GoW 3 subit de sacré baisses sur les environnements ouverts, je parle pas non plus de Bayonetta ou tu peux limite descendre à 10 FPS avec certains moves … les exemples sont vraiment nombreux.





Euh bayonetta est parfaitement fluide sur tous les mouvements sur X360. Et apres patch, il l’est tout autant sur PS3. La seule nuance entre les deux versions est que sur PS3, l’acces au menu est super lent.


votre avatar







yeagermach1 a écrit :



Euh bayonetta est parfaitement fluide sur tous les mouvements sur X360. Et apres patch, il l’est tout autant sur PS3. La seule nuance entre les deux versions est que sur PS3, l’acces au menu est super lent.







Le trick du rocket launcher = 10 FPS :s


votre avatar

Mouvement officiel ou exploit ? Parce que je viens de me retapper tous les mouvements officiel avec le rocket launcher et aucun n’a ramé sur X360.

votre avatar

SI on se rappel l’interview de l’ingénieur de Sony, on a donc GDDR5 256 bits sans edram, vs DDR3 128 bits + 32 Mo d’edram.



Les 32 Mo sont 5 fois plus rapide que la GDDR5, mais c’est uniquement 32 Mo. Cela sent le même genre de problème de programmation que la PS3 avec ces cells ayant uniquement 256Ko de mémoire local:)

votre avatar

8 GB GDDR5, un GPU customisé, une quasi absence de goulot d’étranglement, un Pad qui à l’air franchement sympa, les exclusivités Sony, franchement moi la PS4 me plait et j’attends tout le travail fait par les studio Sony (c’est tout ce qui m’importe, les jeux des studio Sony ).



Je pense qu’on sera surpris à l’E3 sur cette machine.

votre avatar

La combinaison memoire classique + Edram est deja d’actualité sur Xbox 360 et est plutot apprecié des devs.



Pourquoi changer une methode qui marche.

votre avatar

Non mais Bayonetta était très mal foutu.

Le jeu exploité pas à fond la console et pourtant moi aussi j’avais des saccades.

(xbox premiere gen 2005-2006)



Un peu comme Ninja Gaiden 2. Très bon jeu mais buggué comme pas possible avec des saccades parfois.



Bref je pense qu’il faut faire la différence entre les jeux buggué et les jeux qui exploite à fond les capacités genre GTA - GoW ou autres…

votre avatar

Ouais bah moi les specs je ne m’en fou pas, sinon la Wii-U ferait un carton, que dis-je, la NES serait encore sur les étalages, donc à d’autres hein.



Les sepcs permettent d’avoir une idée de ce que les développeurs pourront tirer de la machine pour nous offrir des jeux plus esthétique avec des ambiances plus travailler par exemple, pour une plus grande immersion, une meilleurs réactivité etc

Xbox One contre la PlayStation 4 : combat de caractéristiques techniques

Fermer