Xbox One contre la PlayStation 4 : combat de caractéristiques techniques

Xbox One contre la PlayStation 4 : combat de caractéristiques techniques

On comparerait bien les looks, mais la PS4 est encore au stade puzzle

Avatar de l'auteur

Damien Labourot

Publié dansSociété numérique

22/05/2013
118
Xbox One contre la PlayStation 4 : combat de caractéristiques techniques

Hier soir, Microsoft dévoilait en grande pompe sa Xbox One. Avant de revenir sur le sujet dans un dossier complet, nous avons décidé de la comparer à la PlayStation 4  au niveau de ses caractéristiques techniques. Et pour le moment, il faut bien reconnaitre que les deux constructeurs sont plutôt avares dans les détails.

Le match entre Sony et Microsoft sur les consoles de salon peut enfin commencer puisque les deux constructeurs ont dévoilé une partie de leurs caractéristiques techniques et des fonctionnalités qu'ils préparent. Sony avait indiqué en février dernier quelques points de l'architecture employée pour le SoC (System On a Chip) qui anime sa PlayStation 4. Il utilise ainsi 8 cœurs x86 de la génération Jaguar en provenance d'AMD, mais aussi un GPU développant une puissance brute de 1,84 TFLOPS et qui s'appuie sur une Radeon « Next Generation  ».

 

De son côté, Microsoft a indiqué aussi embarquer une solution AMD dans sa Xbox One. Si l'on sait qu'elle est dotée de 8 cœurs pour la partie CPU, c'est un peu la seule chose qui a été évoquée. On apprendra néanmoins que le GPU est capable de gérer DirectX 11.1. Si nos confrères de Wired ont indiqué qu'une finesse de gravure de 40 nm était exploitée, nos confrères d'Engadget ont un son de cloche différent puisqu'ils évoquent une gravure en 28 nm. Au final, on ne sait donc pas vraiment ce qui est employé par le géant de Redmond, qui ne donne aucune information officielle de son côté. Espérons que cela change rapidement.

 

Bref, voici le récapitulatif de ce que nous savons pour le moment sur les deux consoles. Ce tableau sera bien entendu amené à évoluer en fonction des annonces de l'un ou de l'autre des deux fabricants. Comme toujours, n'hésitez pas à nous faire part de vos remarques et de vos idées au sein de nos commentaires.

118
Avatar de l'auteur

Écrit par Damien Labourot

Tiens, en parlant de ça :

Carte graphique AMD GeForce

Cartes graphiques : 30 ans d’évolution des GPU

Ha… la bonne époque d’un CF de 4870 X2 !

18:10 Hard 13

Google lance son opération de communications Gemini pour rivaliser avec OpenAI

Preprint not PR-print

17:31 IA 6
Ecran bleu de Windows

Linux : le composant systemd se dote d’un écran bleu de la mort

LoL Micro$oft

16:33 Soft 26

Sommaire de l'article

Introduction

Carte graphique AMD GeForce

Cartes graphiques : 30 ans d’évolution des GPU

Hard 13

Google lance son opération de communications Gemini pour rivaliser avec OpenAI

IA 6
Ecran bleu de Windows

Linux : le composant systemd se dote d’un écran bleu de la mort

Soft 26
Une petite fille en train d'apprendre à programmer et hacker logiciels et appareils électroniques

Un roman graphique explique les logiciels libres aux enfants

SoftSociété 17
Nouveautés pour Messenger

Meta lance (enfin) le chiffrement de bout en bout de Messenger, entre autres

Socials 5

#LeBrief : cloud européen, OSIRIS-REx a frôlée la catastrophe, CPU AMD Ryzen 8040

Windows en 2024 : beaucoup d’IA, mais pas forcément un « 12 »

Soft 19
Einstein avec des qubits en arrière plan

Informatique quantique, qubits : avez-vous les bases ?

HardScience 9
Notifications iPhone

Surveillance des notifications : un sénateur américain demande la fin du secret

DroitSécu 17

En ligne, les promos foireuses restent d’actualité

DroitWeb 19

#LeBrief : modalité des amendes RGPD, cyberattaque agricole, hallucinations d’Amazon Q, 25 ans d’ISS

Logo Twitch

Citant des « coûts prohibitifs », Twitch quitte la Corée du Sud

ÉcoWeb 29
Formation aux cryptomonnaies par Binance à Pôle Emploi

Binance fait son marketing pendant des formations sur la blockchain destinées aux chômeurs

Éco 10
Consommation électrique du CERN

L’empreinte écologique CERN en 2022 : 1 215 GWh, 184 173 teqCO₂, 3 234 Ml…

Science 6
station électrique pour voitures

Voitures électriques : dans la jungle, terrible jungle, des bornes de recharge publiques

Société 75

#LeBrief : intelligence artificielle à tous les étages, fichier biométrique EURODAC

KDE Plasma 6

KDE Plasma 6 a sa première bêta, le tour des nouveautés

Soft 13
Un homme noir regarde la caméra. Sur son visage, des traits blancs suggèrent un traitement algorithmique.

AI Act et reconnaissance faciale : la France interpelée par 45 eurodéputés

DroitSociété 4
Api

La CNIL préconise l’utilisation des API pour le partage de données personnelles entre organismes

SécuSociété 3
Fouet de l’Arcep avec de la fibre

Orange sanctionnée sur la fibre : l’argumentaire de l’opérateur démonté par l’Arcep

DroitWeb 23
Bombes

Israël – Hamas : comment l’IA intensifie les attaques contre Gaza

IA 22

#LeBrief : bande-annonce GTA VI, guerre électronique, Spotify licencie massivement

Poing Dev

Le poing Dev – Round 7

Next 102
Logo de Gaia-X sour la forme d’un arbre, avec la légende : infrastructure de données en forme de réseau

Gaia-X « vit toujours » et « arrive à des étapes très concrètes »

WebSécu 6

Trois consoles portables en quelques semaines

Hard 37
Une tasse estampillée "Keep calm and carry on teaching"

Cyberrésilience : les compromis (provisoires) du trilogue européen

DroitSécu 3

#LeBrief : fuite de tests ADN 23andMe, le milliard pour Android Messages, il y a 30 ans Hubble voyait clair

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Commentaires (118)


typhoon006
Le 22/05/2013 à 08h57

40nm pour le cpu xbox <img data-src=" />


funnuraba21
Le 22/05/2013 à 08h59

Euh, source pour la résolution de la PS4? C’est pas du 1080p au final?

edit : désolé, je suis mal réveillé, c’est la résolution pour la caméra &gt;&lt;


Aponhcet
Le 22/05/2013 à 08h59






typhoon006 a écrit :

40nm pour le cpu xbox <img data-src=" />




c est dans votre actu du dessous xD



David_L Abonné
Le 22/05/2013 à 09h01






typhoon006 a écrit :

40nm pour le cpu xbox <img data-src=" />




Aponhcet a écrit :

c est dans votre actu du dessous xD


Sinon, au lieu de vous contenter de lire le tableau, lisez le texte hein… <img data-src=" />



MaiEolia
Le 22/05/2013 à 09h01






Aponhcet a écrit :

c est dans votre actu du dessous xD




Si nos confrères de Wired ont indiqué qu’une finesse de gravure de 40 nm était exploitée, nos confrères d’Engadget ont un son de cloche différent puisqu’ils évoquent une gravure en 28 nm.


C’est pour ça qu’il ne l’ont pas inclu dans le tableau je pense.

Edit : Grillé par David :)



Strimy
Le 22/05/2013 à 09h02






Aponhcet a écrit :

c est dans votre actu du dessous xD


Engadget parle de 28nm. Pour le coup, ca me parait quand même plus raisonnable que du 40nm qui commence à fortement dater…

EDIT : Burned…



Superambre
Le 22/05/2013 à 09h04






David_L a écrit :

Sinon, au lieu de vous contenter de lire le tableau, lisez le texte hein… <img data-src=" />



c’est pas intéressant <img data-src=" />



Gromsempai Abonné
Le 22/05/2013 à 09h07






David_L a écrit :

Sinon, au lieu de vous contenter de lire le tableau, lisez le texte hein… <img data-src=" />



C’est pas de notre faute, c’est comme pour les BD, quand y a une image on regarde et ne lit plus <img data-src=" /> <img data-src=" />



xxSeize
Le 22/05/2013 à 09h10

Pour le coup, la PS4 a l’air bien mieux fournie. Cela justifiera surement un prix 50-100€ supérieur ?


Aponhcet
Le 22/05/2013 à 09h11






David_L a écrit :

Sinon, au lieu de vous contenter de lire le tableau, lisez le texte hein… <img data-src=" />





fumer tue!




bingo.crepuscule
Le 22/05/2013 à 09h11

À votre avis, Sony va toucher combien pour chaque Xbox One vendue?
Sachant qu’elle intègre un lecteur BD, c’est tout benef pour eux.

Et je ne parle même pas d’AMD qui se retrouve en première position sur le marché du jeu vidéo.


Par contre, gros point faible pour Microsoft, la DDR3 risque d’en faire pâtir les portages…


Charly32 Abonné
Le 22/05/2013 à 09h12

Après microsoft à peut être préféré le 40nm pour avoir un meilleur rendement, car une puce de 5Md de transistor doit coûter bien cher à produire…autant avoir un meilleur Yield quitte à chauffer un peu plus(financièrement parlant).

En revanche la DDR3 est moins rapide que la GDDR, mais elle devrait être moins chère, non? À voir comment les devs vont dealer avec ce goulot d’étranglement.

Au final c’est AMD le grand gagnant de l’histoire qui place ses produits dans 2 consoles next gen…en espérant que ça fasse revenir ses finances dans le vert.
Intel n’est pas en reste vu que cela prouve à ses détracteur que le x86 n’est pas mort

Et pour conclure : vive le PC! <img data-src=" />


nicolasdi28
Le 22/05/2013 à 09h15

Pour la ram, il n’y a pas un pb ?
Pour moi, la GDDR5 de la PS4 est la ram de la carte graphique, et la DDR3 de la Xbox one est celle du processeur ?


DorianM
Le 22/05/2013 à 09h16






nicolasdi28 a écrit :

Pour la ram, il n’y a pas un pb ?
Pour moi, la GDDR5 de la PS4 est la ram de la carte graphique, et la DDR3 de la Xbox one est celle du processeur ?



Mémoire partagée pour le PS4 si mes souvenirs sont bons. Pour la Xbox, aucune idée !



anonyme_6d3c8325027b08b8beb8eb7f143f3660
Le 22/05/2013 à 09h17






xxSeize a écrit :

Pour le coup, la PS4 a l’air bien mieux fournie. Cela justifiera surement un prix 50-100€ supérieur ?



bof à part au niveau de la ram, tout le reste a l’air kifkif quand même



arno53
Le 22/05/2013 à 09h18

D’ailleurs j’ai pas compris le Kinect 2 n’a qu’un seul objectif ? Pour une gestion de la 3D il en faut forcement 2 non ?


Leum Abonné
Le 22/05/2013 à 09h18






nicolasdi28 a écrit :

Pour la ram, il n’y a pas un pb ?
Pour moi, la GDDR5 de la PS4 est la ram de la carte graphique, et la DDR3 de la Xbox one est celle du processeur ?



Depuis la Xbox, la mémoire est partagée sur les consoles de Microsoft. ça offre plus de liberté aux devs j’imagine.

Mais je me souviens pas avoir entendu parler de la nature de la RAM. Et je pensais que la 360 était en GDDR. Ils régressent?



xxSeize
Le 22/05/2013 à 09h20






darkbeast a écrit :

bof à part au niveau de la ram, tout le reste a l’air kifkif quand même



Une ram partagée me semble plus opti pour une console.

Ceci dit, le fait d’avoir des CPU uniquement en architecture x86, c’est pas un peu limite vu les jeux qui vont tourner dessus ?



Anonyme_f7d8f7f164fgnbw67p
Le 22/05/2013 à 09h22






xxSeize a écrit :

Ceci dit, le fait d’avoir des CPU uniquement en architecture x86, c’est pas un peu limite vu les jeux qui vont tourner dessus ?


????
Ca depend du processeur, et il y a des GPU.



xxSeize
Le 22/05/2013 à 09h23






Drepanocytose a écrit :

????
Ca depend du processeur.



Je veux dire, du 32 bits pour des jeux qui devraient aller de maintenant à 2018-2019, c’est pas un peu … moyen ? Aucun moyen que ça joue sur les performances à long terme ?



JCLB Abonné
Le 22/05/2013 à 09h25

Uhm le tableau….. <img data-src=" />
Compare des choux et des patates par endroit:

GDDR5 VS DDR3
On compare de la ram vidéo à de la RAM, alors que chacune a les 2 très probablement.


Radeon VS DirectX
DirectX est un moteur de rendu, on peut l’opposer à OpenGL par exemple.
Radeon est à opposer à geForce ou Intel, bon ici c’est du radeon partout puisque APU AMD.


DorianM
Le 22/05/2013 à 09h25






xxSeize a écrit :

Je veux dire, du 32 bits pour des jeux qui devraient aller de maintenant à 2018-2019, c’est pas un peu … moyen ? Aucun moyen que ça joue sur les performances à long terme ?



x86 != 32 bits !

Ça tournera sur du 64 bits.



JCLB a écrit :

GDDR5 VS DDR3
On compare de la ram vidéo à de la RAM, alors que chacune a les 2 très probablement.



C’est une RAM partagée pour la PS4 de sûr, et apparemment la Xbox One aussi, donc ça se tient.

Pour Radeon et DirectX, on est d’accord…



John Shaft Abonné
Le 22/05/2013 à 09h27






xxSeize a écrit :

Ceci dit, le fait d’avoir des CPU uniquement en architecture x86, c’est pas un peu limite vu les jeux qui vont tourner dessus ?



Nope. Tout les procs PC ont une architecture x86 (d’ailleurs, hormis les smartphones/tablettes qui, hormis ceux avec proc Intel, qui utilisent une archi ARM, le x86 est majoritaire). Ensuite il y a la différence entre une architecture x86 32 bits et 64 bits. C’est là qu’il peut y avoir un écart de perfs.



Anonyme_f7d8f7f164fgnbw67p
Le 22/05/2013 à 09h28






xxSeize a écrit :

Je veux dire, du 32 bits pour des jeux qui devraient aller de maintenant à 2018-2019, c’est pas un peu … moyen ? Aucun moyen que ça joue sur les performances à long terme ?


C’est du 64 bits, x86 c’est l’archi du CPU.
Mais je comprends ton erreur, on voit souvent ecrit, surtout dans les softs du’on DL, x86 par opposition à “x64”

Mais là on parle bien de x86 en 64bits.
De toute facon le 32 bits n’adresse pas plus de 4Go de mémoire, et là on est à 8Go.



djludo61
Le 22/05/2013 à 09h28

Euh Directx 11 c’est une librairie/SDK graphique plutôt qu’une puce graphique. <img data-src=" />


John Shaft Abonné
Le 22/05/2013 à 09h28






JCLB a écrit :

Uhm le tableau….. <img data-src=" />
Compare des choux et des patates par endroit:

GDDR5 VS DDR3
On compare de la ram vidéo à de la RAM, alors que chacune a les 2 très probablement.



Le CPU de la PS4 utilisera cette GDDR5 pour son usage, contrairement à la BoiteX Un. Y a une vraie diff’ sur le papier du coup



HarmattanBlow
Le 22/05/2013 à 09h30






nicolasdi28 a écrit :

Pour la ram, il n’y a pas un pb ?
Pour moi, la GDDR5 de la PS4 est la ram de la carte graphique, et la DDR3 de la Xbox one est celle du processeur ?


La DDR est en effet plutôt meilleure pour les tâches de calcul (faible latence) et la GDDR plutôt meilleure pour les tâches graphiques (forte bande passante), les deux consoles partent donc chacune avec un désavantage sur ces aspects respectifs. Cela dit il y a ces 32 MO de cache au sein du CPU/GPU qui pourraient bien compenser ce défaut sur l’aspect graphique (voire peut-être davantage), faciliter la programmation des jeux (grâce à l’avantage côté calculs) et donc l’exploitation de toute la puissance de la machine, tout en étant moins cher.

C’est un pari osé de MS mais pas inintéressant. Je me demande comment ça se comportera dans les faits. La Xbox ne sera peut-être pas perdante sur les perfs et pourrait peut-être avoir un avantage côté prix.

Malheureusement pour MS des générations de marketeux ont enseigné aux joueurs que GDDR = must-have. Sans doute les mêmes qui autrefois enseignaient la supériorité du GHz.



xxSeize
Le 22/05/2013 à 09h32






Drepanocytose a écrit :

C’est du 64 bits, x86 c’est l’archi du CPU.
Mais je comprends ton erreur, on voit souvent ecrit, surtout dans les softs du’on DL, x86 par opposition à “x64”

Mais là on parle bien de x86 en 64bits.
De toute facon le 32 bits n’adresse pas plus de 4Go de mémoire, et là on est à 8Go.




John Shaft a écrit :

Nope. Tout les procs PC ont une architecture x86 (d’ailleurs, hormis les smartphones/tablettes qui, hormis ceux avec proc Intel, qui utilisent une archi ARM, le x86 est majoritaire). Ensuite il y a la différence entre une architecture x86 32 bits et 64 bits. C’est là qu’il peut y avoir un écart de perfs.




DorianMonnier a écrit :

x86 != 32 bits !

Ça tournera sur du 64 bits.



C’est une RAM partagée pour la PS4 de sûr, et apparemment la Xbox One aussi, donc ça se tient.

Pour Radeon et DirectX, on est d’accord…




Ah merde, donc du coup pourquoi sur les fiches techniques des CPU, on en voit certains en 3264 bits, avec des applications (du genre un OS) en x86 ou x64 ? On peut tout mixer du genre avoir un CPU 64 bits pour des applications X86 ?



Lazare
Le 22/05/2013 à 09h34






arno53 a écrit :

D’ailleurs j’ai pas compris le Kinect 2 n’a qu’un seul objectif ? Pour une gestion de la 3D il en faut forcement 2 non ?



http://fr.wikipedia.org/wiki/Camera_temps_de_vol



ErGo_404
Le 22/05/2013 à 09h34






xxSeize a écrit :

Une ram partagée me semble plus opti pour une console.

Ceci dit, le fait d’avoir des CPU uniquement en architecture x86, c’est pas un peu limite vu les jeux qui vont tourner dessus ?


x86 est un abus de langage qui comprend aussi l’amd64, c’est le jeu d’instructions qui compte.
La console sera forcément en 64 bits, ne serait-ce que pour gérer les 8 Go de ram sans faire de pirouette logicielle.



Charly32 Abonné
Le 22/05/2013 à 09h34

Pourquoi a chaque news sur l’archi des consoles, le débat sur la RAM revient?

C’est pourtant simple :
Pour la ps3, 8Go de GDDR-5 partagée entre le CPU et GPU
Pour la Xbox One, à priori c’est 8go de DDR3 partage entre CPU et GPU

Et sinon les processeurs sont bien en x86-64bits, ne serait-ce que pour adresser les 8Go de RAM.
De plus toutes les gammes de processeurs x86 actuelles (hors atom et cie) gerent le 64 bits.
Et le processeur de la N64 gerait déjà le 64bits (je vous laisse faire le parallèle <img data-src=" />)


John Shaft Abonné
Le 22/05/2013 à 09h35






xxSeize a écrit :

Ah merde, donc du coup pourquoi sur les fiches techniques des CPU, on en voit certains en 3264 bits, avec des applications (du genre un OS) en x86 ou x64 ?



Abus de langage. x86 = x86-32, x64 = x86-64



Nyco87
Le 22/05/2013 à 09h35

Franchement, je sais que les spec pour nous geek c’est important mais… le quidam moyen s’en fiche non ?

Au final, les seules choses qui compte c’est :




  • que la console soit fiable,

  • que les jeux soient beau et fluident

  • que l’on peut s’en servir pour autre chose que jouer. &lt;== en tout cas pour moi

    Même si les spec aident à répondre à une de ces trois choses, au final, à l’achat, on se posera pas la question de “kikalaplugrosse”.


ErGo_404
Le 22/05/2013 à 09h37






arno53 a écrit :

D’ailleurs j’ai pas compris le Kinect 2 n’a qu’un seul objectif ? Pour une gestion de la 3D il en faut forcement 2 non ?


Ce qui compte ce n’est pas d’avoir un rendu en 3D pour l’utilisateur, mais de capter une scène en 3D. Pour ça pas besoin de deux objectifs.
En fait le capteur ne fait que capturer l’information de profondeur de la scène. Comme l’utilisateur fait normalement face à son écran, ça suffit pour savoir dans quelle position est son corps.


En tous cas j’espère que Kinect sera optimisé pour des distances réduites, sinon l’intérêt sera toujours plutôt faible pour tous ceux (et on est nombreux dans ce cas !) qui ont un petit salon.



xxSeize
Le 22/05/2013 à 09h37

Merci pour les explications !







Nyco87 a écrit :

Franchement, je sais que les spec pour nous geek c’est important mais… le quidam moyen s’en fiche non ?

Au final, les seules choses qui compte c’est :




  • que la console soit fiable,

  • que les jeux soient beau et fluident

  • que l’on peut s’en servir pour autre chose que jouer. &lt;== en tout cas pour moi

    Même si les spec aident à répondre à une de ces trois choses, au final, à l’achat, on se posera pas la question de “kikalaplugrosse”.



    Ben quand tu vois que sur Xbox, il n’y a à proprement parler aucun jeu fluide, toujours des baisses de frame infâmes, très peu de jeux en 60 FPS, les specs deviennent importantes.



DorianM
Le 22/05/2013 à 09h38






xxSeize a écrit :

Ah merde, donc du coup pourquoi sur les fiches techniques des CPU, on en voit certains en 3264 bits, avec des applications (du genre un OS) en x86 ou x64 ? On peut tout mixer du genre avoir un CPU 64 bits pour des applications X86 ?



Ouais tu confonds tout. <img data-src=" />

Alors x86, c’est une architecture de processeur, utilisé historiquement des les PC et compatible PC (y compris les Macs depuis quelques années).

Les premiers processeur x86 avaient un espace d’adressage de 16 bits, qui a évolué vers 32 puis 64 maintenant.

Les processeurs x86 assurent une compatibilité ascendante, donc tu peux faire tourner des applications 32 bits sur du 64 bits. <img data-src=" />

Edit : totalement grillé ! <img data-src=" />



Anonyme_f7d8f7f164fgnbw67p
Le 22/05/2013 à 09h39






John Shaft a écrit :

Abus de langage. x86 = x86-32, x64 = x86-64


Voilà.
x86 c’est l’architecture du CPU, à opposer à ARM par exemple.

Quand on voit écrit x86 et que ca ne parle pas de la microarchi, ca veut dire x86-32bits laplupart du temps, par abus de langage….

Mais c’est vrai que les editeurs font chier, ils pourraient écrire “x86-32” et “x86-64”, ca ne mange pas pain.

Edit : regrillé par Dorian.
Edit 2 : pour être complet, du peut faire tourner du x86-32 sur du x86-64 comme Dorian dit, et la limitation en terme d’adressage mémoire du 32 bit c’est 4 Go (2^32 schematiquement)



anonyme_c81656a6914322f787aebc9dfc4d2ae4
Le 22/05/2013 à 09h40






Nyco87 a écrit :




  • que les jeux soient beau et fluident


    Du verbe fluider.

    Pardon, c’était trop tentant <img data-src=" />



nucl3arsnake
Le 22/05/2013 à 09h41






xxSeize a écrit :

Une ram partagée me semble plus opti pour une console.

Ceci dit, le fait d’avoir des CPU uniquement en architecture x86, c’est pas un peu limite vu les jeux qui vont tourner dessus ?


Sur ton PC tes jeux sont en x86 (regarde le chemin par défault ^^) et ceux depuis loooongtemps



spamator
Le 22/05/2013 à 09h42

Pourquoi faire une présentation officielle si ce n’est pour ne pas dévoiler complemetement la console ??
Pour lutter contre la concurrence ? je ne pense pas que Sony change de composant du jour au lendemain qques mois avant la prez de la playstation..

je ne saisis pas l’intérêt d’une telle stratégie.


ze_fly
Le 22/05/2013 à 09h42






David_L a écrit :

Sinon, au lieu de vous contenter de lire le tableau, lisez le texte hein… <img data-src=" />



Déjà on a été jusqu’au tableau, alors que des fois on se contente du titre! Note le progrès ! <img data-src=" />



Nyco87
Le 22/05/2013 à 09h43






Nathan1138 a écrit :

Du verbe fluider.

Pardon, c’était trop tentant <img data-src=" />



Oups bien vu <img data-src=" />



nucl3arsnake
Le 22/05/2013 à 09h43






ze_fly a écrit :

Déjà on a été jusqu’au tableau, alors que des fois on se contente du titre! Note le progrès ! <img data-src=" />


Moi je m’arete au sous-titre, après y’a plus d’humour donc ca vaut pas le coup <img data-src=" />



Anonyme_f7d8f7f164fgnbw67p
Le 22/05/2013 à 09h43






spamator a écrit :

Pourquoi faire une présentation officielle si ce n’est pour ne pas dévoiler complemetement la console ??
…..


Pour pouvoir faire 2 présentations officielles et faire baver le geek en attendant <img data-src=" />



arno53
Le 22/05/2013 à 09h46






xxSeize a écrit :

Ah merde, donc du coup pourquoi sur les fiches techniques des CPU, on en voit certains en 3264 bits, avec des applications (du genre un OS) en x86 ou x64 ? On peut tout mixer du genre avoir un CPU 64 bits pour des applications X86 ?



C’est un abus de langage le x86 c’est surtout pour se différencier de l’ARM après aujourd’hui tout les processeur x86 sont en 64 bits (excepté les atoms qui sont encore en 32 mais qui devraient passé au 64 bits dans 1 an ou 2)

Sinon les logiciels 32 bits marche sur du x86 32 et 64 bits mais pas l’inverse ..



nucl3arsnake
Le 22/05/2013 à 09h46






spamator a écrit :

Pourquoi faire une présentation officielle si ce n’est pour ne pas dévoiler complemetement la console ??
Pour lutter contre la concurrence ? je ne pense pas que Sony change de composant du jour au lendemain qques mois avant la prez de la playstation..

je ne saisis pas l’intérêt d’une telle stratégie.


Sur une news de l’annonce PS4, on pouvais lire que Sony avait augmenté la mémoire dispo a la dernière minute grace à la demande des dev, donc on sais pas.



spamator
Le 22/05/2013 à 09h47






Drepanocytose a écrit :

Pour pouvoir faire 2 présentations officielles et faire baver le geek en attendant <img data-src=" />



Ah ok…
On vit vraiment dans une société qui incite à la consommation.
je “baverai” plus en sachant tout ce qu il y a savoir plutot qu’en spéculant sur d’hypothétiques performances.

Ca me fzit penser la vidéo de “teasing” de Sony et de sa PS4… hoou que ca donne envie.. <img data-src=" />



John Shaft Abonné
Le 22/05/2013 à 09h47






DorianMonnier a écrit :

Edit : totalement grillé ! <img data-src=" />



Ça tombe bien, les beaux jours semblent revenir et avec eux les barbecues <img data-src=" />

<img data-src=" />



azedrummer
Le 22/05/2013 à 09h48

Ce n’est pas de la DDR3 sur la Xbox One, c’est impossible.

Il y a de la GDDR3 à 22Go/s sur la X360, ils peuvent mettre une mémoire encore plus lente aujourd’hui, ça me parait totalement improbable !


amenophis57
Le 22/05/2013 à 09h48

jamais 2 consoles ne seront finalement aussi proche en terme de hardware ….

et aucune des 2 ne fait vraiment rever ….

2014 l’annee du pc ?


spamator
Le 22/05/2013 à 09h48






nucl3arsnake a écrit :

Sur une news de l’annonce PS4, on pouvais lire que Sony avait augmenté la mémoire dispo a la dernière minute grace à la demande des dev, donc on sais pas.



Pour la RAM oui, mais changer le chipset graphique, ou mettre un module bluetooth ou wifi direct, ou qqch comme ça, ce nest pas pareil.

Enfin je pense



DorianM
Le 22/05/2013 à 09h49






John Shaft a écrit :

Ça tombe bien, les beaux jours semblent revenir et avec eux les barbecues <img data-src=" />



C’est pas demain la veille en tout cas. <img data-src=" /> <img data-src=" />



tsubasaleguedin
Le 22/05/2013 à 09h49

En meme temps ca a famais fait rêvé le hard d’une console ‘next gen’




amenophis57 a écrit :

jamais 2 consoles ne seront finalement aussi proche en terme de hardware ….

et aucune des 2 ne fait vraiment rever ….

2014 l’annee du pc ?




HarmattanBlow
Le 22/05/2013 à 09h50






amenophis57 a écrit :

2014 l’annee du pc ?


Seulement dans mes rêves. <img data-src=" />



CharmingShaman
Le 22/05/2013 à 09h51

Pourquoi mettre GDDR5 et DDR3 sur la même ligne? Je croyais que l’un faisait référence à la mémoire de la CG alors que le second à la mémoire vive.. Un truc que je n’ai pas compris ou bien ça n’a vraiment rien à voir?


k43l
Le 22/05/2013 à 09h51






JCLB a écrit :

Uhm le tableau….. <img data-src=" />
Compare des choux et des patates par endroit:


Radeon VS DirectX
DirectX est un moteur de rendu, on peut l’opposer à OpenGL par exemple.
Radeon est à opposer à geForce ou Intel, bon ici c’est du radeon partout puisque APU AMD.



OHHHH faut être sérieux quand même

Quand on te parle de next gen radeon vs direct x11.1 c’est pour te donner une idée des cartes graphiques qui vont être utilisé pas une comparaison pur.
D’ailleur l’article c’est combat des caractéristiques techniques pas comparaison.


Sinon
Tout le monde est concentré sur la RAM totale.
Personne ne parle de la eSRAM de la XO.
Vous pensez que c’est possible que cette petite partie de ram soit uniquement dédié au GPU.
Et puis comme dit on ne sait pas si sur la totalité de la ram de la XO est sur DDR3 notamment pour le GPU. Depuis 2009 presque ATI/AMD utilise uniquement de la GDDR pour ces carte graphiques <img data-src=" />



Ralph-
Le 22/05/2013 à 09h53






Charly32 a écrit :

Pourquoi a chaque news sur l’archi des consoles, le débat sur la RAM revient?

C’est pourtant simple :
Pour la ps3, 8Go de GDDR-5 partagée entre le CPU et GPU
Pour la Xbox One, à priori c’est 8go de DDR3 partage entre CPU et GPU

Et sinon les processeurs sont bien en x86-64bits, ne serait-ce que pour adresser les 8Go de RAM.
De plus toutes les gammes de processeurs x86 actuelles (hors atom et cie) gerent le 64 bits.
Et le processeur de la N64 gerait déjà le 64bits (je vous laisse faire le parallèle <img data-src=" />)



La N64 avait un bus mémoire de largeur de 64 bits pour la RAM vidéo, ça n’avait rien a voir avec la taille maximale d’adressage mémoire du CPU. C’est comme si je disais que mon PC est 384 bits parce que j’ai une Radeon 7970 avec un CPU 32 bits.



nucl3arsnake
Le 22/05/2013 à 09h54






spamator a écrit :

Pour la RAM oui, mais changer le chipset graphique, ou mettre un module bluetooth ou wifi direct, ou qqch comme ça, ce nest pas pareil.

Enfin je pense


Autant changé le GPU je veux bien, autant le bluetooth je suis pas sur que ca soit compliqué ^^”



nucl3arsnake
Le 22/05/2013 à 09h55






arno53 a écrit :

Sinon les logiciels 32 bits marche sur du x86 32 et 64 bits mais pas l’inverse ..


Pas tous, logiciels de musiques par exemples, même sur GNU/Linux te faut parfois mettre les librairies 32 bits !



GoobY13 Abonné
Le 22/05/2013 à 09h56

A quoi sert le wifi direct concretement ?


arno53
Le 22/05/2013 à 09h56






amenophis57 a écrit :

jamais 2 consoles ne seront finalement aussi proche en terme de hardware ….



Comme les MACs et les PC <img data-src=" />

Apres ca devient limite normal vu le cout des développements de jeu et des critiques faite sur la difficulté de programmation des anciennes consoles … là on uniformise tout sur l’archi PC que tout les devs ont appris a l’école, les portagent sont facilité etc …



David_L Abonné
Le 22/05/2013 à 09h57






bingo.crepuscule a écrit :

À votre avis, Sony va toucher combien pour chaque Xbox One vendue?
Sachant qu’elle intègre un lecteur BD, c’est tout benef pour eux.

Et je ne parle même pas d’AMD qui se retrouve en première position sur le marché du jeu vidéo.


Attention tout de même, AMD ne fabrique rien. Après on ne sait pas s’ils touche un gros chèque ou un part sur chaque console vendue pour leur IP. On verra les prochains résultats financiers :)


Par contre, gros point faible pour Microsoft, la DDR3 risque d’en faire pâtir les portages…

Quel rapport ?



Charly32 a écrit :

Après microsoft à peut être préféré le 40nm pour avoir un meilleur rendement, car une puce de 5Md de transistor doit coûter bien cher à produire…autant avoir un meilleur Yield quitte à chauffer un peu plus(financièrement parlant).


Oui c’est sur, on met plus de puces en 40 nm que de puces en 28 nm sur un wafer <img data-src=" />


En revanche la DDR3 est moins rapide que la GDDR, mais elle devrait être moins chère, non? À voir comment les devs vont dealer avec ce goulot d’étranglement.

Rien à voir, ce sont juste des technos différentes. Plus rapide ou pas, ça dépend de la fréquence hein ;) Pour parler de goulot d’étranglement, il faut aussi en savoir plus que le simple type de mémoire.



nicolasdi28 a écrit :

Pour la ram, il n’y a pas un pb ?
Pour moi, la GDDR5 de la PS4 est la ram de la carte graphique, et la DDR3 de la Xbox one est celle du processeur ?


Non. Même si ça n’a pas été précisé par MS, c’est sans doute de la mémoire partagée. D’après toi, on fait comment avec les IGP intégré aux APU ? On met de la GDDR5 sur la mobo parce que avec un “G” ça rend mieux ? <img data-src=" /> Non, on partage la mémoire système ;) (sauf dans certains cas spécifiques).



arno53 a écrit :

D’ailleurs j’ai pas compris le Kinect 2 n’a qu’un seul objectif ? Pour une gestion de la 3D il en faut forcement 2 non ?


L’IR est utilisé pour la profondeur



JCLB a écrit :

Uhm le tableau….. <img data-src=" />
Compare des choux et des patates par endroit:

GDDR5 VS DDR3
On compare de la ram vidéo à de la RAM, alors que chacune a les 2 très probablement.


Non


Radeon VS DirectX
DirectX est un moteur de rendu, on peut l’opposer à OpenGL par exemple.
Radeon est à opposer à geForce ou Intel, bon ici c’est du radeon partout puisque APU AMD.

On met ce que l’on sait sur les GPU. L’un donne un nom, l’autre juste la version de DX supportée.



Nyco87 a écrit :

Franchement, je sais que les spec pour nous geek c’est important mais… le quidam moyen s’en fiche non ?

Au final, les seules choses qui compte c’est :




  • que la console soit fiable,

  • que les jeux soient beau et fluident

  • que l’on peut s’en servir pour autre chose que jouer. &lt;== en tout cas pour moi

    Même si les spec aident à répondre à une de ces trois choses, au final, à l’achat, on se posera pas la question de “kikalaplugrosse”.


    Oui on se fout des specs, mais c’est toujours intéressant de voir ce qui est fait à ce niveau. Puis si on devait attendre de voir ce que valent les consoles, on en parlerait pas avant Q4. Tu serais plus avancé, hein <img data-src=" />



DorianM
Le 22/05/2013 à 09h57






nucl3arsnake a écrit :

Pas tous, logiciels de musiques par exemples, même sur GNU/Linux te faut parfois mettre les librairies 32 bits !



Ben ils marchent donc, certes il faut les bibliothèques, mais ça marche. <img data-src=" />



DorianM
Le 22/05/2013 à 09h58






GoobY13 a écrit :

A quoi sert le wifi direct concretement ?



Si j’ai bien compris, c’est pour les liaisons avec les manettes (+ autres accessoires ?), ça remplace donc le bluetooth.



lossendae
Le 22/05/2013 à 09h58






xxSeize a écrit :

Ben quand tu vois que sur Xbox, il n’y a à proprement parler aucun jeu fluide, toujours des baisses de frame infâmes, très peu de jeux en 60 FPS, les specs deviennent importantes.



La PS3 propose des jeux plus ternes et avec plus d’aliasing que la 360.
Comme quoi il n’y a pas de supériorité extrême.




azedrummer
Le 22/05/2013 à 09h58






CharmingShaman a écrit :

Pourquoi mettre GDDR5 et DDR3 sur la même ligne? Je croyais que l’un faisait référence à la mémoire de la CG alors que le second à la mémoire vive.. Un truc que je n’ai pas compris ou bien ça n’a vraiment rien à voir?



Dans nos PC, la GDDR est utilisé dans les cartes graphiques et la DDR3 pour le CPU… Mais des cartes graphiques avec de la DDR ont existé aussi, l’un n’empêche pas l’autre.

Après, bien que ces consoles ressemblent à des PC, le matos est quand même adapté à l’usage qui en est fait, donc dans ce cas là, le CPU à un contrôleur mémoire qui lui permet d’utiliser de la GDDR et de profiter de la bande passante supplémentaire qu’elle propose.

Mais dans tous les cas, il est peu probable que la XOne utilise de la DDR3 unifiée. Ou alors sur les 8Go, il y en a par exemple 2 en DDR3 pour le système et 6Go en GDDR5 pour les jeux. Nous n’avons pas plus de détails encore, donc difficile d’en tirer des infos fiables



nucl3arsnake
Le 22/05/2013 à 09h59






DorianMonnier a écrit :

Ben ils marchent donc, certes il faut les bibliothèques, mais ça marche. <img data-src=" />


Certains ne marchent purement pas =) .

Je me rappel plus du logiciel mai un logiciel “grand public” de musiques (d’enregistrement), si ton processeur est 32 bits faut le 32 bits obligatoirement, et idem pour le 64 bits.



nicolasdi28
Le 22/05/2013 à 09h59






David_L a écrit :

Non. Même si ça n’a pas été précisé par MS, c’est sans doute de la mémoire partagée. D’après toi, on fait comment avec les IGP intégré aux APU ? On met de la GDDR5 sur la mobo parce que avec un “G” ça rend mieux ? <img data-src=" /> Non, on partage la mémoire système ;) (sauf dans certains cas spécifiques).



Je pensais qu’il y avait les deux, comme dans une archi PC ( avec CG dédiée)



arno53
Le 22/05/2013 à 10h02






GoobY13 a écrit :

A quoi sert le wifi direct concretement ?



Avoir une synergie avec les tablettes/smartphones compatible. De plus avec l’application SmartGlass on peut imaginé que MS pourras concurrencé l’idée de la WiiU.

Et puis windows (phone) blue seront compatible Miracast (qui s’appuie sur du Direct Wifi) pour envoyé un flux video d’un appareil a un autre. Enfaite y’a plein de posibilité et c’est bien <img data-src=" />



bingo.crepuscule
Le 22/05/2013 à 10h03






DorianMonnier a écrit :

Si j’ai bien compris, c’est pour les liaisons avec les manettes (+ autres accessoires ?), ça remplace donc le bluetooth.



Les manettes xbox 360 utilisent déjà le même procédé, elles se basent sur une techno Wifi, pas sur le bluetooth. :)



CharmingShaman
Le 22/05/2013 à 10h03






azedrummer a écrit :

Dans nos PC, la GDDR est utilisé dans les cartes graphiques et la DDR3 pour le CPU… Mais des cartes graphiques avec de la DDR ont existé aussi, l’un n’empêche pas l’autre.

Après, bien que ces consoles ressemblent à des PC, le matos est quand même adapté à l’usage qui en est fait, donc dans ce cas là, le CPU à un contrôleur mémoire qui lui permet d’utiliser de la GDDR et de profiter de la bande passante supplémentaire qu’elle propose.



Ah d’accord! merci pour les explications <img data-src=" />



Anonyme_f7d8f7f164fgnbw67p
Le 22/05/2013 à 10h04






nucl3arsnake a écrit :

Certains ne marchent purement pas =) .

Je me rappel plus du logiciel mai un logiciel “grand public” de musiques (d’enregistrement), si ton processeur est 32 bits faut le 32 bits obligatoirement, et idem pour le 64 bits.


???
T’es sûr de toi ?
Que c’est lié au CPU et pas à l’OS, je veux dire ?

Ca me rappelle Flash sur les linux en 64bits il y a un temps, il fallait chrooter un environnement 32 bits pour le faire tourner…



Vanilys
Le 22/05/2013 à 10h04






xxSeize a écrit :

Pour le coup, la PS4 a l’air bien mieux fournie. Cela justifiera surement un prix 50-100€ supérieur ?


J’ai l’impression exactement inverse pourtant ?



azedrummer
Le 22/05/2013 à 10h05






CharmingShaman a écrit :

Ah d’accord! merci pour les explications <img data-src=" />



<img data-src=" />



ErGo_404
Le 22/05/2013 à 10h05






xxSeize a écrit :

Merci pour les explications !

Ben quand tu vois que sur Xbox, il n’y a à proprement parler aucun jeu fluide, toujours des baisses de frame infâmes, très peu de jeux en 60 FPS, les specs deviennent importantes.



Infâmes, faut pas abuser non plus. J’ai eu quelques jeux avec des ralentissements mais grosso modo ça tourne très bien. Après qu’on ait 40 ou 60 fps peu importe. S’acharner contre un détail pareil c’est du pinaillage, en pratique les gens s’amusent quand même dessus.
A te lire on dirait que la console est inutilisable tellement elle est lente, ce qui est faux. Après si certains de tes jeux sont mal optimisés c’est une autre histoire.



azedrummer
Le 22/05/2013 à 10h06






Vanilys a écrit :

J’ai l’impression exactement inverse pourtant ?



J’ai l’impression surtout que ce sont les mêmes consoles et que tout se jouera sur la partie logicielle et services associés.



malhadie
Le 22/05/2013 à 10h07

Les consoles seront sensiblement identiques.
Ils sont pas fou étant donné que la plupart des jeux seront portés sur les deux plateformes.
Après c’est juste certaines fonctionnalités à l’usage qui feront la différence entres les deux consoles.

.


kamuisuki
Le 22/05/2013 à 10h16






John Shaft a écrit :

Ça tombe bien, les beaux jours semblent revenir et avec eux les barbecues <img data-src=" />

<img data-src=" />


C’est faux en plus, puisque ça sortira comme chauffage d’appoint pour
l’hiver.
<img data-src=" />



xxSeize
Le 22/05/2013 à 10h40






ErGo_404 a écrit :

Infâmes, faut pas abuser non plus. J’ai eu quelques jeux avec des ralentissements mais grosso modo ça tourne très bien. Après qu’on ait 40 ou 60 fps peu importe. S’acharner contre un détail pareil c’est du pinaillage, en pratique les gens s’amusent quand même dessus.
A te lire on dirait que la console est inutilisable tellement elle est lente, ce qui est faux. Après si certains de tes jeux sont mal optimisés c’est une autre histoire.



Castlevania est une véritable horreur sur Xbox, même une fois le jeu installée. GoW 3 subit de sacré baisses sur les environnements ouverts, je parle pas non plus de Bayonetta ou tu peux limite descendre à 10 FPS avec certains moves … les exemples sont vraiment nombreux.



yeagermach1
Le 22/05/2013 à 10h59






xxSeize a écrit :

Castlevania est une véritable horreur sur Xbox, même une fois le jeu installée. GoW 3 subit de sacré baisses sur les environnements ouverts, je parle pas non plus de Bayonetta ou tu peux limite descendre à 10 FPS avec certains moves … les exemples sont vraiment nombreux.


Euh bayonetta est parfaitement fluide sur tous les mouvements sur X360. Et apres patch, il l’est tout autant sur PS3. La seule nuance entre les deux versions est que sur PS3, l’acces au menu est super lent.



xxSeize
Le 22/05/2013 à 11h11






yeagermach1 a écrit :

Euh bayonetta est parfaitement fluide sur tous les mouvements sur X360. Et apres patch, il l’est tout autant sur PS3. La seule nuance entre les deux versions est que sur PS3, l’acces au menu est super lent.



Le trick du rocket launcher = 10 FPS :s



yeagermach1
Le 22/05/2013 à 11h13

Mouvement officiel ou exploit ? Parce que je viens de me retapper tous les mouvements officiel avec le rocket launcher et aucun n’a ramé sur X360.


cyrano2 Abonné
Le 22/05/2013 à 11h21

SI on se rappel l’interview de l’ingénieur de Sony, on a donc GDDR5 256 bits sans edram, vs DDR3 128 bits + 32 Mo d’edram.

Les 32 Mo sont 5 fois plus rapide que la GDDR5, mais c’est uniquement 32 Mo. Cela sent le même genre de problème de programmation que la PS3 avec ces cells ayant uniquement 256Ko de mémoire local:)


AngelSword
Le 22/05/2013 à 11h24

8 GB GDDR5, un GPU customisé, une quasi absence de goulot d’étranglement, un Pad qui à l’air franchement sympa, les exclusivités Sony, franchement moi la PS4 me plait et j’attends tout le travail fait par les studio Sony (c’est tout ce qui m’importe, les jeux des studio Sony ).

Je pense qu’on sera surpris à l’E3 sur cette machine.


yeagermach1
Le 22/05/2013 à 11h24

La combinaison memoire classique + Edram est deja d’actualité sur Xbox 360 et est plutot apprecié des devs.

Pourquoi changer une methode qui marche.


k43l
Le 22/05/2013 à 11h25

Non mais Bayonetta était très mal foutu.
Le jeu exploité pas à fond la console et pourtant moi aussi j’avais des saccades.
(xbox premiere gen 2005-2006)

Un peu comme Ninja Gaiden 2. Très bon jeu mais buggué comme pas possible avec des saccades parfois.

Bref je pense qu’il faut faire la différence entre les jeux buggué et les jeux qui exploite à fond les capacités genre GTA - GoW ou autres…


AngelSword
Le 22/05/2013 à 11h29

Ouais bah moi les specs je ne m’en fou pas, sinon la Wii-U ferait un carton, que dis-je, la NES serait encore sur les étalages, donc à d’autres hein.

Les sepcs permettent d’avoir une idée de ce que les développeurs pourront tirer de la machine pour nous offrir des jeux plus esthétique avec des ambiances plus travailler par exemple, pour une plus grande immersion, une meilleurs réactivité etc


k43l
Le 22/05/2013 à 11h31






yeagermach1 a écrit :

La combinaison memoire classique + Edram est deja d’actualité sur Xbox 360 et est plutot apprecié des devs.

Pourquoi changer une methode qui marche.



Il me semble que la Xbox 360 avait de la GDDR3 ou 5 - 512mo + eDRAM.

Franchement j’ai du mal à imaginer que la totalité de la ram de la Xbox One soit entièrement en DDR3. <img data-src=" />
C’est selon moi une faiblesse totale pour les capacités graphiques !



Holly Brius
Le 22/05/2013 à 11h32

C’est toujours d’actualité pour la xbox one d’être ,et connecté au net et d’avoir obligatoirement le kinect2 de connecté?
Si c’est encore le cas, y aura intérêt à filtrer ce qui sort de la xbox.. d’ic à ce que MS nous la fasse à la skipe…


Nyco87
Le 22/05/2013 à 11h45






David_L a écrit :

Oui on se fout des specs, mais c’est toujours intéressant de voir ce qui est fait à ce niveau. Puis si on devait attendre de voir ce que valent les consoles, on en parlerait pas avant Q4. Tu serais plus avancé, hein <img data-src=" />



Ha ben de toute façon, pour les deux, on n’est pas beaucoup avancé non plus <img data-src=" />

E3 E3 E3 montre nous des jeux et du Gameplay <img data-src=" />



Snakeseater
Le 22/05/2013 à 11h53

9 pages qui parlent de RAM, FapFapFap <img data-src=" />


Tolor
Le 22/05/2013 à 12h18






spamator a écrit :

Pourquoi faire une présentation officielle si ce n’est pour ne pas dévoiler complemetement la console ??
Pour lutter contre la concurrence ? je ne pense pas que Sony change de composant du jour au lendemain qques mois avant la prez de la playstation..

je ne saisis pas l’intérêt d’une telle stratégie.


Partie GP présentée pour une conf GP
Partie Gamer pour l’E3



Sebdraluorg
Le 22/05/2013 à 12h19






Snakeseater a écrit :

9 pages qui parlent de RAM, FapFapFap <img data-src=" />


T’as qu’à afficher plus de 10 messages par pages ! <img data-src=" />



levhieu
Le 22/05/2013 à 12h23

Pour la valse hésitation entre 40 et 28 nm, est-ce que c’est pas dû au fait que certains auraient vu des cartes prototypes ou de pré-série avec ce qui est disponible (à un prix raisonnable) pour l’instant, soit 40nm, tandis que les cartes définitives auront le chip qu’AMD a promis (enfin, son fondeur a promis), soit 28nm ?


GutsCrush3R
Le 22/05/2013 à 12h39

Contrairement à ce que laisse supposer la news, on connait la puissance de la partie GPU pour la Xbox : 1.2 Tflops. Ça a été confirmé.
Donc 1.2Tflops vs 1.8Tflops.

De toute manière, c’est bien simple. Les specs de VGLeaks de janvier son 100% juste. De la même manière qu’ils avaient tout juste pour la PS4 et pour la Wii U.






cyrano2 a écrit :

SI on se rappel l’interview de l’ingénieur de Sony, on a donc GDDR5 256 bits sans edram, vs DDR3 128 bits + 32 Mo d’edram.


Ce n’est pas de l’edram mais de l’esram (avec une BP de 102GB/s).



DorianM
Le 22/05/2013 à 12h40






Sebdraluorg a écrit :

T’as qu’à afficher plus de 10 messages par pages ! <img data-src=" />



+1, moi j’ai que deux pages qui parlent de RAM, c’est tout de suite plus digeste ! <img data-src=" />



yeagermach1
Le 22/05/2013 à 12h42






GutsCrush3R a écrit :

Contrairement à ce que laisse supposer la news, on connait la puissance de la partie GPU pour la Xbox : 1.2 Tflops. Ça a été confirmé.
Donc 1.2Tflops vs 1.8Tflops.

De toute manière, c’est bien simple. Les specs de VGLeaks de janvier son 100% juste. De la même manière qu’ils avaient tout juste pour la PS4 et pour la Wii U.


Ce n’est pas de l’edram mais de l’esram (avec une BP de 102GB/s).


A part qu’il s’etait gourré sur la taille de la memoire pour la PS4. Et tu as lu ou que la puissance du GPU confirmé par MS ?



anonyme_372621a5c8f2f57cec4b7768a4040184
Le 22/05/2013 à 12h45

Perso, ça aurait été mieux d’utiliser un code couleur : Vert quand la caractéristique est la meilleure des 2 et rouge quand c’est la moins bonne des 2.


nucl3arsnake
Le 22/05/2013 à 12h57






Drepanocytose a écrit :

???
T’es sûr de toi ?
Que c’est lié au CPU et pas à l’OS, je veux dire ?

Ca me rappelle Flash sur les linux en 64bits il y a un temps, il fallait chrooter un environnement 32 bits pour le faire tourner…


lié à l’ OS si, autant pour moi.

Dans tout les cas les 64 bits n’est pas tjs compatible 32, la preuve =)



lanic29
Le 22/05/2013 à 13h02

De la DDR3 pour la xbox ….. <img data-src=" />

En tout cas c’est AMD qui va être content d’équiper les 2 prochaines consoles de salon <img data-src=" />


HarmattanBlow
Le 22/05/2013 à 13h18






cyrano2 a écrit :

Cela sent le même genre de problème de programmation que la PS3 avec ces cells ayant uniquement 256Ko de mémoire local:)


N’exagérons pas. <img data-src=" />
En fait je ne suis pas sûr que cela nécessite vraiment la moindre optimisation de la part des dévs : peu importe si pour un ou deux modèles les textures ne tiennent pas dans ce cache, pour la plupart ce sera le cas sans faire d’effort. Et a priori le driver devrait tout à fait être capable d’anticiper de façon transparente les chargement de textures en cache.



HarmattanBlow
Le 22/05/2013 à 13h19






Snakeseater a écrit :

9 pages qui parlent de RAM, FapFapFap <img data-src=" />


Tu utilises encore de la mémoire paginée ?!




Ouais, bon, désolé, elle est nulle.



Séphi
Le 22/05/2013 à 13h28






HarmattanBlow a écrit :

N’exagérons pas. <img data-src=" />
En fait je ne suis pas sûr que cela nécessite vraiment la moindre optimisation de la part des dévs : peu importe si pour un ou deux modèles les textures ne tiennent pas dans ce cache, pour la plupart ce sera le cas sans faire d’effort. Et a priori le driver devrait tout à fait être capable d’anticiper de façon transparente les chargement de textures en cache.



Et puis visiblement c’était déjà le cas sur la 360 et ça leur a plutôt réussi donc bon. Équipe qui gagne comme on dit <img data-src=" />

Perso j’ai quand même été plus emballé par la prèz et les specs de la PS4, ils ont réussi à me mettre l’eau à la bouche eux.



lossendae
Le 22/05/2013 à 14h18






lanic29 a écrit :

En tout cas c’est AMD qui va être content d’équiper les 2 prochaines consoles de salon <img data-src=" />



Qu’a moité, il ne se font ps une marge suffisante pour être confortable.



amenophis57
Le 22/05/2013 à 14h36

si nvidia veut pourrir MS et sony qui ont choisi AMD pour leurs consoles , ils sortent une carte graphique next-gen pour pc ,digne de ce nom n, aux belles performances et a un prix non exageré



levhieu
Le 22/05/2013 à 14h48






amenophis57 a écrit :

si nvidia veut pourrir MS et sony qui ont choisi AMD pour leurs consoles , ils sortent une carte graphique next-gen pour pc ,digne de ce nom n, aux belles performances et a un prix non exageré



Oui, parce que leur console de jeux c’est pas vraiment ça côté attractivité par le tarif



Séphi
Le 22/05/2013 à 14h57






levhieu a écrit :

Oui, parce que leur console de jeux c’est pas vraiment ça côté attractivité par le tarif



Je vois pas le rapport : combattre des consoles avec un GPU Oo



Bowbie
Le 22/05/2013 à 15h02







David_L a écrit :

L’IR est utilisé pour la profondeur



Si j’ai pas vraiment envie de balancer de l’infrarouge a tout bout de champ dans mes yeux et ceux de mon gamin pour éviter de devenir aveugle, je suis un vieux con?



lossendae
Le 22/05/2013 à 15h06






amenophis57 a écrit :

si nvidia veut pourrir MS et sony qui ont choisi AMD pour leurs consoles , ils sortent une carte graphique next-gen pour pc ,digne de ce nom n, aux belles performances et a un prix non exageré



T’as le sens des affaires toi dis moi <img data-src=" />



Groumfy
Le 22/05/2013 à 15h23






amenophis57 a écrit :

si nvidia veut pourrir MS et sony qui ont choisi AMD pour leurs consoles , ils sortent une carte graphique next-gen pour pc ,digne de ce nom n, aux belles performances et a un prix non exageré



Geforce GTX Titan ?
Radeon HD 7990 ?

Et après, faut ajouter le core i7, les 8Go de RAM …



amenophis57
Le 22/05/2013 à 15h43

peu importe , ce qu’il faut voir par la c’est qu’un chip graphique AMd dans les 2 consoles ne va pas arranger leur image ou leur faire de la pub pour leur secteur carte graphique PC

Il va de sens que dans les mois a venir si je veux “m’assurer” un parfait portage pour les jeux , je vais etre tenté de prendre la nouvelle carte graphique AMD plutot que celle de nvidia


lossendae
Le 22/05/2013 à 15h45






Groumfy a écrit :

Geforce GTX Titan ?
Radeon HD 7990 ?

Et après, faut ajouter le core i7, les 8Go de RAM …



la carte mere, le boitier, le refroidissement, les manettes…

la machine de jeux à 1500 € \o/



lossendae
Le 22/05/2013 à 15h48






amenophis57 a écrit :

peu importe , ce qu’il faut voir par la c’est qu’un chip graphique AMd dans les 2 consoles ne va pas arranger leur image ou leur faire de la pub pour leur secteur carte graphique PC

Il va de sens que dans les mois a venir si je veux “m’assurer” un parfait portage pour les jeux , je vais etre tenté de prendre la nouvelle carte graphique AMD plutot que celle de nvidia



Parce que tu partirai du postulat erroné qu’un jeu peut profiter d’un parfait portage d’une console vers un pC qui favorisera AMD plutot qu’nvidia.



amenophis57
Le 22/05/2013 à 15h51

je pars du postulat que les jeux pc etant moins optimisé, moins le developpeur aura a se casser la tete en utilisant du materiel “similaire” et plus le portage sera bon


GutsCrush3R
Le 22/05/2013 à 15h52






yeagermach1 a écrit :

A part qu’il s’etait gourré sur la taille de la memoire pour la PS4. Et tu as lu ou que la puissance du GPU confirmé par MS ?


Juste après la conférence, il y a eu un “architecture panel” sur la même scène.
http://majornelson.com/2013/05/21/xbox-one-architecture-panel/

Ils n’ont évidemment pas dit de vive voix 1.2 Tflops vu que ça ne les met pas sous une bonne lumière face aux 1.8 Tflops de la PS4, mais ils ont donné toutes les autres infos techniques. Avec ces infos, ce n’est plus que des maths pour savoir le nombre de Tflops de la machine.
D’ailleurs suite à ça on a eu de nombreux articles sur les specs. Entre autre :
http://www.anandtech.com/show/6972/xbox-one-hardware-compared-to-playstation-42
http://www.eurogamer.net/articles/digitalfoundry-spec-analysis-xbox-one

J’ai lu également une news ce matin d’un dév qui confirmait les 1.2 Tflops (1.26 plus précisément si je me souviens bien). Mais j’ai tellement lu d’infos de tous les côtés que je ne me souviens plus la source, désolé.



lossendae
Le 22/05/2013 à 16h03






amenophis57 a écrit :

je pars du postulat que les jeux pc etant moins optimisé, moins le developpeur aura a se casser la tete en utilisant du materiel “similaire” et plus le portage sera bon



ça ne changera rien. Les jeux pour PC seront codé par rapport à DX11 oiu Open GL, pas au GPU utilisé.



amenophis57
Le 22/05/2013 à 16h14

ben justement c’est la que le dernier tomb raider et le tressfx nous montre le contraire..
Le faire fonctionner sur un chip nvidia relevait bien du bricolage
et ce n’est qu’un debut


Charly32 Abonné
Le 22/05/2013 à 17h19






Ralph- a écrit :

La N64 avait un bus mémoire de largeur de 64 bits pour la RAM vidéo, ça n’avait rien a voir avec la taille maximale d’adressage mémoire du CPU. C’est comme si je disais que mon PC est 384 bits parce que j’ai une Radeon 7970 avec un CPU 32 bits.



Non je persiste, la N64 embarquait bien un processeur capable de traiter des instructions 64 bits, ce que je dis n’a rien à avoir avec le bus mémoire.
Je t’invite à consulter le datasheet du CPU:
http://www.mips.com/media/files/archives/R4300iProductInformation.pdf



David_L a écrit :

[…]
Oui c’est sur, on met plus de puces en 40 nm que de puces en 28 nm sur un wafer <img data-src=" />



Beh oui mais si on jette la différence…<img data-src=" />
Sans compter que pour un fabricant tel nVidia ou AMD, on peu recycler des puces qui ont des parties non fonctionnelles dans un produit plus bas de gamme.
Si Microsoft choisi une technologie de gravure “obsolète” (entre guillemets), il doit bien y avoir une raison.
Peut être est-ce un aspect purement pécunier (rendement, techno mieux maitrisée =&gt; cout plus faibles) ou bien une manière de s’approvisionner plus rapidement (j’imagine que les chaines de gravure 28mm doivent être accaparées par de nombreux fabricants de soC, et GPU).



lossendae a écrit :

ça ne changera rien. Les jeux pour PC seront codé par rapport à DX11 oiu Open GL, pas au GPU utilisé.


Pour les jeux utilisant un moteur sur étagère (tel Unreal Engine) je ne pense pas que ça change beaucoup de choses; par contre pour celui qui va développer un moteur multiplateforme, il pourra l’optimiser pour l’architecture GPU AMD de manière plus rentable.
Il faut aussi garder à l’esprit que la collaboration entre éditeurs et fabricants de GPU est assez étroite, AMD ou nVidia “prétant” parfois des ingénieurs aux éditeurs afin de les aider à optimiser leurs moteurs graphiques.

Avec un peu de chances pour les fan du cameleon, ça va forcer nVidia à revoir son ratio performance/prix. :)