L’architecture de la PlayStation 4 décortiquée par son concepteur
Ça ressemble à un PC, mais ce n'est pas un PC
Le 25 avril 2013 à 15h00
4 min
Société numérique
Société
Mark Cerny le lead architect de la PlayStation 4 s'est très longuement entretenu « sans retenue » avec nos confrères de Gamasutra sur l'architecture matérielle de la PlayStation 4. Celle-ci est héritée du monde du PC, mais de nombreuses différences existent.
Si Mark Cerny est assez peu connu du grand public, c'est pourtant un des employés les plus importants de chez Sony. L'homme n'est ni plus ni moins que le cerveau derrière l'architecture matérielle et logicielle de la PlayStation 4. Dans un entretien avec Gamasutra, il revient en détail sur chacun des choix qui ont été opérés par le géant nippon sur la future console.
Un « PC Supercharged », qu'est-ce que c'est ?
Du point de vue de Cerny, l'appellation « Supercharged » se justifie par rapport à certains choix faits au niveau de l'architecture de la console. Certes, elle est très proche d'un PC, mais le constructeur y a apporté des améliorations afin de gagner en performances.
« L'appellation Supercharged vient surtout du fait de l'utilisation d'un pool unifié avec de la mémoire rapide », affirme l'homme assurant que c'est un point crucial de la différenciation avec un PC. « Prenez un PC avec 8 Go de RAM, le CPU et le GPU ne peuvent partager qu'un pour cent de cette mémoire sur une image donnée. C'est une limite imposée par la vitesse de l'interface PCI Express. Donc oui, il y a un avantage substantiel à disposer d'une architecture unifiée, et on peut en profiter dés le premier jour où vous codez pour la console ».
Concernant le CPU et le GPU qui animent la PlayStation 4, le responsable confirme qu'il s'agit d'une puce créée spécialement par AMD pour Sony, composée de huit coeurs Jaguar et d'un GPU avec un « grand nombre d'unités de calcul », le tout sur le même die. La mémoire ne se trouve pas sur le die, mais communique via un bus à 256 bits avec l'APU, avec un débit théorique de 176 Go/s. « Nous aurions pu nous contenter d'un bus 128 bits qui aurait apporté une bande passante de 88 Go/s et avoir de l'eDRAM directement sur le die pour obtenir de meilleures performances, mais cela aurait été plus compliqué à gérer pour les développeurs », tranche Cerny.
Par contre nous n'en apprendrons pas davantage au sujet du GPU qu'intègre la PlayStation 4, nous saurons seulement qu'il s'agit d'une puce AMD de dernière génération ayant subi de « nombreuses modifications ».
Un GPU lourdement modifié, pour effectuer des calculs en parallèle de l'affichage
Parmi les changements apportés à la partie graphique de la PlayStation 4, par rapport à celle d'un PC classique, Cerny décrit l'ajout d'un second bus de données au GPU. Celui-ci lui permettrait de lire et écrire directement dans la mémoire système, court-circuitant ses propres caches de premier et second niveau. Ceci permettrait de ne pas avoir de problèmes de synchronisation entre le GPU et le CPU sur l'échange de petites données. Toutefois l'architecte précise que s'il est question de petites données, le bus sera quand même capable d'engloutir 20 Go/s de données, c'est davantage que les 16 Go/s permis par un bus PCIe 3.0 x16.
L'architecture GCN des dernières Radeon permet de disposer d'une source de commandes pour les graphismes et de deux pour les calculs. Sony a travaillé avec AMD pour porter cette limite pour les calculs à 64 sources. Le but étant de permettre plus facilement au GPU d'effectuer les calculs concernant la physique.
« Il y a de nombreuses façons de gérer comment les ressources du GPU sont allouées entre les graphismes et le calcul. Bien sûr, ce que vous pouvez faire, comme pour la plupart des jeux disponibles au lancement, c'est de tout attribuer aux graphismes. Et ça marche très bien. Mais je pense qu'au milieu du cycle de vie de la console, les studios se pencheront un peu plus sur les calculs », affirme Cerny.
Il reste maintenant à savoir comment les studios parviendront à tirer profit de cette architecture. Il faudra cependant faire preuve de patience avant de la découvrir, étant donné que la PlayStation 4 ne devrait pas être disponible avant cet hiver. Dans le meilleur des cas, il faudra attendre l'E3 pour en apprendre davantage.
L’architecture de la PlayStation 4 décortiquée par son concepteur
-
Un « PC Supercharged », qu'est-ce que c'est ?
Commentaires (168)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 25/04/2013 à 15h23
Et en utilisant 2 bus PCI-E pour le GPU ça suffit pas?
Le 25/04/2013 à 15h24
Le 25/04/2013 à 15h24
Le 25/04/2013 à 15h26
Le 25/04/2013 à 15h28
L’unification permet surtout de ne pas avoir de copy entre la mémoire cpu et la mémoire du GPU. C’est cela qui a limité pendant longtemps le nombre de triangle gérer pour une seul scène. Ici, le CPU filera un pointeur au GPU et il se débrouille.
La bande passante mémoire énorme est nécessaire pour ne pas brider le GPU, car pour être compétitive, elle doit être supérieur à celle combiner du CPU et du GPU sur PC classique.
Le 25/04/2013 à 15h29
par contre y a un gros avantage de cette archi
elle consommera peut et coutera pas trop cher au final
Le 25/04/2013 à 15h29
Le 25/04/2013 à 15h30
Je suis peut être totalement hors sujet mais lors de la sortie des bus PCIexpress 2 et 3 on a mis des années à les exploiter à fond.
Ce bus est-il si limitant que ça finalement?
Le 25/04/2013 à 15h33
Boarf. A l’heure où pas mal de jeux consoles sont portés sur PC, led avantages de ce bus unifié risquent d’être sous utilisé, car il faudra développer son propre moteur graphique.
A moins que Sony n’en fournisse un ?
Le 25/04/2013 à 15h38
Le 25/04/2013 à 15h39
Le 25/04/2013 à 15h42
J’ai un peu de mal a comprendre le réel plus,d’avoir une mémoire partager entre le CPU et le GPU. En effet, le GPU ayant sa propre mémoire juste à coté d’elle généralement en DDR5 ou j’ose imaginer que les textures y sont stockées (généralement, ça ça ne se modifie pas). Donc il ne lui manque que les instructions sur le modèle 3D à dessiner qui ne doivent pas être aussi gourmand.
Le 25/04/2013 à 15h48
Ceux qui disaient d’avance que la PS4 n’était qu’un sous PC aux performances dépassées au bout de 2 ans et qu’ils serait très probable sans doute de l’émuler risquent de s’être trompés.
La console utilise des composants de type PC (qui seront fortement modifiés) mais une architecture et une optimisation de type console.
Et puis avec un soft et un hardware 100% optimisé pour le jeu, on sera loin des problèmes que l’on rencontre sur PC entre les soucis d’optimisations que l’on retrouve au niveau du système d’exploitation et des drivers.
Le 25/04/2013 à 15h48
Je l’ai trouvée ma future config, c’est la PS4 " />
Question con : Sony permettra d’ installer Linux (voire Windows) sur la PS4 ?
Même si ils ont fait machine arrière durant la carrière de la PS3…
Le 25/04/2013 à 15h50
Le 25/04/2013 à 15h52
Le 25/04/2013 à 16h26
L’avantage énorme de la mémoire unifié comme ca a déja été expliqué c’est surtout que contrairement aux mémoire PC utilisés actuellement ils faut deux fois moins d’instructions pour faire communiquer le CPU et le GPU.
Sur PC ya deux espaces mémoires, la mémoire GPU VRAM, et la mémoire interne au PC permettant notamment de faire communiquer le GPU et le CPU entre eux, qui est la DDR3.
Outre les débits bien supérieur, la différence se joue au niveau de la transmission des instructions. Lorsque dans une scène sont chargé en mémoire les instructions demandé par le CPU, une autre instruction droit être lancée pour le GPU pour être chargé en VRAM et traité par le GPU.
Donc au delà du partage de la mémoire à la volé sa permet de gagner en vitesse de traitement, et sur des scènes chargés et gourmandes cela peut avoir un impact non négligeable que se soit sur du high poly ou sur des instructions lié à la physique des particules.
C’est d’autant plus intéressant la mémoire unifié ici, et malin que les débits sont élevés, et que ces spécifications ai été pensé pour une utilisation dite “GPGPU”, c’est à dire des tâches que le GPU peut prendre en charge et qui sont pourtant dévolue au CPU. En gros la PS4 a vraiment été bien pensé et ca fait plaisir après une PS3 qui était un calvaire à ce niveau la.
Le 25/04/2013 à 16h30
Le 25/04/2013 à 16h31
Ellierys a écrit :
Il parle un peu plus loin de pouvoir appliquer une dizaine de textures sur une seule surface. Avec des textures en haute définition ça peut commencer à prendre de la place. Surtout si tu traites du 4K :)
T’ en connais beaucoup des jeux ou y’ a 10 textures sur une seule face et en 4k ? perso j’ en ait jamais vu mais je met au défi d’ en trouver in-game " />
Le 25/04/2013 à 16h36
Le 25/04/2013 à 16h38
Le 25/04/2013 à 16h42
Le 25/04/2013 à 16h43
Le 25/04/2013 à 16h43
Le 25/04/2013 à 16h47
Le 25/04/2013 à 16h48
Le 25/04/2013 à 17h12
Les studios cherchent déjà à minimiser au maximum les coûts de production.
Ils vont à coup sûr unifier le developemment Xbox/Ps4/PC.
Les technologies exclusives à un seul support ne seront donc jamais exploitées.
Le 25/04/2013 à 17h19
Le 25/04/2013 à 17h29
Le 25/04/2013 à 17h32
Tiens, question idiote : on parle d’unification des codes du même jeu pour le PC et les consoles nextgen, mais avec cette archi les devs vont coder les échanges mémoire comme des porcasses (“allez, on peut, pas besoin d’optimiser”)…
En gros, au niveau du code pur, ca va quand même rester assez différent dans l’approche, non, entre un PC et ce type de bécane ?
Ou bien les grosses différences vont se faire à la compilation ?
Un dev gentil pour éclairer ?
Le 25/04/2013 à 17h47
Le 25/04/2013 à 17h53
De la même manière, aura-t-on le droit à des PC à base d’APU avec une mémoire unifiée?
Le 26/04/2013 à 09h28
Le 26/04/2013 à 09h31
Le 26/04/2013 à 09h34
Le 26/04/2013 à 09h38
Le 26/04/2013 à 09h40
Le 26/04/2013 à 09h49
Le 26/04/2013 à 09h49
Le 26/04/2013 à 10h00
@Tourner.lapache
L’accès au live n’a jamais coûté 30e par mois, c’est gratuit sur la PS3 et 35euros par ans sur xBox soit 3e par mois à peu près.
En plus dans ma pas mal de jeu il y a quelques de mois d’abonnement au live donc on se retrouve à ne même pas payer les 35euros par ans au final ;)
Le 26/04/2013 à 10h01
Le 26/04/2013 à 10h03
Le 26/04/2013 à 10h04
Ca me fait marrer tous ces commentaires sur la puissance des consoles….
Sérieux, vous passez vos journées à vous branler sur des spécifications matérielles ?
Non, parce que moi j’achète une console pour jouer. Et si le jeu me plait, j’en ai rien à battre que la console soit dépassée par un PC….
D’ailleurs les graphismes ne font pas tout. Perso je m’éclate plus sur minecraft en ce moment que n’importe quel autre jeu… (sur pc pour celui-là, le développement est plus actif).
Le 26/04/2013 à 10h04
Le 26/04/2013 à 10h04
Le 26/04/2013 à 10h05
Le 26/04/2013 à 10h06
Le 26/04/2013 à 10h06
Le 26/04/2013 à 15h13
Le 26/04/2013 à 15h22
Le 26/04/2013 à 16h34
Et la marmotte dans tout ça ?
Le 26/04/2013 à 16h48
Le 26/04/2013 à 17h11
Le 26/04/2013 à 17h32
Le 26/04/2013 à 17h35
Le 26/04/2013 à 18h01
@methos: je me demande bien qui à une vie de merde, celui qui est blasé ou celui qui s’interdit pas de rêver ?
Le 26/04/2013 à 18h16
Le 26/04/2013 à 19h25
Le 26/04/2013 à 23h46
Le 29/04/2013 à 11h54
Ca c’est de la bonne news bien geek qui fait plaisir ! " />
Après c’est sur, faut connaitre l’architecture matérielle pour comprendre ce qui est dit. " />
Le 25/04/2013 à 15h05
est ce que les 8 cœur jaguar ne suffisent pas pour finalement tout mouliner
faire faire du boulot au GPU pour l’instant ça n’a pas percé
ça marche que quand le GPU n’a rien à faire hoirs on veut toujours + de graphisme
donc à part via un GPU annexe comme sur PC en fait j’y crois pas trop sur console
enfin au pire ça laisse le choix
Le 25/04/2013 à 15h14
Tout ça pour dire au final que la PS4 est bien meilleur qu’un PC malgré une configuration qui parait plus faible.
Le 25/04/2013 à 15h15
J’ai rien compris.
En gros, la PS4 utilise 100% de sa puissance pour afficher une image.
Mais que se passe t’il s’il faut afficher plusieurs images ?
Par exemple il en faut 2 pour la 3D.
Et est-ce que c’est une image par seconde qui occupe 100% de la PS4 ?
Si on veut afficher 120 images par seconde ? il faut 12000% de PS4 ?
Le 25/04/2013 à 15h18
J’ai pas compris l’intérêt de la mémoire unifié comparé aux PC classiques
Le 25/04/2013 à 15h19
Le 25/04/2013 à 15h20
Le 25/04/2013 à 15h21
Le 25/04/2013 à 15h21
Le 25/04/2013 à 15h21
Le 25/04/2013 à 15h21
« Prenez un PC avec 8 Go de RAM, le CPU et le GPU ne peuvent partager qu’un pour cent de cette mémoire sur une image donnée.»
Soit tout de même 80Mo pour une seule image.
En quoi est-ce limitant?
Le 25/04/2013 à 15h22
sinon une façon “simple” d’ammener au PC un peut de ces avantage
intégrer directement des unitées de GPU dans le CPU avec un lien direct
enfin j’imagine qu’ils y travail
Le 25/04/2013 à 15h23
Le 25/04/2013 à 19h33
Le 25/04/2013 à 19h45
Le 25/04/2013 à 19h54
Le 25/04/2013 à 20h09
Le 25/04/2013 à 20h44
@ DTL : Call of Duty c’est pire que tout, il est basé sur le moteur de Quake 3.
Le pauvre moteur est sous perfusion depuis plus de 10 ans.
Le pire, c’est que c’est vrai…
Le 25/04/2013 à 20h59
Le pire c est qu aucun autre jeu n a pu remplacer l excellente communauté qu il y avait sur quake 3
Le 25/04/2013 à 21h07
Juste une petite question: l’architecture unifiée n’a t’elle que des avantages? Parce que si c’est le cas, pourquoi ne pas l’utiliser partout (bon hormis question de coûts je suppose?) Autre question, j’ai lu que le jaguar ext x86. Pourquoi ne pas avoir utilisé ici un x64?
Le 25/04/2013 à 21h32
Le 25/04/2013 à 21h43
Le 25/04/2013 à 21h44
Le 25/04/2013 à 21h56
Le 25/04/2013 à 22h10
Le 25/04/2013 à 23h53
Le 26/04/2013 à 01h17
Ça fait tout beau sur papier… et lorsque la console sortira, les desktops gamers seront déjà plus puissants " />
Le 26/04/2013 à 01h52
Sony a enfin écouté le discours connu de Steve Ballmer: “Developers Developers Developers Developers Developers Developers Developers!” " />
moi ça me fait saliver tout ça, à la fois en tant que dev et utilisateur final !
Le 26/04/2013 à 05h22
Le 25/04/2013 à 15h52
Le 25/04/2013 à 15h53
Le 25/04/2013 à 15h59
Dommage, une PS4 en dual-boot avec Linux pour une utilisation en PC de bureau, et l’OS de la PS4 pour en faire une machine de jeu.
C’est beau de rêver… " />
Le 25/04/2013 à 16h00
Disons que l’avantage du PC c’est qu’il couvre tout les domaines ^^
mais ça fait plaisir de voir que sony est retournée en arrière
on se rappelle de la PS2 certe intéressante de conception mais une horreur pour les devs
Le 25/04/2013 à 16h00
Le 25/04/2013 à 16h01
Le 25/04/2013 à 16h01
Le 25/04/2013 à 16h03
c’est aussi utile pour monter des nouvelles configue
en l’occurrence ça dit de prendre du full AMD ^^
et pas lésiner sur la quantité de ram video
Le 25/04/2013 à 16h06
Dans l’interview, il parle aussi de système audio indépendant pour le que le chat audio soit “gratuit” en terme de cpu. Idem pour un téléchargement en arrière plan, ou la compression/décompression de vidéo.
Le 25/04/2013 à 16h14
Je doute de la réelle utilisé de la mémoire partagée entre CPU et GPU pour faire du graphisme, pour du GPGPU oui mais pour du graphisme. A l’époque des 8800, j’avais un bug sur ma carte mère qui forçait mon bus PCI express 1.0 à fonctionner en 1x (250mo/s) , l’ai réussi à corriger partiellement le bug et à repasser en 8x (2Go/s), j’ai gagner 20% d’ips sous crysis 1, le jeux en 1x était déjà fluide.
A la limite ca peut augmenter les perf CPU car celui ci disposera de plus de bande passante et en utilisera moins pour les transfert avec la carte graphique. Mais aussi ca laisse plus de liberté dans la répartition de la mémoire entre CPU et GPU.
Là où ca aurait pu etre vraiment impressionnant c’est s’il avait fait un contrôleur mémoire commun avec un joli cache.
Enfin petite précision: les débits théorique affiché sur les bus sont joli mais aprés faut voir ce qu’il en est dans la pratique, car le débit entre deux zone mémoire ne dépend pas uniquement du bus. Par exemple sur mon PC (i5 3550k, HD78870, PCIex 3.0) le débit RAM VRAM est de 9Go/s et non de 16Go/s. Du coup à 60 ips on a 153Mo/image de transfert entre CPU et GPU 300Mo à 30ips (ce qui est plus la norme pour les console)
Le 25/04/2013 à 16h15
metaphore54 Le jeudi 25 avril 2013 à 17:14:56 #2
Tout ça pour dire au final que la PS4 est bien meilleur qu’un PC malgré une configuration qui parait plus faible.
Ouais enfin ça dépend de ce qu’ on entend par PC hein face à une bonne config de joueur ça pèse pas lourd.. " />
Le 25/04/2013 à 16h15
Le 25/04/2013 à 16h18
Le 25/04/2013 à 16h18
Le 25/04/2013 à 16h22
Le 25/04/2013 à 16h24
Le 25/04/2013 à 17h56
Le 25/04/2013 à 17h59
Le 25/04/2013 à 17h59
Le 25/04/2013 à 18h09
Le 25/04/2013 à 18h14
Le 25/04/2013 à 18h16
Le 25/04/2013 à 18h20
Le 25/04/2013 à 18h23
Le 25/04/2013 à 18h28
Le 25/04/2013 à 18h36
Le 25/04/2013 à 18h38
Le 25/04/2013 à 19h14
Le 25/04/2013 à 19h18
Le 25/04/2013 à 19h23
Le 25/04/2013 à 19h29
Le 25/04/2013 à 19h32
Le 26/04/2013 à 06h09
Le 26/04/2013 à 06h57
Why not après tout, il y a des jeux qui sauront pleinement exploité cette puissance.
Par contre sérieusement, dire qu’une console est plus opti qu’un PC car elle est dédiée, c’est un argument d’époque, ça fait longtemps qu’avec 8go de ram, un bon CPU/GPU y’a AUCUN soucis d’opti pour n’importe quel jeu sur PC.
Ah et je trouve abjecte de venir souligner l’architecture d’une console quand on voit la pub à côté: Premier jeu sur PS4, 30 FPS.
Le 26/04/2013 à 07h16
Le 26/04/2013 à 07h37
« Il y a de nombreuses façons de gérer comment les ressources du GPU sont allouées entre les graphismes et le calcul. Bien sûr, ce que vous pouvez faire, comme pour la plupart des jeux disponibles au lancement, c’est de tout attribuer aux graphismes. Et ça marche très bien. Mais je pense qu’au milieu du cycle de vie de la console, les studios se pencheront un peu plus sur les calculs », affirme Cerny.
Il rêve éveillé là… Au lancement, tout sera attribué aux graphismes de manière bancale, au milieu du cycle tout sera attribué aux graphismes de manière réfléchie, et pour la fin de gen tout sera attribué aux graphismes et les développeur trouveront des techniques de cache misère pour faire croire qu’on a encore atteint un petit palier graphique.
Ce qui fait vendre aujourd’hui (grand publique oblige), ce sont les graphismes tape-à-l’oeil, ça ne sert à rien de trouver des trucs bien pensés pour améliorer la gestion de l’IA ou la physique dans un jeu, c’est pas vendeur.
Le 26/04/2013 à 07h39
Le 26/04/2013 à 08h06
Juste pour ne pas dire que ce n’est pas un vulgaire PC " />
Le 26/04/2013 à 08h14
Le 26/04/2013 à 08h20
Le 26/04/2013 à 08h22
Le 26/04/2013 à 08h28
Le 26/04/2013 à 08h29
Le 26/04/2013 à 08h29
Le 26/04/2013 à 08h33
A-t-on des info concernant les éventuels problèmes de surchauffe si CPU et GPU sont sur la même puce?
(et si ya pas de problème de surchauffe ca sera peut-être des problème de bruit avec la turbine ^^)
Le 26/04/2013 à 08h38
Le 26/04/2013 à 08h43
Le 26/04/2013 à 08h53
Le 26/04/2013 à 10h07
Le 26/04/2013 à 10h07
Le 26/04/2013 à 10h08
Le 26/04/2013 à 10h08
Le 26/04/2013 à 10h10
Le 26/04/2013 à 10h13
Le 26/04/2013 à 10h15
Le 26/04/2013 à 10h25
Le 26/04/2013 à 10h26
Le 26/04/2013 à 10h46
Les ouvriers de Sony viennent de recevoir les boîtiers pour accueillir les composants de la PS4 :
http://media.materiel.net/live/111991.jpg
Je suis déjà sorti…
Le 26/04/2013 à 11h24
Le 26/04/2013 à 11h45
Le 26/04/2013 à 11h52
Le 26/04/2013 à 11h52
Je dirais que l’architecture n’a que peu d’importance pour les acheteurs.
Le prix du matériel compte, mais pas tant que ça. Une fois le matos acheté, c’est fini (sauf panne après la garantie).
Le business model à problème, c’est sur le soft et les services ! Il y a aussi les éventuels DRM qui brident l’occasion. Avant d’acheter une console ou un PC, c’est plutôt ces aspects là qu’il faut regarder…
Le 26/04/2013 à 12h05
Le 26/04/2013 à 12h32
Le 26/04/2013 à 12h38
Le 26/04/2013 à 12h44
Le 26/04/2013 à 12h46
Le 26/04/2013 à 12h47
Le 26/04/2013 à 13h00
Le 26/04/2013 à 13h12
Le 26/04/2013 à 13h13
Le 26/04/2013 à 13h23
Le 26/04/2013 à 13h30
Le 26/04/2013 à 13h46
Le 26/04/2013 à 14h24
Le 26/04/2013 à 14h33
Le 26/04/2013 à 14h36
Le 26/04/2013 à 14h58
Le 26/04/2013 à 15h01
Le 26/04/2013 à 15h10