Connexion
Abonnez-vous

L’architecture de la PS4 répond à une demande des développeurs

Mais ce n'est pas un PC pour autant

L'architecture de la PS4 répond à une demande des développeurs

Le 13 mars 2013 à 08h11

Interrogé par l'Official PlayStation Magazine, Michael Denny, le vice-président de SONY Worldwide Studios, a affirmé que le choix de l'architecture de la PlayStation 4 avait été dicté par les besoins des développeurs. Elle a également été retenue pour sa facilité d'utilisation.

PlayStation 4

 

Le choix de l'architecture de la PlayStation 4 aurait été dicté par la volonté des développeurs d'avoir une plateforme plus simple d'utilisation. C'est ce qu'a affirmé Michael Denny, vice-président de SONY Worldwide Studios, lors d'une entrevue accordée à l'Official PlayStation Magazine. « C'est ce que voulait la communauté des développeurs en termes de facilité de développement pour faire les meilleurs jeux possible », a-t-il affirmé.

 

L'approche est radicalement différente de celle employée pour la PlayStation 3, dont l'architecture CELL, mise au point par IBM, était capable d'excellentes performances pour l'époque, mais s'est révélée être un véritable casse-tête pour les studios. Cependant, si le type de composants qu'elle intègre rapproche la PlayStation 4 d'un PC, elle n'en reste pas moins qu'une console de jeux, et Michael Denny insiste bien sur ce point. 

 

Le fait d'embarquer 8 Go de mémoire unifiée répondrait également à une requête des développeurs. « Si le côté technique est important, ce qui compte, c'est ce que font les développeurs avec. Le but c'est de proposer les meilleurs jeux et les meilleures expériences. Pour ce faire, vous devez convaincre les meilleurs créateurs de vous rejoindre, ainsi que meilleures équipes de développement. Voilà la philosophie derrière ce système, et nous pensons avoir créé une machine qui, nous le croyons, nous offrira le meilleur contenu. Des choix comme le fait de proposer 8 Go de mémoire système très rapide est juste une grande victoire pour les développeurs, pour le type de jeux qu'ils veulent créer, et pour leur faciliter le travail ». 

 

En clair, SONY a choisi d'écouter ce que les studios voulaient, afin d'éviter de reproduire les erreurs commises avec la PlayStation 3. Le fait de reprendre une architecture proche du PC avec beaucoup de mémoire disponible semble être un de leurs souhaits. Il ne reste plus qu'a voir ce qu'ils en feront, et peut-être en profiteront-ils pour nous offrir des portages sur PC encore meilleurs ?

Commentaires (208)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar







Drepanocytose a écrit :



En quoi c’est une victoire, et en quoi c’est mieux ? (vraie question, si un dev passe par là)







Ils peuvent coder des textures HD et des environnement plus grands (donc pas une ligne de visée pourrave et un fog à 2 balles pour couvrir la misère). Et oui, pour qu’une CG puisse traiter des shadders, il faut qu’elle ait accès rapidement à de la données, et cela ne le ferait pas si l’info provenait de la mémoire de masse.



Donc à priori, les devs ne devrait plus sortir des portages de merde (enfin on y croit faire les enfants <img data-src=" />)


votre avatar







John Shaft a écrit :



Quoi ? Les mêmes dévellopeurs qui viennent nous dire que les consoles next-gen vont faire exploser les coûts de dév ?? <img data-src=" />…



Je vais chercher le popcorn <img data-src=" />





À mon avis, c’est les dévs first party qui ont dû râler et ont mis sur la table ce qu’eux désiraient pour réduire les coûts de prods.


votre avatar







Drepanocytose a écrit :



En quoi c’est une victoire, et en quoi c’est mieux ? (vraie question, si un dev passe par là)





Je ne suis pas dev 3D mais je crois que ça vient du fait qu’à l’heure actuelle tu as beaucoup d’échanges à faire entre les deux types de mémoire (pour charger / décharger des objets 3D, des textures, etc) alors que là tout est déjà dans la même mémoire. Du coup moins d’échanges = moins de cycles d’horloge gâchés mais aussi moins de prise de tête pour faire tenir tous les objets dans la “petite” mémoire graphique.


votre avatar







Ellierys a écrit :



Ça explique mon jeune âge ? <img data-src=" />







Comme mon Maromi, ça prouve qu’on a une vie sociale “différente” <img data-src=" />


votre avatar







pti_pingu a écrit :



Ouaip, faudrait leur filer un P350 MMX accompagné de 256 de EDO/SDRAM et d’une carte vidéo (et non graphique) ISA tiens <img data-src=" />





Note: pour ceux qui ne comprendraient pas certains sigle, c’est normal, vous avez moins de 25 ans, n00bs <img data-src=" />





<img data-src=" /><img data-src=" />


votre avatar

Thx les jeunes… Ca semble logique dit comme ca.

votre avatar







myxomatosis a écrit :



Avec un peu de chance, ça fera en sorte que l’on aura des portages sur PC moins foireux, puisque PC, PS4 et XBOX Next tourneront sur du x86 (et DirectX?!) ?!







Non, OpenGL pour la PS4, La WiiU, La SteamBox, MacOS X, Linux, tablettes et smartphones, Direct X se cantonne à la Xbox et PC/Smartphone/Tablettes sous Windows, dit et redit.


votre avatar

la ram est partagé entre cpu et gpu ?

effectivement c’est comme l’architecture des pc….. bas de gamme <img data-src=" />



pour le reste il a raison : ce sont les éditeurs qui rapporte de l’argent.

comme les téléphones : il faut plein d’applications, la qualité on s’en tape faut juste du chiffre : 10 0000 000 applications ! youhou

votre avatar







Drepanocytose a écrit :



En quoi c’est une victoire, et en quoi c’est mieux ? (vraie question, si un dev passe par là)







En quoi c’est mieux (et sans être dév) :





  • Tu fais sauter la limite des env. 13-17 Go/s (en fonction de la fréquence) de la DDR3 de nos PC pour atteindre des vitesse plus importantes

  • Plus de transferts de la RAM CPU vers la RAM GPU.



    Et comme c’est dédié au jeu, le fait que ce soit un pot commun entre CPU et GPU est moins gênant que sur un PC où tu as plein d’autres trucs à mettre en RAM. Maintenant on verra si ces 8 Go sont suffisant (16 Go auraient été plus sûr selon moi)


votre avatar







Jadedotcom a écrit :



Quelqu’un peut m’expliquer pourquoi Sony s’est fait chier avec le CELL, cher et compliqué au lieu de faire un truc simple comme la PS4?







L’architecture en plusieurs unités du CELL permettait d’atteindre des perf inégalées à l’époque. C’est uniquement cela. Sony et son image d’excellence de l’époque plus le fait qu’il fallait rééditer le coup de la PS1 et 2 (ce qui n’est pas trop le cas) les ont pousser à adopter le CELL.


votre avatar







bingo.crepuscule a écrit :



Non, OpenGL pour la PS4, La WiiU, La SteamBox, MacOS X, Linux, tablettes et smartphones, Direct X se cantonne à la Xbox et PC/Smartphone/Tablettes sous Windows, dit et redit.







<img data-src=" /> Direct X est présent aussi sur MacOS X, Linux, tablettes et smartphones















Mais y’a un piège, c’est via Wine <img data-src=" />


votre avatar







pti_pingu a écrit :



Comme mon Maromi, ça prouve qu’on a une vie sociale “différente” <img data-src=" />







Touché.


votre avatar







pti_pingu a écrit :



Ouaip, faudrait leur filer un P350 MMX accompagné de 256 de EDO/SDRAM et d’une carte vidéo (et non graphique) ISA tiens <img data-src=" />





Note: pour ceux qui ne comprendraient pas certains sigle, c’est normal, vous avez moins de 25 ans, n00bs <img data-src=" />







À ceci près que (si ma mémoire est bonne…) :





  • les P350 étaient des Pentium II,

  • le standard sur ces machines à cette époque était trèèèèèès loin des 256 Mo de RAM, on était plutôt à 64 Mo, voire 128 pour les foufous,

  • les cartes graphiques étaient déjà en AGP, je ne suis pas sûr que les mobos de l’époque avaient encore un slot ISA… Mais là, pour le coup, je peux me tromper, je me demande si je n’avais pas une vieille carte son en ISA…


votre avatar







bingo.crepuscule a écrit :



Non, OpenGL pour la PS4, La WiiU, La SteamBox, MacOS X, Linux, tablettes et smartphones, Direct X se cantonne à la Xbox et PC/Smartphone/Tablettes sous Windows, dit et redit.





Même si au final on s’en fout presque vu que je connais pas beaucoup de dev qui appellent directement du direct3D ou de l’opengl, c’est l’outil qui s’en charge (mode unity3D au rapport <img data-src=" /> )


votre avatar







yukon_42 a écrit :



la ram est partagé entre cpu et gpu ?

effectivement c’est comme l’architecture des pc….. bas de gamme <img data-src=" />



pour le reste il a raison : ce sont les éditeurs qui rapporte de l’argent.

comme les téléphones : il faut plein d’applications, la qualité on s’en tape faut juste du chiffre : 10 0000 000 applications ! youhou





L’idée d’unifier la ram n’est pas mauvaise, surtout si tu mets 8 Go GDDR5, a titre de comparaison j’ai 8 Go DDR3 et 1.5GDDR5 sur ma GTX 580. En calcule brut j’arrive pas au niveau de la PS4 sur la ram.


votre avatar







Jadedotcom a écrit :



Quelqu’un peut m’expliquer pourquoi Sony s’est fait chier avec le CELL, cher et compliqué au lieu de faire un truc simple comme la PS4?







Les ingés de chez Sony ont été pendant très longtemps “les rois” et leur manque d’encadrement par les costards-cravate a conduit la firme à sortir des produits à la pointe de la technologie mais cher et pas forcément les plus accessible pour les boites tiers qui devront bosser avec.


votre avatar







Séphi a écrit :



Je vois même pas pourquoi on se prend le choux alors qu’on est d’accord sur tous les points…



Une console, fusse-t-elle à 300 ou 600 euros ne sera jamais aussi puissante qu’un pc haut de gamme. Elle aura juste le mérite de l’être face à un PC du même prix (encore que… il me semble que pour la PS3 ce n’était pas le cas).





Je confirme, la PS3 était bien en dessous d’un PC pour le même prix si c’est ce que tu voulais dire.

Mais il fallait qu’ils rentabilisent le bluray j’imagine.


votre avatar







Mokona a écrit :



le cas de la ps3 etait particulier du fait du lecteur BRD …… sinon en terme de perf graphiques pure ca devait se valoir …… en revanche ce que les gens oublient en general c’est qu’avace le temps les graphisme d’une consoles se bonnifient ……. ce qui est rarement le cas avec un pc ou sans upgrade materiel on doit baisser la qualitée graphique a chaque generation nouvelle de jeux <img data-src=" />







Exact, vision sur le long terme, optimisation à la truelle, puis au couteau, puis à la p’tite cuillère puis… (au fur et à mesure que l’archi est maitrisée).


votre avatar







Mokona a écrit :



le cas de la ps3 etait particulier du fait du lecteur BRD …… sinon en terme de perf graphiques pure ca devait se valoir …… en revanche ce que les gens oublient en general c’est qu’avace le temps les graphisme d’une consoles se bonnifient ……. ce qui est rarement le cas avec un pc ou sans upgrade materiel on doit baisser la qualitée graphique a chaque generation nouvelle de jeux <img data-src=" />





Eh bien c’est exactement ce qui est fait avec les consoles. Bien sûr, tu ne t’en aperçois pas tout de suite parce que les développeurs font les réglages en amont, mais ça revient au même.

L’univers PC est en constante évolution et il y a toujours des petits plus apportés à chaque fois qui font que oui, si tu ne changes pas de matos, tu dois te contenter des graphismes en qualité moyenne.



Par exemple, si je n’avais pas changé ma 8800 GTS, je n’aurais pas pu profiter de la tesselation apportée par dx11, ou de 3dvision, qui est une technologie très bien maitrisée mais gourmande en ressources.


votre avatar







kail a écrit :



Je confirme, la PS3 était bien en dessous d’un PC pour le même prix si c’est ce que tu voulais dire.

Mais il fallait qu’ils rentabilisent le bluray j’imagine.





Enfin, ça dépends pour quoi.



Quand je lis les commentaire j’ai l’impression que c’est un peu comment dire qu’un choux est mieux qu’un carotte, et qu’ont aime pas la carotte. Forcement suivant le point de vu l’un est mieux que l’autre.


votre avatar







zefling a écrit :



Enfin, ça dépends pour quoi.



Quand je lis les commentaire j’ai l’impression que c’est un peu comment dire qu’un choux est mieux qu’un carotte, et qu’ont aime pas la carotte. Forcement suivant le point de vu l’un est mieux que l’autre.





Impressionnant ton histoire de légumes. Les consoles et PC peuvent tout à fait être comparées vu qu’elles ont au moins un objectif partagé: le jeu.

Je pense être objectif quand je dis que les consoles ont une longueur de retard, et que ça continuera. Mais chacun est libre de penser ce qu’il veut.


votre avatar







Drepanocytose a écrit :



En quoi c’est une victoire, et en quoi c’est mieux ? (vraie question, si un dev passe par là)







À titre de comparaison, la Wii c’est :

24Mo de RAM type GameCube




  • 64Mo de GDDR3



    Je m’étais intéressé à ça dans l’idée de faire joujou avec linux sur la wii.

    Quand j’ai vu ça j’ai lâché l’affaire direct <img data-src=" />


votre avatar







kail a écrit :



Impressionnant ton histoire de légumes. Les consoles et PC peuvent tout à fait être comparées vu qu’elles ont au moins un objectif partagé: le jeu.

Je pense être objectif quand je dis que les consoles ont une longueur de retard, et que ça continuera. Mais chacun est libre de penser ce qu’il veut.







Sauf que ce qui est comparé c’est comment elles sont faites. Je suis désolé, mais pour mon exemple, je peux aussi faire la même chose : les cuisiner.



C’est sûr que le PC aura toujours une avance sur son côté PC, niveau console, quand je vois les ressources utiliser pour faire tourner les même jeux que sur PC, oui mon PC le faire mieux, mais ils doit utiliser au moins 2x plus de ressources pour avoir la même chose.


votre avatar







zefling a écrit :



Sauf que ce qui est comparé c’est comment elles sont faites. Je suis désolé, mais pour mon exemple, je peux aussi faire la même chose : les cuisiner.



C’est sûr que le PC aura toujours une avance sur son côté PC, niveau console, quand je vois les ressources utiliser pour faire tourner les même jeux que sur PC, oui mon PC le faire mieux, mais ils doit utiliser au moins 2x plus de ressources pour avoir la même chose.







PC plus efficace mais moins efficient quoi ^^


votre avatar







Séphi a écrit :



PC plus efficace mais moins efficient quoi ^^





Non, plus puissant et plus modulaire, mais moins efficace que du spécifique.


votre avatar







bingo.crepuscule a écrit :



Non, OpenGL pour la PS4, La WiiU, La SteamBox, MacOS X, Linux, tablettes et smartphones, Direct X se cantonne à la Xbox et PC/Smartphone/Tablettes sous Windows, dit et redit.





j’ai jamais vu qu’il avait été annoncé que la PS4 utiliserais openGL, tu as un lien?


votre avatar







pti_pingu a écrit :



Ouaip, faudrait leur filer un P350 MMX accompagné de 256 de EDO/SDRAM et d’une carte vidéo (et non graphique) ISA tiens <img data-src=" />





Note: pour ceux qui ne comprendraient pas certains sigle, c’est normal, vous avez moins de 25 ans, n00bs <img data-src=" />







Haha j’ai moins de 25 ans et pourtant je connais tout ça! ^^


votre avatar







TizeN a écrit :



Haha j’ai moins de 25 ans et pourtant je connais tout ça! ^^





mmmh merci le délai d’édit x)…



Comme on l’aura tous compris je suis overgrilled de la mort qui tue des poneys bleus!


votre avatar







TizeN a écrit :



mmmh merci le délai d’édit x)…



Comme on l’aura tous compris je suis overgrilled de la mort qui tue des poneys bleus!







Si peu <img data-src=" />


votre avatar







pti_pingu a écrit :



Si peu <img data-src=" />





Ouai, c’est mal de lire les commentaires trop longtemps après qu’elle soit parue, ça fait que quand on répond au commentaires baaah on est grilled avant même d’avoir penser à y répondre!



Du coup les poneys bleus baaaah… ils meurent! <img data-src=" />


votre avatar







zefling a écrit :



Sauf que ce qui est comparé c’est comment elles sont faites. Je suis désolé, mais pour mon exemple, je peux aussi faire la même chose : les cuisiner.



C’est sûr que le PC aura toujours une avance sur son côté PC, niveau console, quand je vois les ressources utiliser pour faire tourner les même jeux que sur PC, oui mon PC le faire mieux, mais ils doit utiliser au moins 2x plus de ressources pour avoir la même chose.







Je ne peux pas approuver ceci. Sur PC, on ne lance pas un jeu en 1024640 voire 1280720. Comparons le comparable, on joue en 1280*1024 depuis les années 90.



Donc côté équivalence, on repassera. Même si je vois globalement ce que tu essayes de dire.


votre avatar







Crono972 a écrit :



Je ne peux pas approuver ceci. Sur PC, on ne lance pas un jeu en 1024640 voire 1280720. Comparons le comparable, on joue en 1280*1024 depuis les années 90.



Donc côté équivalence, on repassera. Même si je vois globalement ce que tu essayes de dire.





Quand je vois que pour avoir quelque chose de « fluide » sur certain jeu PC je dois détendre en 1280×900 sur mon écran 1920×1200 et et que mon PC n’a que 3 ans (et une carte graphique qui en a 1 et demi)…. Excuse-moi de remarque que parfois je trouve que ma PS3 se démerde beaucoup mieux quand je vois ce qu’il y a dedans.

Oui, j’ai pas foutu le prix d’une console dans ma CG (juste 120 €).


votre avatar







bingo.crepuscule a écrit :



Non, OpenGL pour la PS4, La WiiU, La SteamBox, MacOS X, Linux, tablettes et smartphones, Direct X se cantonne à la Xbox et PC/Smartphone/Tablettes sous Windows, dit et redit.







Y’en a qui n’ont toujours pas compris que Direct X = Microsoft. <img data-src=" />


votre avatar







Jadedotcom a écrit :



Quelqu’un peut m’expliquer pourquoi Sony s’est fait chier avec le CELL, cher et compliqué au lieu de faire un truc simple comme la PS4?





Kikalaplugrosse. C’tout


votre avatar







pti_pingu a écrit :



Ouaip, faudrait leur filer un P350 MMX accompagné de 256 de EDO/SDRAM et d’une carte vidéo (et non graphique) ISA tiens <img data-src=" />





Note: pour ceux qui ne comprendraient pas certains sigle, c’est normal, vous avez moins de 25 ans, n00bs <img data-src=" />









AAhhhh toute ma jeunesse !!



Encore plus dur: on remplace le P350 par un Cyrix 166….



<img data-src=" />



et petit dictont: qui code avec ses pieds, patch sans arrêt !!



<img data-src=" />


votre avatar

Même architecture = émulation facile ?



Moi je veux bien faire tourner les jeux de PS4 sur mon PC. Je suis pas contre.

votre avatar







Mack21 a écrit :



L’idée d’unifier la ram n’est pas mauvaise, surtout si tu mets 8 Go GDDR5, a titre de comparaison j’ai 8 Go DDR3 et 1.5GDDR5 sur ma GTX 580. En calcule brut j’arrive pas au niveau de la PS4 sur la ram.







Normal, t’as une N’vidia….



<img data-src=" />


votre avatar

L’architecture de la PS4 c’est pas compliqué c’est la même que la Xbox 360 avec un CPU X86 et mise à jour avec des composant de 2012.<img data-src=" />

votre avatar







pandaroux a écrit :



Même architecture = émulation facile ?







Sans soute. Reste le problème de la mémoire, puisqu’un PC aura un goulot d’étranglement au niveau de la DDR3. (Sauf si la PS4 est foirée et que sa RAM n’ait pas de débits à la DDR3 bien sûr <img data-src=" />)


votre avatar







John Shaft a écrit :



Ah ? Tu parles de CoD avec son Season Pass ?? <img data-src=" />



<img data-src=" /><img data-src=" />







CoD tout court, 70€ pour 6 heures a renouveler tout les 6 mois et pas de baisse type jeu budget.



Bref une arnaque a la hollywood.


votre avatar







Nathan1138 a écrit :



À ceci près que (si ma mémoire est bonne…) :





  • les P350 étaient des Pentium II,

  • le standard sur ces machines à cette époque était trèèèèèès loin des 256 Mo de RAM, on était plutôt à 64 Mo, voire 128 pour les foufous,

  • les cartes graphiques étaient déjà en AGP, je ne suis pas sûr que les mobos de l’époque avaient encore un slot ISA… Mais là, pour le coup, je peux me tromper, je me demande si je n’avais pas une vieille carte son en ISA…







    En effet, on avait acheté une becane HdG à cette époque, et le top du top était P2 300, 64-128Mo de ram, et ATI Xpert Play 8Mo)


votre avatar







Nathan1138 a écrit :



À ceci près que (si ma mémoire est bonne…) :





  • les P350 étaient des Pentium II,

  • le standard sur ces machines à cette époque était trèèèèèès loin des 256 Mo de RAM, on était plutôt à 64 Mo, voire 128 pour les foufous,

  • les cartes graphiques étaient déjà en AGP, je ne suis pas sûr que les mobos de l’époque avaient encore un slot ISA… Mais là, pour le coup, je peux me tromper, je me demande si je n’avais pas une vieille carte son en ISA…







    Pour le P350 tu en avais en MMX et qui pouvait supporter de la RAM 256 Mo (une petite recherche google permet de le voir).



    Par contre, c’est vrai que pour l’ISA je ne suis plus sur, mais je sais que j’avais unn P350 avec les slots ISA, PCI et AGP. A voir si on pouvait utiliser encore une CG ISA (en tout cas sur mon P75, oui <img data-src=" />)


votre avatar







John Shaft a écrit :



Les ingés de chez Sony ont été pendant très longtemps “les rois” et leur manque d’encadrement par les costards-cravate a conduit la firme à sortir des produits à la pointe de la technologie mais cher et pas forcément les plus accessible pour les boites tiers qui devront bosser avec.





Non les ingénieurs de Sony étaient incités par la direction à deux choses:




  • Avoir une architecture qu’on peut vendre comme extraordinaire même si elle ne l’ait pas( les chiffres théoriques de la PS3 font encore rêver des fanboys en 2013 alors qu’on a vu le résultat sur nos écrans… )

    -Faire une architecture différente des autres plateformes pour complexifier les portages donc avoir plus d’exclusivités



    Le résultat fut la PS3…ceci dit la PS2 souffrait des même tares sauf que la concurrence n’était pas la même à l’époque.



    Seule la PS1 était différente.<img data-src=" />


votre avatar







Ellierys a écrit :



Touché.







M’enfin, j’ai dû me sacrifier pour aussi <img data-src=" />


votre avatar







myxomatosis a écrit :



Avec un peu de chance, ça fera en sorte que l’on aura des portages sur PC moins foireux, puisque PC, PS4 et XBOX Next tourneront sur du x86 (et DirectX?!) ?!





Sauf que les développeurs réalisant les portages avaient déjà une version x86 sur la génération actuelle : la version Xbox 360. Le fait que Sony rejoigne le mouvement ne change rien.



Quoiqu’il en soit, si je regarde ces deux dernières années (pendant lesquelles 360 et PS3 ont été en perte de vitesse), aucun exemple de portage PC foireux ne me vient à l’esprit.



Attention, par “foireux” j’entends “techniquement foireux”. Y’a toujours quelques relous qui vont se plaindre d’un portage techniquement irréprochable mais d’un jeu conçu pour être joué au paddle. C’est deux choses différentes.


votre avatar







Nathan1138 a écrit :



Sauf que les développeurs réalisant les portages avaient déjà une version x86 sur la génération actuelle : la version Xbox 360. Le fait que Sony rejoigne le mouvement ne change rien.





Hum a 360 c’est pas du X86 c’est du PPC.<img data-src=" />


votre avatar







John Shaft a écrit :



Quoi ? Les mêmes dévellopeurs qui viennent nous dire que les consoles next-gen vont faire exploser les coûts de dév ?? <img data-src=" />…



Je vais chercher le popcorn <img data-src=" />







Totalement d’accord.







John Shaft a écrit :



(16 Go auraient été plus sûr selon moi)







Ouais bon, pour faire du jeu avec 4 Go de Ram CPU et 2 Go de Ram GPU tu es encore à l’aise aujourd’hui. (et encore sur PC t’as vite fait de consommer plus de ram ne serait-ce que pour faire tourner windows)



Bref on passe quand même de 256 x 2 pour la PS3 à 8 Go x 1 pour la PS4, 16 fois plus. Ca évolue plus vite que du “Moore”. D’ailleurs 256 MB + 256 MB c’était faiblard en 2007, la xbox qui avait un an de plus avait 512 MB + 512 MB.



8 Go aujourd’hui, même partagé, ça va surtout quand on parle de GDDR5.


votre avatar







Alucard63 a écrit :



L’architecture de la PS4 c’est pas compliqué c’est la même que la Xbox 360 avec un CPU X86 et mise à jour avec des composant de 2012.<img data-src=" />





Y’a le lecteur HD DVD aussi ? <img data-src=" />


votre avatar







SrBelial a écrit :



j’ose espérer qu’on verra plutôt des jeux développés sur PC et ensuite portés sur PS et XBoite <img data-src=" />







Oué tu veux inciter au piratage sur cette plateforme de voleurs qui se payent le luxe de jamais être content ?! <img data-src=" /> <img data-src=" />









<img data-src=" />


votre avatar







the_Grim_Reaper a écrit :



La RAM et le CPU t’as bien gonflé quand même.

avec l’EDO t’avais plus souvent 216 ou 48 <img data-src=" />



heu, je suis pas certains qu’il ai pu tenir le boot à cette fréquence le mmx.







En juin 1998, je m’achetais mon premier PC avec des caractéristiques haut de gamme pour l’époque :




  • Pentium II 300 MHz (il existait jusqu’à 400MHz mais encore plus cher)

  • 64 Mo de SD-RAM

  • 6.4Go de disque dur

  • Carte graphique AGP ATI Expert Play avec 8 Mo de mémoire

  • Carte 3D 3dfx Voodoo II PCI avec 12 Mo de mémoire (les 3dfx à l’époque ne savaient gérer que l’affichage 3D, pas la 2D, elles venaient donc en complément d’une carte video)

    Le tout pour la modique somme de quasiment 2500€ !! (c’était des francs à l’époque…) et encore, si on adaptait la somme à l’euro actuel, ce serait plus cher encore…



    15 ans plus tard, le plus basique des smartphones est largement plus puissant pour 10-15% de ce prix… (et je ne parle pas des smartphones haut de gamme !!)


votre avatar







Alucard63 a écrit :



Et puis quoi encore?<img data-src=" />











John Shaft a écrit :



Oué tu veux inciter au piratage sur cette plateforme de voleurs qui se payent le luxe de jamais être content ?! <img data-src=" /> <img data-src=" />









<img data-src=" />







ça a eut été fait, et l’explosion du jeu indépendant devrait favoriser ce genre de pratiques à l’avenir …..

enfin c’est pas interdit de rêver quoi !

;)


votre avatar







myxomatosis a écrit :



Avec un peu de chance, ça fera en sorte que l’on aura des portages sur PC moins foireux, puisque PC, PS4 et XBOX Next tourneront sur du x86 (et DirectX?!) ?!







Les portages PC foireux le sont principalement à cause d’une interface adaptée au gamepad qui n’est pas adaptée pour le PC.


votre avatar







mr-fox a écrit :



En juin 1998, je m’achetais mon premier PC avec des caractéristiques haut de gamme pour l’époque :




  • Pentium II 300 MHz (il existait jusqu’à 400MHz mais encore plus cher)

  • 64 Mo de SD-RAM

  • 6.4Go de disque dur

  • Carte graphique AGP ATI Expert Play avec 8 Mo de mémoire

  • Carte 3D 3dfx Voodoo II PCI avec 12 Mo de mémoire (les 3dfx à l’époque ne savaient gérer que l’affichage 3D, pas la 2D, elles venaient donc en complément d’une carte video)

    Le tout pour la modique somme de quasiment 2500€ !! (c’était des francs à l’époque…) et encore, si on adaptait la somme à l’euro actuel, ce serait plus cher encore…



    15 ans plus tard, le plus basique des smartphones est largement plus puissant pour 10-15% de ce prix… (et je ne parle pas des smartphones haut de gamme !!)





    Même ma deuxième configuration se fait massacré par un smartphone milieu de gamme:



    Athlon 1Ghz

    512 Mo de DDR

    Geforce 3 Ti 200



    et je pense que la 3° ce sera le cas dès la fin de l’année:



    AthlonXP 2800+

    1Go de Ram

    Geforce 6600GT AGP



    C’était le bon temps.<img data-src=" />


votre avatar







Spydeus a écrit :



8Go de RAM … ils vont pouvoir coder avec les pieds ! <img data-src=" />





C’est déjà le cas <img data-src=" />changera pas puis bon 8 go avec un gpu de merde tu peux pas faire des miracles .


votre avatar







John Shaft a écrit :



En quoi c’est mieux (et sans être dév) :





  • Tu fais sauter la limite des env. 13-17 Go/s (en fonction de la fréquence) de la DDR3 de nos PC pour atteindre des vitesse plus importantes

  • Plus de transferts de la RAM CPU vers la RAM GPU.



    Et comme c’est dédié au jeu, le fait que ce soit un pot commun entre CPU et GPU est moins gênant que sur un PC où tu as plein d’autres trucs à mettre en RAM. Maintenant on verra si ces 8 Go sont suffisant (16 Go auraient été plus sûr selon moi)







    Perso, la question qui m’intéresse c’est pas de savoir si c’est suffisant mais si ça va servir à quelque chose. Parce que bon entre un jeu pourri et un jeu pourri en HD, ben voilà pour moi il n’y a aucune différence.


votre avatar







John Shaft a écrit :



Oué tu veux inciter au piratage sur cette plateforme de voleurs qui se payent le luxe de jamais être content ?! <img data-src=" /> <img data-src=" />









<img data-src=" />





Pirater oui mais pas la merde allo quoi faite des jeux digne être pirater <img data-src=" />


votre avatar







Mack21 a écrit :



L’idée d’unifier la ram n’est pas mauvaise, surtout si tu mets 8 Go GDDR5, a titre de comparaison j’ai 8 Go DDR3 et 1.5GDDR5 sur ma GTX 580. En calcule brut j’arrive pas au niveau de la PS4 sur la ram.







C’est quoi le gain de perf réel entre 8Go de DDR3 et 8Go de DDR5 ?


votre avatar







Pochi a écrit :



C’est quoi le gain de perf réel entre 8Go de DDR3 et 8Go de DDR5 ?





DDR3 PC3-17000 bande passante ==&gt; 17 Go/sc



GDDR5 avec bus 256 bits =&gt; 160 Go/sc



C’est pas vraiment négligeable.<img data-src=" />


votre avatar







mr-fox a écrit :



En juin 1998, je m’achetais mon premier PC avec des caractéristiques haut de gamme pour l’époque :




  • Pentium II 300 MHz (il existait jusqu’à 400MHz mais encore plus cher)

  • 64 Mo de SD-RAM

  • 6.4Go de disque dur

  • Carte graphique AGP ATI Expert Play avec 8 Mo de mémoire

  • Carte 3D 3dfx Voodoo II PCI avec 12 Mo de mémoire (les 3dfx à l’époque ne savaient gérer que l’affichage 3D, pas la 2D, elles venaient donc en complément d’une carte video)

    Le tout pour la modique somme de quasiment 2500€ !! (c’était des francs à l’époque…) et encore, si on adaptait la somme à l’euro actuel, ce serait plus cher encore…



    15 ans plus tard, le plus basique des smartphones est largement plus puissant pour 10-15% de ce prix… (et je ne parle pas des smartphones haut de gamme !!)







    IBM Deskstar? <img data-src=" /> ou Quantum?




votre avatar







Alucard63 a écrit :



DDR3 PC3-17000 bande passante ==&gt; 17 Go/sc



GDDR5 avec bus 256 bits =&gt; 160 Go/sc



C’est pas vraiment négligeable.<img data-src=" />







Ca c’est la théorie. Je doute trèèès fortement qu’on multiplie les FPS par 10 sur un même jeu.


votre avatar







SrBelial a écrit :



j’ose espérer qu’on verra plutôt des jeux développés sur PC et ensuite portés sur PS et XBoite <img data-src=" />







Moi j’ose espérer que l’on verra des jeux développés sur consoles restant sur consoles et des jeux PC pour PC.



Chacun chez soi, tout le monde est content.


votre avatar







Pochi a écrit :



Ca c’est la théorie. Je doute trèèès fortement qu’on multiplie les FPS par 10 sur un même jeu.





Bien sur que non mais la DDR3 est un énorme goulot d’étranglement en comparaison de la PS4.



On va pas multiplier les FPS comme ça, il y a d’autres éléments dans la configuration( CPU, GPU… ). reste que ça permet une grande flexibilité et de bonnes performances pour l’accès mémoire que ce soit pour le CPU ou le GPU.<img data-src=" />


votre avatar







Pochi a écrit :



Ca c’est la théorie. Je doute trèèès fortement qu’on multiplie les FPS par 10 sur un même jeu.







Ca ne montera pas les FPS par 10, mais cela permettra d’avoir des textures de plus hautes définitions, des modèles 3D plus détaillés, plus de modèles en mémoire pour des univers plus riches, de pouvoir passer à de la Full HD sans problèmes, utiliser l’AntiAliasing, et de faire tout ce qui nécessite de la mémoire et de la bande passante :)


votre avatar







Pochi a écrit :



Ca c’est la théorie. Je doute trèèès fortement qu’on multiplie les FPS par 10 sur un même jeu.







Y’aura déjà de la perte (/2?) si on part du principe que la PS4 affichera de la vraie FHD


votre avatar



le choix de l’architecture de la PlayStation 4 avait été dicté par les besoins des développeurs





Quoi ? Les mêmes dévellopeurs qui viennent nous dire que les consoles next-gen vont faire exploser les coûts de dév ?? <img data-src=" />…



Je vais chercher le popcorn <img data-src=" />

votre avatar

8Go de RAM … ils vont pouvoir coder avec les pieds ! <img data-src=" />

votre avatar

<img data-src=" />

votre avatar







Spydeus a écrit :



8Go de RAM … ils vont pouvoir coder avec les pieds ! <img data-src=" />







Unifiées entre CPU et GPU, ça va être sport <img data-src=" />



(ie : on va entendre les dévs dire que <img data-src=" /> c’est trop dur <img data-src=" /> )


votre avatar







Spydeus a écrit :



8Go de RAM … ils vont pouvoir coder avec les pieds ! <img data-src=" />







M’en fous du moment que le portage PC est de qualité lui. <img data-src=" />


votre avatar

Avec un peu de chance, ça fera en sorte que l’on aura des portages sur PC moins foireux, puisque PC, PS4 et XBOX Next tourneront sur du x86 (et DirectX?!) ?!

votre avatar







Spydeus a écrit :



8Go de RAM … ils vont pouvoir coder avec les pieds ! <img data-src=" />







Ouaip, faudrait leur filer un P350 MMX accompagné de 256 de EDO/SDRAM et d’une carte vidéo (et non graphique) ISA tiens <img data-src=" />





Note: pour ceux qui ne comprendraient pas certains sigle, c’est normal, vous avez moins de 25 ans, n00bs <img data-src=" />


votre avatar







John Shaft a écrit :



Unifiées entre CPU et GPU, ça va être sport <img data-src=" />



(ie : on va entendre les dévs dire que <img data-src=" /> c’est trop dur <img data-src=" /> )







Hmmm comme la bonne pub qui te vante un portable bas de gamme avec whatmille Mo/Go de RAM dont x% partagés par le chip graphique? Ah que c’était bon le temps où tu n’avais pas un HD9000 pour les usages classiques et une ATI/NVidia dédiée pour les usages sportifs


votre avatar







John Shaft a écrit :



Quoi ? Les mêmes dévellopeurs qui viennent nous dire que les consoles next-gen vont faire exploser les coûts de dév ?? <img data-src=" />…



Je vais chercher le popcorn <img data-src=" />





Ça c’est juste pour justifier une augmentation du prix des jeux.



Le top se serait de réussir a passer a 99€ pour un jeu de 6 heures :)



votre avatar







pti_pingu a écrit :



Hmmm comme la bonne pub qui te vante un portable bas de gamme avec whatmille Mo/Go de RAM dont x% partagés par le chip graphique? Ah que c’était bon le temps où tu n’avais pas un HD9000 pour les usages classiques et une ATI/NVidia dédiée pour les usages sportifs







Sauf que là, c’est de la GDDR5 et non de la simple DDR. Petite subtilité qui permettra aux dévs de faire n’imp’ (pour continuer un peu mon troll <img data-src=" />)


votre avatar







pti_pingu a écrit :



Ouaip, faudrait leur filer un P350 MMX accompagné de 256 de EDO/SDRAM et d’une carte vidéo (et non graphique) ISA tiens <img data-src=" />





Note: pour ceux qui ne comprendrait pas certains sigle, c’est normal, vous avez moins de 25 ans, n00bs <img data-src=" />







J’ai pas encore mes 25 ans et j’ai tout compris <img data-src=" />



Gros overclock pour ton Pentium MMX <img data-src=" />


votre avatar



Des choix comme le fait de proposer 8 Go de mémoire système très rapide est juste une grande victoire pour les développeurs, pour le type de jeux qu’ils veulent créer, et pour leur faciliter le travail ».



En quoi c’est une victoire, et en quoi c’est mieux ? (vraie question, si un dev passe par là)

votre avatar







CR_B7 a écrit :



Le top se serait de réussir a passer a 99€ pour un jeu de 6 heures :)







Ah ? Tu parles de CoD avec son Season Pass ?? <img data-src=" />



<img data-src=" /><img data-src=" />


votre avatar

Quelqu’un peut m’expliquer pourquoi Sony s’est fait chier avec le CELL, cher et compliqué au lieu de faire un truc simple comme la PS4?


votre avatar







Ellierys a écrit :



J’ai pas encore mes 25 ans et j’ai tout compris <img data-src=" />



Gros overclock pour ton Pentium MMX <img data-src=" />







J’suis désolé mais quand on a un poney-punko-club bcbg en profil, ceci explique cela <img data-src=" />


votre avatar







pti_pingu a écrit :



J’suis désolé mais quand on a un poney-punko-club bcbg en profil, ceci explique cela <img data-src=" />







Ça explique mon jeune âge ? <img data-src=" />


votre avatar







zefling a écrit :



Avec une 1 FPS (frame par semaine) <img data-src=" />







Tu rigole mais Flight Simulator était super fluide sur mon 286, par contre c’était 3d fils de fer. <img data-src=" />


votre avatar







MikeNeko a écrit :



Ah ces jeunes <img data-src=" />

Moi c’était un IBM 8088, 4Mhz et 64k de mémoire si je me souviens bien, sous CP/M :)

Et les 5 pouces 14 c’était le bien, avec la ptite pochette en papier, tellement plus rapide que les cassettes… (j’en ai soupé de la cassette avec le C64… puuu ). 1 pour CP/M, 1 pour les données… haaaa soupir*



en fait… c’était pas mieux avant xD

Je l’aime mon core i7…







Pu…. <img data-src=" /> mais <img data-src=" /> quoi. Quand on compare ce qu’on avait avant et ce qu’on a maintenant, ben j’imagine pas le choc qu’aurait un Babylonien à qui on présenterai un B52 … (euhhhh quoique les Bush l’ont fait <img data-src=" />)


votre avatar







von-block a écrit :



J’ai jamais réussi à trouver une réponse même en cherchant sur google



Si la Gddr5 est si + formidable que la ddr3



Pourquoi on ne l’utilise pas partout ?



Quelqu’un peut me vulgariser la réponse.







Argent, thune, flouze, bucks, dollar, maille, piastres, blé, cash, liquide, grisbi


votre avatar







zzzZZZzzz a écrit :



Mouarf, ces jeunes <img data-src=" />



Mon premier PC était un Commodore PC, 286 12Mhz, 20 mo de disque dur(oui oui Mo)

C’est le seul pc “de constructeur” que j’ai eu…

Et avant j’avais accès à un PC1512 Amstrad(8086) avec ses bonnes vieilles disquettes 5 14.



Merde, je suis vieux <img data-src=" />







L’Amstrad PC1512 !!! et son double lecteur de disquettes souples (plus rapide pour copier….<img data-src=" /> )



Me souviens de Livigston Presum, Winter Games, Summer Games…… (soupir nostalgique) aahh les samedi après midi entier à tenter les high scores !!



<img data-src=" />





<img data-src=" />


votre avatar







k4sh a écrit :



M’en fous du moment que le portage PC est de qualité lui. <img data-src=" />





+1000


votre avatar







von-block a écrit :



J’ai jamais réussi à trouver une réponse même en cherchant sur google



Si la Gddr5 est si + formidable que la ddr3



Pourquoi on ne l’utilise pas partout ?



Quelqu’un peut me vulgariser la réponse.







Pas les mêmes contrôleurs mémoire et la ddr3 est moins cher :)


votre avatar







mr-fox a écrit :



En juin 1998, je m’achetais mon premier PC avec des caractéristiques haut de gamme pour l’époque :




  • Pentium II 300 MHz (il existait jusqu’à 400MHz mais encore plus cher)

  • 64 Mo de SD-RAM

  • 6.4Go de disque dur

  • Carte graphique AGP ATI Expert Play avec 8 Mo de mémoire

  • Carte 3D 3dfx Voodoo II PCI avec 12 Mo de mémoire (les 3dfx à l’époque ne savaient gérer que l’affichage 3D, pas la 2D, elles venaient donc en complément d’une carte video)

    Le tout pour la modique somme de quasiment 2500€ !! (c’était des francs à l’époque…) et encore, si on adaptait la somme à l’euro actuel, ce serait plus cher encore…



    15 ans plus tard, le plus basique des smartphones est largement plus puissant pour 10-15% de ce prix… (et je ne parle pas des smartphones haut de gamme !!)





    Je ne sais plus ce que comportait ma première config en 1996, mais l’ordinateur coutait 10000 Francs, avait 1Go de disque dur et pour lancer Caesar III il fallait patienter… une demi heure <img data-src=" />

    Heureusement j’avais pas encore jeté mon baton pour pouvoir jouer un peu pendant le temps de chargement <img data-src=" />


votre avatar







athlonx2 a écrit :



L’Amstrad PC1512 !!! et son double lecteur de disquettes souples (plus rapide pour copier….<img data-src=" /> )



Me souviens de Livigston Presum, Winter Games, Summer Games…… (soupir nostalgique) aahh les samedi après midi entier à tenter les high scores !!



<img data-src=" />





<img data-src=" />





Hum, que de souvenirs, mais il manque le must, Combat School, le jeu qui bousillait les joysticks plus vite que le temps qu’il fallait pour le charger <img data-src=" />


votre avatar







athlonx2 a écrit :



L’Amstrad PC1512 !!! et son double lecteur de disquettes souples (plus rapide pour copier….<img data-src=" /> )



Me souviens de Livigston Presum, Winter Games, Summer Games…… (soupir nostalgique) aahh les samedi après midi entier à tenter les high scores !!

:





Ca m’arrive encore de jouer (par émulateurs) aux vieux jeux du CPC 6128 et de l’Amiga 500 !

Rick Dangerous, Platoon, Savage, Fruity Franck, Boulder Dash…

La bonne époque !!!!


votre avatar







Drepanocytose a écrit :



Ca m’arrive encore de jouer (par émulateurs) aux vieux jeux du CPC 6128 et de l’Amiga 500 !

Rick Dangerous, Platoon, Savage, Fruity Franck, Boulder Dash…

La bonne époque !!!!







<img data-src=" />



Les mêmes, le cpc6128, mon premier !!! (verse une larme, renifle…)



<img data-src=" />


votre avatar

Vous pensez vraiment que la PS3 va rendre mieux que mon i7 / GTX680 ?



La console s’en sortira mieux que la moyenne des ordis (Fnac et autres ordis Carrefour étant vendus en général au grand public). Mais face à un PC Gamer, elle n’aura aucune chance.



Et ce dès la sortie de la console.

votre avatar

la mémoire unifié c’est pas ce qu’il ya une époque on appeler la mémoire partagé ya 15-20 ans sur les pc d’entrée de gamme ? qui été considérée comme le summum de l’arnaque ?sur une tour ?



oue unifié c’est plus cool que partagé …

votre avatar







yukon_42 a écrit :



la ram est partagé entre cpu et gpu ?

effectivement c’est comme l’architecture des pc….. bas de gamme <img data-src=" />







Le jour où tu me trouves un PC bas de gamme avec 8Go de GDDR5, fut-elle partagée, tu me fais signe hein. <img data-src=" />


votre avatar







Crono972 a écrit :



Vous pensez vraiment que la PS3 va rendre mieux que mon i7 / GTX680 ?



La console s’en sortira mieux que la moyenne des ordis (Fnac et autres ordis Carrefour étant vendus en général au grand public). Mais face à un PC Gamer, elle n’aura aucune chance.



Et ce dès la sortie de la console.







On n’a jamais parlé de PS3 là.

Et puis il n’est nullement question de sortir qu’elle va avoir la plus grosse.

Merci de nous re-re-re-re-re-re-dire ce que l’on sait déjà <img data-src=" />



Il est juste question de ses specs plus en détail et qu’elles sont plus en adéquations avec ce qu’attendent les dèvs.



Pour finir, et comme ça a déjà été dit, côté RAM elle n’aura strictement rien à envier à n’importe quel PC gamer. Sort moi une seule machine possédant 8 Go de RAM unifiée en GDDR5 ?


votre avatar







Holly Brius a écrit :



Comme d’hab du grand n’importe quoi dans les commentaires…



Alors oui, le point fort de la PS4 c’est la mémoire très rapide.

Et non, que ce soit du x86 ne change absolument rien rien sur la facilité de portage…

A titre d’exemple, il est bien plus facile de faire un soft qui tourne sur iOS et mac (donc CPU différent ARM et x86) que de faire un portage de ce soft sur un PC windows (même si c’est du x86 comme le mac).





Ce n’est pas du x86 mais du x64.


votre avatar







aznur a écrit :



la mémoire unifié c’est pas ce qu’il ya une époque on appeler la mémoire partagé ya 15-20 ans sur les pc d’entrée de gamme ? qui été considérée comme le summum de l’arnaque ?sur une tour ?



oue unifié c’est plus cool que partagé …







Tu veux une vraie réponse où ça t’intéressait juste de faire la question et la réponse ?



La réponse est : “non, rien à voir”.





  • La mémoire partagée rencontrée sur les PC entrée de gamme est de la DDR1/2/3, autrement dit une mémoire “lente” pour le graphisme.

  • La mémoire “partagée” ne l’est pas vraiment : la ram utilisée par le chipset graphique lui est totalement réservée. Le CPU ne peut rien mettre dedans, ni aller la lire.

  • Pour cette raison, la quantité de mémoire partagée est toujours limitée : du genre on prends 128Mo pour la vidéo sur les 2Go de ram installée.

  • La mémoire utilisée par le chipset graphique est autant de mémoire disponible en moins pour faire tourner les logiciels et OS, même quand on joue pas.



    À l’inverse :

  • La mémoire unifiée de la PS4 est de la GDDR5, autrement dit de la mémoire ultra-rapide : il s’agit de la norme actuelle pour les bonnes cartes graphiques, et cela explose, en terme de vitesse, la DDR3 de la RAM ordinaire des PC.

  • La mémoire unifiée l’est apparemment vraiment : le CPU et le GPU vont pouvoir puiser dans un “pot commun” et éviter d’avoir à faire des transferts de données d’une mémoire à l’autre.

  • Pour cette raison, le CPU ET le GPU vont tous les deux bénéficier de 8Go de RAM. À charge pour le développeur de répartir dynamiquement ces 8Go entre les besoins des deux puces. Ce qui est impossible sur l’architecture d’un PC bas de gamme à mémoire partagée.

  • La RAM est, de toute façon et quoi qu’il arrive, 100% exploitée par le jeu : y a pas à faire tourner Windows, Word, l’antivirus et compagnie là. On se pose pas de question : on lance un jeu et on a 8Go pour lui, point. Le corrolaire est que l’application en train de tourner sur la PS4 (le jeu) dispose en tout état de cause de 100% de la ram de la PS4 (ou à peu près). Pas de RAM gâchée contrairement à l’architecture PC bas-de-gamme.


votre avatar







athlonx2 a écrit :



L’Amstrad PC1512 !!! et son double lecteur de disquettes souples (plus rapide pour copier….<img data-src=" /> )



Me souviens de Livigston Presum, Winter Games, Summer Games…… (soupir nostalgique) aahh les samedi après midi entier à tenter les high scores !!



<img data-src=" />





<img data-src=" />







l’amstrad pc1515 <img data-src=" />

avec pctools pour changer les couleur de font et de caracteres ….. les 4 piles LR6 pour sauver les reglages qui etaient boufée en 2 semaines <img data-src=" />



et sram, sram II, mission, voyage au centre de la terre, adi (oui l’ancetre ^^), f1 gp, qbert, digger, et superbase en ancetre d’interface graphique qui plantait toutes les 10 min ^^ winter et summer game aussi bien sur …… ahlalala …….. j’y ai passée des heures et des heures sur ce tank <img data-src=" />


votre avatar







Séphi a écrit :



Pour finir, et comme ça a déjà été dit, côté RAM elle n’aura strictement rien à envier à n’importe quel PC gamer. Sort moi une seule machine possédant 8 Go de RAM unifiée en GDDR5 ?





Quand est-ce que ça va rentrer dans vos têtes. Les performances d’une partie graphique ne se limitent pas à la quantité de RAM qu’elle utilise.



Il se trouve que la RAM est de moins en moins chère et qu’il est monnaie courante de trouver 16 go dans une config gamer actuelle. Donc ça va, le monde PC n’a pas de quoi s’inquiéter.


votre avatar







bingo.crepuscule a écrit :



Non, OpenGL pour la PS4, La WiiU, La SteamBox, MacOS X, Linux, tablettes et smartphones, Direct X se cantonne à la Xbox et PC/Smartphone/Tablettes sous Windows, dit et redit.





A propos de l’OpenGL utilisé dans la PS4, est-ce qu’au final ça ne va pas aider à trouver plus de jeux “natifs” Linux (Sans “Émulation”), car plus faciles à porter de la PS4 vers Linux ? <img data-src=" />



(Et au passage, continuer à faire tomber un peu plus le mythe “jeu sur PC” = “Windows”, un peu comme le fait “Steam sur Linux” ?) <img data-src=" />



Si c’est le cas, Microsoft doit l’avoir mauvaise <img data-src=" /> Car les raisons de rester sous Windows diminuent de plus en plus, et celle de passer à Linux augmentent <img data-src=" />


votre avatar







aznur a écrit :



la mémoire unifié c’est pas ce qu’il ya une époque on appeler la mémoire partagé ya 15-20 ans sur les pc d’entrée de gamme ? qui été considérée comme le summum de l’arnaque ?sur une tour ?



oue unifié c’est plus cool que partagé …







Non, ça n’a rien voir. Ce que tu parles, ce sont les technologies “HyperMemory” chez ATI et je me souviens plus du nom chez nVidia. T’avais la mémoire de la carte graphique qui était combiné avec la mémoire centrale du PC. L’arnaque venait du fait que l’accès à la mémoire centrale par la carte graphique passait par le northbridge avec une bande passante plus faible et une latence plus élevée. Bref, c’était pas plus performant, voire même moins.



Dans le cas de la PS4 (et de la Xbox 360 actuellement), la même mémoire est accessible directement par le CPU et le GPU sur un bus commun. La bande passante est la même pour tout le monde et la latence aussi. Du coup, le GPU se comportera comme un GPU d’aujourd’hui puisqu’on se situe dans le même ordre de performance qu’une carte milieu de gamme type HD 7850, et le CPU aura un vrai coup de boost lors de l’accès à des données non en cache par rapport à celui de nos PC (du fait de la bande passante bien plus élevée).



En fait, cette PS4 (et probablement la future Xbox) ne sont pas tant dépassées que ça par nos PC pour plusieurs raisons : bien que l’architecture soit très proche d’un PC, il reste des spécificités liées aux consoles et au jeu. Cette mémoire unifiée en est l’exemple. Il y aussi des fonctionnalités matérielles (comme l’EDRAM sur la xbox 360 actuelle) qui n’existe pas sur PC et qui permettent d’accélérer certains traitements. Aussi, la plateforme matérielle étant fixe, le code pourra être fortement optimisé, spécifique à la plateforme (contraiement au PC).



Moi qui suis bien plus PC que console, je suis assez surpris et plutôt enthousiaste sur cette nouvelle génération pour 2-3 premières années d’existence. Sans être de mauvaise foi, il y a une bonne plateforme matérielle, dont les ressources sont données en priorité aux jeux, il faut voir ce que les développeurs en feront, mais je pense qu’on aura quelques surprises.


votre avatar







Drepanocytose a écrit :



Ca m’arrive encore de jouer (par émulateurs) aux vieux jeux du CPC 6128 et de l’Amiga 500 !

Rick Dangerous, Platoon, Savage, Fruity Franck, Boulder Dash…

La bonne époque !!!!





J’y ai rejoué il n’y a même pas 15 jours, version CPC 464, le mal que j’ai eu à lancer le jeu <img data-src=" />


votre avatar

A supprimer…

votre avatar







kail a écrit :



Quand est-ce que ça va rentrer dans vos têtes. Les performances d’une partie graphique ne se limitent pas à la quantité de RAM qu’elle utilise.



Il se trouve que la RAM est de moins en moins chère et qu’il est monnaie courante de trouver 16 go dans une config gamer actuelle. Donc ça va, le monde PC n’a pas de quoi s’inquiéter.







Heuuu j’ai jamais dit que c’était important pour la partie graphique…

Je précise juste pour les détracteurs qui n’arrêtent pas de beugler que les consoles sont moins puissantes que leurs PC chéris (à croire qu’ils ont peur les pauvres bout-d’choux) qu’elle en a quand même dans le ventre même s’il est impossible pour elle de rivaliser avec un PC haut de gamme…



Je suis plus clair là ?


votre avatar







kail a écrit :



Quand est-ce que ça va rentrer dans vos têtes. Les performances d’une partie graphique ne se limitent pas à la quantité de RAM qu’elle utilise.



Il se trouve que la RAM est de moins en moins chère et qu’il est monnaie courante de trouver 16 go dans une config gamer actuelle. Donc ça va, le monde PC n’a pas de quoi s’inquiéter.







Ouais enfin t’as 16Go mais en DDR3, pas en GDDR5. Cela dit évidemment, même 50Go de GDDR12 ne viendront pas remplacer la différence sur le nombre d’unités de traitement sur la CG. Il est clair que les CG haut de gamme sont et seront plus puissantes que ce que prévoit la PS4. Mais il est évident aussi qu’une console vendue 500\( ne pourra pas égaler un PC à 3000\) de matos en terme de puissance brute.


votre avatar







Séphi a écrit :



On n’a jamais parlé de PS3 là.

Et puis il n’est nullement question de sortir qu’elle va avoir la plus grosse.

Merci de nous re-re-re-re-re-re-dire ce que l’on sait déjà <img data-src=" />



Il est juste question de ses specs plus en détail et qu’elles sont plus en adéquations avec ce qu’attendent les dèvs.



Pour finir, et comme ça a déjà été dit, côté RAM elle n’aura strictement rien à envier à n’importe quel PC gamer. Sort moi une seule machine possédant 8 Go de RAM unifiée en GDDR5 ?







Je pensais à la PS4, mais tu l’avais compris.



La RAM… je ne connais aucun jeu, même moddé comme un porc qui demande une grande quantité de RAM. Les développeurs sont contents parce que ça leur changera des anciennes générations de console.



Et je répondais à certains qui pensaient que la console serait devant le PC pendant plus de 2 ans (cherche plus haut, tu verras). Ça m’a bien fait rire. Surtout quand on sait qu’ils rajoutent de la puissance pour faire plus beau, mais pas plus fluide. Et encore, plus beau… Watch Dogs m’avait l’air plus beau dans le trailer de l’E3.


votre avatar







Séphi a écrit :



Heuuu j’ai jamais dit que c’était important pour la partie graphique…

Je précise juste pour les détracteurs qui n’arrêtent pas de beugler que les consoles sont moins puissantes que leurs PC chéris (à croire qu’ils ont peur les pauvres bout-d’choux) qu’elle en a quand même dans le ventre même s’il est impossible pour elle de rivaliser avec un PC haut de gamme…



Je suis plus clair là ?





Ils n’ont pas à avoir peur. Personnellement, je ne crois pas aux miracles. On ne peut pas faire une machine de rêves avec une boiboite qui se vendra aux alentours des 300 roros. Faut avoir un peu les pieds sur terre.


votre avatar







Liam a écrit :





  • La RAM est, de toute façon et quoi qu’il arrive, 100% exploitée par le jeu : y a pas à faire tourner Windows, Word, l’antivirus et compagnie là. On se pose pas de question : on lance un jeu et on a 8Go pour lui, point. Le corrolaire est que l’application en train de tourner sur la PS4 (le jeu) dispose en tout état de cause de 100% de la ram de la PS4 (ou à peu près). Pas de RAM gâchée contrairement à l’architecture PC bas-de-gamme.





    Ca par contre c’est faux, surtout sur les nouvelles générations. Y’a l’OS qui tourne derrière, les services associés comme le net, les chat et on peut imaginer d’autres choses (filmer son écran pour le partager etc…). A moins qu’il y est en plus de la ram classique dédiée à ça.


votre avatar







Séphi a écrit :



Heuuu j’ai jamais dit que c’était important pour la partie graphique…

Je précise juste pour les détracteurs qui n’arrêtent pas de beugler que les consoles sont moins puissantes que leurs PC chéris (à croire qu’ils ont peur les pauvres bout-d’choux) qu’elle en a quand même dans le ventre même s’il est impossible pour elle de rivaliser avec un PC haut de gamme…



Je suis plus clair là ?







Je suis conscient qu’elle en a dans le ventre, il suffit de voir la démo de KZ qui est pas mal du tout (bien que manquant d’un AA <img data-src=" /> et officiant sur des couloirs ).



Le problème pour moi vient de la mentalité des devs vis à vis des joueurs console : Privilégier le “WOW” à la fluidité…


votre avatar







Crono972 a écrit :



Je pensais à la PS4, mais tu l’avais compris.



La RAM… je ne connais aucun jeu, même moddé comme un porc qui demande une grande quantité de RAM. Les développeurs sont contents parce que ça leur changera des anciennes générations de console.



Et je répondais à certains qui pensaient que la console serait devant le PC pendant plus de 2 ans (cherche plus haut, tu verras). Ça m’a bien fait rire. Surtout quand on sait qu’ils rajoutent de la puissance pour faire plus beau, mais pas plus fluide. Et encore, plus beau… Watch Dogs m’avait l’air plus beau dans le trailer de l’E3.









kail a écrit :



Ils n’ont pas à avoir peur. Personnellement, je ne crois pas aux miracles. On ne peut pas faire une machine de rêves avec une boiboite qui se vendra aux alentours des 300 roros. Faut avoir un peu les pieds sur terre.







Je vois même pas pourquoi on se prend le choux alors qu’on est d’accord sur tous les points…



Une console, fusse-t-elle à 300 ou 600 euros ne sera jamais aussi puissante qu’un pc haut de gamme. Elle aura juste le mérite de l’être face à un PC du même prix (encore que… il me semble que pour la PS3 ce n’était pas le cas).


votre avatar







Liam a écrit :



Ouais enfin t’as 16Go mais en DDR3, pas en GDDR5.





Le CPU a-t-il vraiment besoin d’une RAM aussi performante que de la GDDR5 pour les tâches qu’on lui demande?

Le GPU est le patron, c’est uniquement lui qui a besoin d’une RAM très rapide.


votre avatar







kail a écrit :



Le CPU a-t-il vraiment besoin d’une RAM aussi performante que de la GDDR5 pour les tâches qu’on lui demande?

Le GPU est le patron, c’est uniquement lui qui a besoin d’une RAM très rapide.







Yup, enfin il me semble aussi que la GDDR5 aurait une fréquence inférieure à celle que l’on trouve sur les GPU, arrêtez moi si je me trompe mais contrairement au GPU elle doit être synchronisée avec le CPU nan ? Donc fréquence moins importante que si elle n’était que sur un GPU ?


votre avatar







Séphi a écrit :



Je vois même pas pourquoi on se prend le choux alors qu’on est d’accord sur tous les points…



Une console, fusse-t-elle à 300 ou 600 euros ne sera jamais aussi puissante qu’un pc haut de gamme. Elle aura juste le mérite de l’être face à un PC du même prix (encore que… il me semble que pour la PS3 ce n’était pas le cas).







le cas de la ps3 etait particulier du fait du lecteur BRD …… sinon en terme de perf graphiques pure ca devait se valoir …… en revanche ce que les gens oublient en general c’est qu’avace le temps les graphisme d’une consoles se bonnifient ……. ce qui est rarement le cas avec un pc ou sans upgrade materiel on doit baisser la qualitée graphique a chaque generation nouvelle de jeux <img data-src=" />


votre avatar







Crono972 a écrit :



Je ne peux pas approuver ceci. Sur PC, on ne lance pas un jeu en 1024640 voire 1280720. Comparons le comparable, on joue en 1280*1024 depuis les années 90.



Donc côté équivalence, on repassera. Même si je vois globalement ce que tu essayes de dire.







Euh non, depuis 2003, sauf si tu étais un nanti avec un 24” CRT <img data-src=" />


votre avatar







psikobare a écrit :



j’ai jamais vu qu’il avait été annoncé que la PS4 utiliserais openGL, tu as un lien?





J’en ai trouvé deux, même si ça ne reste que des rumeurs <img data-src=" />

En même temps, je vois mal Sony utiliser une librairie propriété de Microsoft, son principal concurrent sur les consoles <img data-src=" />



D’ailleurs, le noyau de l’OS c’est pas du BSD ou un truc comme ça ? <img data-src=" />


votre avatar







pandaroux a écrit :



Même architecture = émulation facile ?





Beaucoup plus facile que la PS3 en tout cas mais il ne faut pas rêver : ça reste un boulot titanesque car il faut réécrire tout l’OS. Une sorte de Wine allégé.







John Shaft a écrit :



Oui, c’est suffisant pour l’instant, mais la console sera faite à priori pour durer fastoche 5-6 ans et d’ici là, les 8 Go seront peut-être limitant. 16 Go, je trouve ça plus sûr dans cette optique <img data-src=" />





Honnêtement, sur nos PC actuels, sur 8Go tu dois avoir 2Go pour les textures et maillages, 1Go pour le code et ses données, 5Go de cache contenant encore le niveau précédent. Si tu as plus de 2Go de textures dans la même scène, ça rame sans doute. Donc bon…







Holly Brius a écrit :



Et cette fois ci, ce sont les portages sur PC qui seront plus moche car la RAM est bien plus lente et les GPU n’ont pas accès à autant de RAM (à moins de payer avec un rein)…





Pas pour longtemps : la PS4 et la Xbox vont faire chuter les prix de la GDDR5 et les cartes graphiques vont s’aligner sur elles.







von-block a écrit :



Si la Gddr5 est si + formidable que la ddr3 Pourquoi on ne l’utilise pas partout ?



Quelqu’un peut me vulgariser la réponse.





Comme dit plus haut, la latence est moins bonne sur la gddr, ce qui nuit aux calculs. La GDDR est faîte pour transmettre de gros blocs de textures d’un coup. C’est un peu comme se faire livrer dix tonnes à une usine, ou dix fois une tonne à dix usines différentes, les besoins ne sont pas les mêmes.


votre avatar







pti_pingu a écrit :



Euh non, depuis 2003, sauf si tu étais un nanti avec un 24” CRT <img data-src=" />







Nanti pour ma part, mon IIyama était un monstre ! En plus de peser 2 tonnes ! <img data-src=" />


votre avatar







zefling a écrit :



Quand je vois que pour avoir quelque chose de « fluide » sur certain jeu PC je dois détendre en 1280×900 sur mon écran 1920×1200 et et que mon PC n’a que 3 ans (et une carte graphique qui en a 1 et demi)…. Excuse-moi de remarque que parfois je trouve que ma PS3 se démerde beaucoup mieux quand je vois ce qu’il y a dedans.

Oui, j’ai pas foutu le prix d’une console dans ma CG (juste 120 €).







Mon PC fait pour le jeu il y a presque 3 ans faisait encore tourner les dernières productions de manière encore optimale (1080p60) Je viens juste de changer de carte graphique. Mais c’est du cas par cas et bien sûr, ça dépend de l’investissement initial (et j’insiste sur le mot initial).



Parce que la CG à 120Euro, c’est une CG faite pour le jeu ? Même avec, t’as une résolution supérieure aux jeux sur ta PS3 en moyenne.







pti_pingu a écrit :



Euh non, depuis 2003, sauf si tu étais un nanti avec un 24” CRT <img data-src=" />





2003 ? On va dire que je me suis emballé pour le coup. Je pensais vraiment que je jouais à Unreal Tournament en 1280*1024. <img data-src=" />


votre avatar







zefling a écrit :



Quand je vois que pour avoir quelque chose de « fluide » sur certain jeu PC je dois détendre en 1280×900 sur mon écran 1920×1200 et et que mon PC n’a que 3 ans (et une carte graphique qui en a 1 et demi)…. Excuse-moi de remarque que parfois je trouve que ma PS3 se démerde beaucoup mieux quand je vois ce qu’il y a dedans.

Oui, j’ai pas foutu le prix d’une console dans ma CG (juste 120 €).





Ta console s’en tire mieux en 720500 avec un jeu optimisé pour elle, qu’un PC d’il y a trois ans en 19201200 (huit fois fois plus de pixels) avec un jeu optimisé à la truelle pour tous les PC possibles et imaginables ?



EN effet, rien de surprenant.


votre avatar







HarmattanBlow a écrit :



Ta console s’en tire mieux en 720500 avec un jeu optimisé pour elle, qu’un PC d’il y a trois ans en 19201200 (huit fois fois plus de pixels) avec un jeu optimisé à la truelle pour tous les PC possibles et imaginables ?



EN effet, rien de surprenant.





C’est fou, j’ai dit jouer en 1280×900 et tu me sort 1920×1200. Sais-tu lire ? En 1920×1200 ça rame tellement que c’est injouable (je dois descendre en dessous de 7~10 fps dans certains jeux). Et 1280×900 c’est pas loin de la réso de la majorité des jeux PS3 (1280×720).


votre avatar







Crono972 a écrit :



Je ne peux pas approuver ceci. Sur PC, on ne lance pas un jeu en 1024640 voire 1280720. Comparons le comparable, on joue en 1280*1024 depuis les années 90.



Donc côté équivalence, on repassera. Même si je vois globalement ce que tu essayes de dire.





Mouais…

Un jeu, c’est quand même plus qu’un tas de pixels…



Je suis d’accord avec zefling sur le coup. C’est pas vraiment comparable et à chaque matos sa façon de jouer.


votre avatar







Séphi a écrit :



Nanti pour ma part, mon IIyama était un monstre ! En plus de peser 2 tonnes ! <img data-src=" />







C’est clair que le boitier desktop du dessous tirait la gueule (sauf si c’était un IBM made by Bundeswehr … trollilounet inside <img data-src=" />)


votre avatar







zefling a écrit :



C’est fou, j’ai dit jouer en 1280×900 et tu me sort 1920×1200. Sais-tu lire ? En 1920×1200 ça rame tellement que c’est injouable (je dois descendre en dessous de 7~10 fps dans certains jeux). Et 1280×900 c’est pas loin de la réso de la majorité des jeux PS3 (1280×720).







+1 cf la liste ici


votre avatar







HarmattanBlow a écrit :



Beaucoup plus facile que la PS3 en tout cas mais il ne faut pas rêver : ça reste un boulot titanesque car il faut réécrire tout l’OS. Une sorte de Wine allégé.







Nan mais si faut dual boot sous PS4 sur mon PC pour jouer, pas de soucis.


votre avatar







HarmattanBlow a écrit :



Ta console s’en tire mieux en 720500 avec un jeu optimisé pour elle, qu’un PC d’il y a trois ans en 19201200 (huit fois fois plus de pixels) avec un jeu optimisé à la truelle pour tous les PC possibles et imaginables ?



EN effet, rien de surprenant.





Je vais modérer un peu tes propos.

Optimisé à la truelle, non (à part de rares cas comme GTA 4).

Mais effectivement, faire tourner des jeux en 1080p ce n’est toujours pas au goût du jour sur console car cela demande beaucoup trop de ressources pour ces petites machines. Bientôt. Espérons pour eux que ce sera pour tous les jeux.


votre avatar







Crono972 a écrit :



Mon PC fait pour le jeu il y a presque 3 ans faisait encore tourner les dernières productions de manière encore optimale (1080p60) Je viens juste de changer de carte graphique. Mais c’est du cas par cas et bien sûr, ça dépend de l’investissement initial (et j’insiste sur le mot initial).



Parce que la CG à 120Euro, c’est une CG faite pour le jeu ? Même avec, t’as une résolution supérieure aux jeux sur ta PS3 en moyenne.





2003 ? On va dire que je me suis emballé pour le coup. Je pensais vraiment que je jouais à Unreal Tournament en 1280*1024. <img data-src=" />







Bon, dur de trouver une source mais voici un début:





In the PC world, the IBM PS/2 VGA and MCGA (multi-color) on-board graphics chips used a non-interlaced (progressive) 640 × 480 × 16 color resolution that was easier to read and thus more-useful for office work. It was the standard resolution from 1990 to around 1996. The standard resolution was 800 × 600 until around 2000





Voilou <img data-src=" />



Edit, d’ailleurs le 1er 1280 que j’ai du voir c’était au lycée en 2003 après l’achat de workstation sous 2K


votre avatar







pti_pingu a écrit :



Bon, dur de trouver une source mais voici un début:







Voilou <img data-src=" />



Edit, d’ailleurs le 1er 1280 que j’ai du voir c’était au lycée en 2003 après l’achat de workstation sous 2K





Attention. Ils parlent de résolution standard, c’est-à-dire pour faire de la bureautique.

Mais quand on passait aux jeu, on prenait la résolution la plus haute du moniteur, à savoir (sans être un nanti) du 1024x768. Mais cela ne dérangeait pas vraiment car les moniteurs étaient petits à l’époque.


votre avatar







kail a écrit :



Attention. Ils parlent de résolution standard, c’est-à-dire pour faire de la bureautique.

Mais quand on passait aux jeu, on prenait la résolution la plus haute du moniteur, à savoir (sans être un nanti) du 1024x768. Mais cela ne dérangeait pas vraiment car les moniteurs étaient petits à l’époque.







Oui mais là n’est pas la réflexion, mais plutôt le fait qu’on avait du 1280x1024 dans les années 90. Si je me souvient bien c’est plutôt dans le début 2000 qu’on a eu des moniteur supportant une telle résolution (enfin pour le grand public). Pour les pro je crois que c’est dans la fin des années 90.


votre avatar







pandaroux a écrit :



Nan mais si faut dual boot sous PS4 sur mon PC pour jouer, pas de soucis.





Il y aurait certes moins de parties à réécrire mais elles seraient beaucoup plus difficiles : au lieu de réécrire la couche 3D en t’appuyant sur DirectX, tu te retrouverais à devoir écrire tes propres drivers 3D ! Ou à devoir écrire un pont simulant le noyau de Windows pour exploiter les drivers de ce dernier. Bref ça me semble pire à vue de nez.







zefling a écrit :



C’est fou, j’ai dit jouer en 1280×900 et tu me sort 1920×1200. Sais-tu lire ? En 1920×1200 ça rame tellement que c’est injouable (je dois descendre en dessous de 7~10 fps dans certains jeux). Et 1280×900 c’est pas loin de la réso de la majorité des jeux PS3 (1280×720).





J’avais mentionné la résolution dont laquelle tu partais mais je n’imaginais pas que tu ramais autant en 1920. Lorsque j’ai changé de PC le mien avait 4 ans et faisait tourner correctement des jeux en 1920. Bon c’était une belle bête quand je l’ai acheté et la carte avait été changée deux ans avant mais quand même…


votre avatar







RaYz a écrit :



Y’a le lecteur HD DVD aussi ? <img data-src=" />





Il est un peu foireux ton troll vu que la xbox n’a qu’un lecteur dvd.



MS parlait de faire un accessoire séparé pour le HD DVD, je sais même pas si il a vu le jour.<img data-src=" />


votre avatar







Tourner.lapache a écrit :



8 Go aujourd’hui, même partagé, ça va surtout quand on parle de GDDR5.







Oui, c’est suffisant pour l’instant, mais la console sera faite à priori pour durer fastoche 5-6 ans et d’ici là, les 8 Go seront peut-être limitant. 16 Go, je trouve ça plus sûr dans cette optique <img data-src=" />


votre avatar







Tourner.lapache a écrit :



Bref on passe quand même de 256 x 2 pour la PS3 à 8 Go x 1 pour la PS4, 16 fois plus. Ca évolue plus vite que du “Moore”. D’ailleurs 256 MB + 256 MB c’était faiblard en 2007, la xbox qui avait un an de plus avait 512 MB + 512 MB.





Non la Xbox 360 a 512 Mo de GDDR3 partagée.<img data-src=" />


votre avatar







CR_B7 a écrit :



CoD tout court, 70€ pour 6 heures a renouveler tout les 6 mois et pas de baisse type jeu budget.



Bref une arnaque a la hollywood.







En même temps, si tu comptes acheter COD pour jouer en solo, c’est pas une bonne idée du tout… <img data-src=" />


votre avatar







DorianMonnier a écrit :



En même temps, si tu comptes acheter COD pour jouer en solo, c’est pas une bonne idée du tout… <img data-src=" />







<img data-src=" />



Mieux vaut prendre MoH dans ce cas là <img data-src=" /><img data-src=" /><img data-src=" />


votre avatar







John Shaft a écrit :



Sans soute. Reste le problème de la mémoire, puisqu’un PC aura un goulot d’étranglement au niveau de la DDR3. (Sauf si la PS4 est foirée et que sa RAM n’ait pas de débits à la DDR3 bien sûr <img data-src=" />)





Ça serait un peu laid de coller de la GDDR5 potentiellement capable d’au moins le double de débit de la DDR3 si c’est pour la castrer à ce point. Par contre, je connais pas la durée de vie dans le temps de ces petites bébêtes, sachant que ça sera soudée à la bestiole, ça serait dommage d’avoir à changer au bout de deux ans, ça pourrait plomber les espoirs de vente en tout cas.


votre avatar

Salut,



ça n’augure rien de bon pour nos cher PC … les futurs jeux vidéo seront surement d’abord développés sur consoles puis affiné ou pas pour le PC !



<img data-src=" />

votre avatar







John Shaft a écrit :



Oui, c’est suffisant pour l’instant, mais la console sera faite à priori pour durer fastoche 5-6 ans et d’ici là, les 8 Go seront peut-être limitant. 16 Go, je trouve ça plus sûr dans cette optique <img data-src=" />





On parle de GDDR5 là 16 Go je sais même pas combien ça pourrait coûter, mais en tout cas: cher.



Pour le moment, même 8Go aucune carte grand publique n’a cette quantité de GDDR5( même la GTX titan n’a “que” 6Go ) et en plus je crois que cette GDDR5( celle de la PS4 ) a une fréquence supérieur à celle que l’on trouve dans les CG à l’heure actuelle.<img data-src=" />


votre avatar







Nathan1138 a écrit :



Sauf que les développeurs réalisant les portages avaient déjà une version x86 sur la génération actuelle : la version Xbox 360. Le fait que Sony rejoigne le mouvement ne change rien.





la Xboite 360 c’est du PPC comme la wii et un peu la PS3<img data-src=" />


votre avatar

Question peut-être débile, pourquoi la GDDR5 ne se démocratise pas sur PC ? La RAM, le gain serait réel au lancement des applis non ? Ou alors le SSD est encore le facteur limitant ?

votre avatar







DorianMonnier a écrit :



En même temps, si tu comptes acheter COD pour jouer en solo, c’est pas une bonne idée du tout… <img data-src=" />





<img data-src=" />


votre avatar







k4sh a écrit :



M’en fous du moment que le portage l’émulation sur PC est de qualité lui elle. <img data-src=" />





<img data-src=" /> <img data-src=" />


votre avatar







pti_pingu a écrit :



Ouaip, faudrait leur filer un P350 MMX accompagné de 256 de EDO/SDRAM et d’une carte vidéo (et non graphique) ISA tiens <img data-src=" />





Note: pour ceux qui ne comprendraient pas certains sigle, c’est normal, vous avez moins de 25 ans, n00bs <img data-src=" />





La RAM et le CPU t’as bien gonflé quand même.

avec l’EDO t’avais plus souvent 216 ou 48 <img data-src=" />





Ellierys a écrit :



J’ai pas encore mes 25 ans et j’ai tout compris <img data-src=" />



Gros overclock pour ton Pentium MMX <img data-src=" />





heu, je suis pas certains qu’il ai pu tenir le boot à cette fréquence le mmx.


votre avatar









lanic29 a écrit :



Salut,



ça n’augure rien de bon pour nos cher PC … les futurs jeux vidéo seront surement d’abord développés sur consoles puis affiné ou pas pour le PC !



<img data-src=" />







C’est déjà le cas hein <img data-src=" />


votre avatar







Alucard63 a écrit :



Il est un peu foireux ton troll vu que la xbox n’a qu’un lecteur dvd.



MS parlait de faire un accessoire séparé pour le HD DVD, je sais même pas si il a vu le jour.<img data-src=" />







si, c’était un lecteur externe USB (de marque NEC je crois) sorti à 200$/€



je pense qu’il s’en est beaucoup plus vendu pour un usage sur PC puisqu’il était compatible avec les bons drivers.





pour la RAM, 8 Go me parait suffisant, faut pas oublier qu’à la base Sony ne voulait en mettre que 4 <img data-src=" /> et je soupçonne même que le changement a été fait à l’arrache peu avant la conférence d’annonce !



d’après ce qu’on peut lire sur NeoGaf, certains studios ont fait pression sur Sony en ce sens, notamment Guerrilla Games. Pour info, la version actuelle de Killzone tourne en fait sur un PC <img data-src=" /> en 1080p à 30fps et occupe dans les 1,5/2Go en ressources systèmes… donc il y a de la marge sur PS4, même si la console doit durer 8 à 10 ans (et d’ici là 8 Go sera ridicule probablement). Et faudra voir combien vont bouffer l’OS de la console et tous les trucs annexes (Serveurs, Streaming, etc…). Sur Wii-U, la moitié des 2 Go est “réservé” à ça avec le GamePad, et sur la prochaine Xbox on parle de quasi 3 Go réservé sur les 8 dispo pour le simili Windows 8, Xbox Live, Kinect tout ça !


votre avatar







Nathan1138 a écrit :



À ceci près que (si ma mémoire est bonne…) :





  • les P350 étaient des Pentium II,

  • le standard sur ces machines à cette époque était trèèèèèès loin des 256 Mo de RAM, on était plutôt à 64 Mo, voire 128 pour les foufous,

  • les cartes graphiques étaient déjà en AGP, je ne suis pas sûr que les mobos de l’époque avaient encore un slot ISA… Mais là, pour le coup, je peux me tromper, je me demande si je n’avais pas une vieille carte son en ISA…







    Toutafé mais oui il me semble que les pour les CG à l’époque c’était encore majoritairement en PCI et il y avait un magnifique port ISA en bas pour assurer la compatibilité avec les vieux matos. ATI RAGE PRO <img data-src=" />







    Alucard63 a écrit :



    Non la Xbox 360 a 512 Mo de GDDR3 partagée.<img data-src=" />







    Ah oké mal lu. Du coup, les archis PS4 et Xbox risquent d’être vraiment très proches vu que MS va surement repasser au X86 coté proco.







    John Shaft a écrit :



    Oui, c’est suffisant pour l’instant, mais la console sera faite à priori pour durer fastoche 5-6 ans et d’ici là, les 8 Go seront peut-être limitant. 16 Go, je trouve ça plus sûr dans cette optique <img data-src=" />







    Oui mais ce que je dis c’est qu’avec 8 Go tu es vraiment large aujourd’hui, pas juste suffisant. Les consoles précédentes étaient déjà en retard quand elles sont sorti sur ce plan là. Du coup, il y a vraiment moyen d’être optimiste.



    Après comme d’hab tout le matos sera désuet dans 6 ans et pas seulement la RAM. Le plus important étant de sortir un système équilibré et pas limité par un composant.


votre avatar









von-block a écrit :



J’ai jamais réussi à trouver une réponse même en cherchant sur google



Si la Gddr5 est si + formidable que la ddr3



Pourquoi on ne l’utilise pas partout ?



Quelqu’un peut me vulgariser la réponse.





Pour 2 raisons:




  • l’une comme l’a été évoqué plusieurs fois ici, le coût; la GDDR5 est 3 à 4 fois plus cher que la DDR3.

  • la deuxième c’est que la GDDR5 privilégie la bande passante au détriment de la latence, pour de la RAM Vidéo c’est parfait, pour un CPU beaucoup moins.



    Sony joue quelque part aux apprentis sorcier, ils ont préféré pénaliser la partie CPU pour favoriser le GPU mais il n’avaient pas le choix plus qu’ils ont voulu simplifier le “northbridge” par rapport au PC.


votre avatar

L’avantage de la mémoire unifié, c’est que le GPU et le CPU se partage les information.



Si par exemple, pour une image, tu as des informations (comme la physique, l’IA et cie) qui joue avec les vertices bah tu n’as pas besoins de faire du va et viens entre la mémoire centrale et la mémoire embarqué.



Tu as une texture que tu applique un effet procédurale ou autre selon divers actions (un traitement ou il y a de multiple branchement, ce qui fait qu’il sera plus rapide a exécuté sur le CPU), bah tu n’as pas besoin de la copier. Le GPU n’a qu’à la déverrouiller le temps que le processeurs fasse sont boulot et ensuite il reprend le relais.



En pratique, ça sauve un tas de bande passante et ça simplifie grandement le travail des développeurs. Et il ne faut pas comparé cela au bas de gamme PC ou le GPU est castré et doit partagé un bus 128 bit en DDR3. On va plutôt avoir un GPU relativement haut de gamme avec un bus 256 bit en GDDR5. Les perf de la mémoire seront beaucoup plus proche des cartes graphiques actuel.



Autre point pour les développeurs, la flexibilité.



Le dev 1, veux faire un jeu avec beaucoup d’information à gérer, (ex un SimCity par exemple) mais ou les graphismes seront simpliste.

Le Dev 2 veux surtout faire un jeu ou il vise le photoréalisme mais le jeu gérera peu d’information (ex Crysys X)



Avec une mémoire vidéo Fixe, le premier manquerait peux être de mémoire vive et le deuxième manquerais peux être de mémoire vidéo. Avec une mémoire partagé, le premier peux très bien utilisé 6 Go pour le moteur du jeu et 2 Go pour les graphisme et le second peux très bien faire l’inverse.

votre avatar







zefling a écrit :



C’est fou, j’ai dit jouer en 1280×900 et tu me sort 1920×1200. Sais-tu lire ? En 1920×1200 ça rame tellement que c’est injouable (je dois descendre en dessous de 7~10 fps dans certains jeux). Et 1280×900 c’est pas loin de la réso de la majorité des jeux PS3 (1280×720).









C’est quoi ta CG <img data-src=" />

Avec mon C2Q overclocké à 3GHz et ma pas plus jeune (je crois) GTX260 je joue à tous les jeux en 1920*1080 avec détails en ultra, sauf Battlefield 3, certes.


votre avatar







zefling a écrit :



Je sais pas si je dis une connerie, mais il semble que le 360 n’était pas simple à côté non plus, beaucoup moins que la PS3, mais pas simple pour autant. Pour le deux consoles, c’est les améliorations des SDK qui leur ont facilité les choses. Bref, prendre la génération actuelle en exemple n’est pas une bonne idée.









Bah quand même par rapport aux cells et leurs SPUs à synchroniser par le core ppc si quand même largement la 360 devrait etre bien + accessible déjà les processeurs sont bien plus proche de processeurs X86 dans leur façon d’assimiler le code alors que le CELL pas du tout….

sinon effectivement la 360 doit être bien + hardu a maitrisé qu’une xbox 1 qui elle était grosse-modo un pc vendu sous la forme d’une box par exemple mais certainement bien moins que la ps3 ps 2 ou même peut-être qu’une ps1…. rappelons nous de valve qui déclarait pendant longtemps qu’ils n’avaient pas de temps a perdre à dev sur la ps3 lol ( left for dead exclue 360 ).



Tu dis que prendre la génération actuelle n’est pas un bon exemple j’ai envie de dire que même pas en fait mais prendre une génération qui n’est pas encore sortie en est un ? Je pense encore moins… :) donc comme notre ami parlait à l’avance des consoles à sortir moi je lui ai parlé des consoles actuelles mais si tu veux lui parler de l’atari 2600 vs la PC-Engine tu peux va s’y <img data-src=" />


votre avatar



Nan mais si faut dual boot sous PS4 sur mon PC pour jouer, pas de soucis.





Je suis partant pour que Creative nous sorte la Ps4 Blaster en Blu-ray!

votre avatar







Holly Brius a écrit :



Un peu plus…

Certe y auras des GPU avec 4go de VRAM mais tant que la RAM du PC sera de la DDR3, certaines choses ne seront pas faisable sur PC. La différence de vitesse entre DDR3 et DDR5 change tout.





Sur ps4 c’est de la GDD5 qui est annoncé, pas de la DDR5 qui n’existe pas encore.


votre avatar







zefling a écrit :



Quand je vois que pour avoir quelque chose de « fluide » sur certain jeu PC je dois détendre en 1280×900 sur mon écran 1920×1200 et et que mon PC n’a que 3 ans (et une carte graphique qui en a 1 et demi)…. Excuse-moi de remarque que parfois je trouve que ma PS3 se démerde beaucoup mieux quand je vois ce qu’il y a dedans.

Oui, j’ai pas foutu le prix d’une console dans ma CG (juste 120 €).







Mais carrément, tout est dit !



Ma PS3 me permet de jouer à Assasin’s Creed 3 et je le trouve beau sur un écran de 3m de diagonale (j’ai un projo).



Mon dernier upgrade pc CM+I3+CG+8go de ram m’a coûté dans les 300€ (le prix d’une PS3) et je peux me gratter pour “éclater les consoles dépassée depuis leur sortie qu’elle sont nulles j’ai la plus grosse toussa”…



votre avatar







KiaN a écrit :



C’est quoi ta CG <img data-src=" />

Avec mon C2Q overclocké à 3GHz et ma pas plus jeune (je crois) GTX260 je joue à tous les jeux en 1920*1080 avec détails en ultra, sauf Battlefield 3, certes.







Le prix de ta config à la date d’achat s’il te plait ?


votre avatar







labenouille a écrit :



Mais carrément, tout est dit !



Ma PS3 me permet de jouer à Assasin’s Creed 3 et je le trouve beau sur un écran de 3m de diagonale (j’ai un projo).



Mon dernier upgrade pc CM+I3+CG+8go de ram m’a coûté dans les 300€ (le prix d’une PS3) et je peux me gratter pour “éclater les consoles dépassée depuis leur sortie qu’elle sont nulles j’ai la plus grosse toussa”…





C’est pas beau de mentir…

Je fais tout tourner à fond en 1080p avec une CG qui date de 2 ans, alors à 120 euros. Alors une CG actuelle au même prix…


votre avatar

Oui je mens, je suis tellement un troll pro console que je mens. Défini “tout” et “à fond” s’il te plait… et le reste de ta config.



Moi aussi je fais tourner des jeux à fond, Diablo 3, Guild Wars 2 ce genre de chose. Mais avec un I3 2500 et une HD 7770, les derniers jeux AAA sont loin de tourner à fond.


votre avatar







labenouille a écrit :



Oui je mens, je suis tellement un troll pro console que je mens. Défini “tout” et “à fond” s’il te plait… et le reste de ta config.



Moi aussi je fais tourner des jeux à fond, Diablo 3, Guild Wars 2 ce genre de chose. Mais avec un I3 2500 et une HD 7770, les derniers jeux AAA sont loin de tourner à fond.







Diablo III j’ai commencé en 1920×1200 tout à fond… mais c’était insupportable à jouer, j’ai fini par réduire la résolution et certains effets. Pour Path of Exile, je suis descendu en 1280x900 pour que ça soit fluide sans perdre aucuns effets… J’ai pas une tonne de jeux sur PC, je fais que constater. Il n’y a que des jeux qui sont 4-5 ans ou des petits jeux indés qui demandent peu de ressources qui tournent sans problème…


votre avatar







zefling a écrit :



Diablo III j’ai commencé en 1920×1200 tout à fond… mais c’était insupportable à jouer, j’ai fini par réduire la résolution et certains effets. Pour Path of Exile, je suis descendu en 1280x900 pour que ça soit fluide sans perdre aucuns effets… J’ai pas une tonne de jeux sur PC, je fais que constater. Il n’y a que des jeux qui sont 4-5 ans ou des petits jeux indés qui demandent peu de ressources qui tournent sans problème…





<img data-src=" />


votre avatar







Holly Brius a écrit :



Alors oui, le point fort de la PS4 c’est la mémoire très rapide.







La partie GPU serait de source officiel (Mark Cerny ) customisé, voir fortement customisé, Sony ne souhaite pas en parler pour le moment, John Carmack parle de chose qu’il ne peut pas encore dévoiler sur la machine, faudra attendre d’autres évènements, mais clairement tout n’a pas été dit sur le potentiel de la PS4.


votre avatar







labenouille a écrit :



Le prix de ta config à la date d’achat s’il te plait ?







J’ai acheté une X360 à la sortie, avec environ 130 jeux dessus jusqu’à mi-2010 (date d’achat de mon PC). Entre temps, j’ai acheté une PS3 lors de la première baisse de prix (400euros) pareil, jusqu’à 2010 avec une douzaine de jeux dessus.



Mon PC de mi-2010 fait pour le jeu a couté très cher. Je dois avoir 200 jeux dessus seulement sur steam.



J’ai moins dépensé au total sur mon PC (en comptant les accessoires comme un casque 7.1 un vrai clavier une vraie souris etc.) que sur mes consoles. Largement.



L’investissement initial est plus dur à encaisser, mais Seigneur ce que ça a valu la peine. Mon meilleur investissement de gamer.


votre avatar







labenouille a écrit :



Oui je mens, je suis tellement un troll pro console que je mens. Défini “tout” et “à fond” s’il te plait… et le reste de ta config.



Moi aussi je fais tourner des jeux à fond, Diablo 3, Guild Wars 2 ce genre de chose. Mais avec un I3 2500 et une HD 7770, les derniers jeux AAA sont loin de tourner à fond.





Tout à fond, c’est simplement toutes les options graphiques au maximum, le tout avec une GTX 460 manuellement OC et un tout petit phenom II x2 550 non oc


votre avatar







labenouille a écrit :



Le prix de ta config à la date d’achat s’il te plait ?







Impossible à dire, j’achète morceau par morceau.

Par exemple, ma GTX 260 m’a couté 70€ d’occasion l’été dernier.



Les HDD sont vieux, 3 ou 4 ans.

Le CPU, 90€ ya 1 an et demi je crois.

La RAM je sais pu.



Pas de somme folle en tous cas.


votre avatar







Alucard63 a écrit :



MS parlait de faire un accessoire séparé pour le HD DVD, je sais même pas si il a vu le jour.<img data-src=" />







Le lecteur est bien sorti

mais a du être arrêté après la victoire du bluRay



amazon.fr Amazon


votre avatar







pti_pingu a écrit :



Pour le P350 tu en avais en MMX et qui pouvait supporter de la RAM 256 Mo (une petite recherche google permet de le voir).



Par contre, c’est vrai que pour l’ISA je ne suis plus sur, mais je sais que j’avais unn P350 avec les slots ISA, PCI et AGP. A voir si on pouvait utiliser encore une CG ISA (en tout cas sur mon P75, oui <img data-src=" />)







A cette époque je jouais à Road Fighter, Time Pilot et Super Cobra sur mon Phillips MSX

Si tu ne comprends pas, c’est que tu as moins de 30ans <img data-src=" />


votre avatar







the_Grim_Reaper a écrit :



La RAM et le CPU t’as bien gonflé quand même.

avec l’EDO t’avais plus souvent 216 ou 48 <img data-src=" />



heu, je suis pas certains qu’il ai pu tenir le boot à cette fréquence le mmx.







Rahhhh mais j’ai le droit de mélanger mon P75 et mon P350 si je veux <img data-src=" />


votre avatar







pti_pingu a écrit :



Rahhhh mais j’ai le droit de mélanger mon P75 et mon P350 si je veux <img data-src=" />





Nan <img data-src=" />



<img data-src=" />


votre avatar







the_Grim_Reaper a écrit :



Nan <img data-src=" />



<img data-src=" />







Vu les bêtes à l’époque, je peux te les balancer dans la poire et m’en servir derrière encore pour jouer à King Quest (pas comme la camelote Japonaise actuelle) <img data-src=" />





Note: Olivetti était un peu le Lada des ordinateurs vers la mi-90 <img data-src=" />


votre avatar







pti_pingu a écrit :



Vu les bêtes à l’époque, je peux te les balancer dans la poire et m’en servir derrière encore pour jouer à King Quest (pas comme la camelote Japonaise actuelle) <img data-src=" />





Note: Olivetti était un peu le Lada des ordinateurs vers la mi-90 <img data-src=" />





avec un DD de 286SX tu va le sentir passer aussi au retour <img data-src=" />


votre avatar







pti_pingu a écrit :



M’enfin, j’ai dû me sacrifier pour aussi <img data-src=" />





<img data-src=" />


votre avatar







John Shaft a écrit :



Unifiées entre CPU et GPU, ça va être sport <img data-src=" />



(ie : on va entendre les dévs dire que <img data-src=" /> c’est trop dur <img data-src=" /> )







C’est déjà le cas avec la Xbox 360 :) et ça ne pose pas de problèmes particuliers


votre avatar







John Shaft a écrit :



Unifiées entre CPU et GPU, ça va être sport <img data-src=" />



(ie : on va entendre les dévs dire que <img data-src=" /> c’est trop dur <img data-src=" /> )





La Xbox 360 le fait déjà et les devs en sont très content car ça leur apporte une grande flexibilité.



C’est un des points faibles de la PS3 justement.<img data-src=" />



Edit: Grillé…<img data-src=" />


votre avatar







misterB a écrit :



la Xboite 360 c’est du PPC comme la wii et un peu la PS3<img data-src=" />









Alucard63 a écrit :



Hum a 360 c’est pas du X86 c’est du PPC.<img data-src=" />





Ouuhhh, toutafé.



<img data-src=" /> à moi-même.


votre avatar







Alucard63 a écrit :



La Xbox 360 le fait déjà et les devs en sont très content car ça leur apporte une grande flexibilité.







Certes, mais ça tue mon <img data-src=" /> donc on va faire comme si c’était différent <img data-src=" />



(et puis voilà, là c’est une archi x86, y connaissent plus ça les dévs <img data-src=" /> )


votre avatar







Alucard63 a écrit :



L’architecture de la PS4 c’est pas compliqué c’est la même que la Xbox 360 avec un CPU X86 et mise à jour avec des composant de 2012.<img data-src=" />







J’avais jamais vu ça comme ça, mais maintenant que tu me le fais remarquer… :)


votre avatar







John Shaft a écrit :



Certes, mais ça tue mon <img data-src=" /> donc on va faire comme si c’était différent <img data-src=" />



(et puis voilà, là c’est une archi x86, y connaissent plus ça les dévs <img data-src=" /> )





<img data-src=" /><img data-src=" /><img data-src=" />


votre avatar







Tourner.lapache a écrit :







Bref on passe quand même de 256 x 2 pour la PS3 à 8 Go x 1 pour la PS4, 16 fois plus. Ca évolue plus vite que du “Moore”. D’ailleurs 256 MB + 256 MB c’était faiblard en 2007, la xbox qui avait un an de plus avait 512 MB + 512 MB.











La Xbox 360 c’est 512Mo partagé ;)


votre avatar







myxomatosis a écrit :



Avec un peu de chance, ça fera en sorte que l’on aura des portages sur PC moins foireux, puisque PC, PS4 et XBOX Next tourneront sur du x86 (et DirectX?!) ?!







j’ose espérer qu’on verra plutôt des jeux développés sur PC et ensuite portés sur PS et XBoite <img data-src=" />


votre avatar







SrBelial a écrit :



j’ose espérer qu’on verra plutôt des jeux développés sur PC et ensuite portés sur PS et XBoite <img data-src=" />





Et puis quoi encore?<img data-src=" />


votre avatar







after_burner a écrit :



Moi j’ose espérer que l’on verra des jeux développés sur consoles restant sur consoles et des jeux PC pour PC.



Chacun chez soi, tout le monde est content.







j’aimerai bien aussi, mais c’est économiquement irréaliste <img data-src=" />

un editeur qui peut se le permettre ne s’interdira jamais de cibler plusieurs plateformes, et sur des plateformes à priori de plus en plus proches il serait dispendieux de développer plusieurs fois la même chose.


votre avatar







azedrummer a écrit :



Ca ne montera pas les FPS par 10, mais cela permettra d’avoir des textures de plus hautes définitions, des modèles 3D plus détaillés, plus de modèles en mémoire pour des univers plus riches, de pouvoir passer à de la Full HD sans problèmes, utiliser l’AntiAliasing, et de faire tout ce qui nécessite de la mémoire et de la bande passante :)







Uniquement à hauteur du gain réel en performance que permet la DDR5 par rapport à de la DDR3. D’ailleurs, dans ton discours, y a beaucoup de choses qui me semblent plus relever de la quantité de mémoire dispo plus que de la vitesse de trasnfert (après je suis pas expert ès textures).


votre avatar







azedrummer a écrit :



Ca ne montera pas les FPS par 10, mais cela permettra d’avoir des textures de plus hautes définitions, des modèles 3D plus détaillés, plus de modèles en mémoire pour des univers plus riches, de pouvoir passer à de la Full HD sans problèmes, utiliser l’AntiAliasing, et de faire tout ce qui nécessite de la mémoire et de la bande passante :)





Pour l’antialiasing moi je parie plutôt sur la même chose que la xboite 360: de l’EDRAM encore plus rapide intégrée au GPU. Sachant que le nombre de résolutions à traiter est connu il est assez simple dimensionner une EDRAM spécifiquement pour l’antialiasing à ces résolutions.



Ca a très bien marché avec la génération précédente et ça simplifie la prise de tête sur les questions d’antialiasing( encore un avantage de la xbox par rapport à la PS3 pour les devs ), il y a pas de raison de changer AMHA.<img data-src=" />


votre avatar







Jadedotcom a écrit :



Quelqu’un peut m’expliquer pourquoi Sony s’est fait chier avec le CELL, cher et compliqué au lieu de faire un truc simple comme la PS4 xbox 360?









<img data-src=" />



Déjà patiente avant de parler ouvertement de la PS4 exactement avec les mêmes termes que le services marketing de sony emploie sinon tu vas te retrouver avec des abérrations entre les annonces prometteuses de sony et la vérité des faits 2-3 ans après la sortie de leur console … rapelles toi la ps3 soit disant 2 fosi plus puissante qu’une 360 ou les promesses au sujet de l’utilisation d’une psp1 comme rétroviseur dans GT5 pendant que tu joues a ta ps3 et ceci en 2008 :) au final les gens joueront à une démo payante (40 euros ) de GT5 surnommé GT5 prologue et pas de retroviseur ( je veux bien voir une video de ça mais bon :) )



Sinon pour répondre à ta question bah sony n’a pas cru que microsoft pourrait leur mettre à l’envers et sony a cru que le public les suivraient malgré tout comme des gentils moutons mais bon la population mondiale n’est pas encore totalement japonaise hein <img data-src=" /><img data-src=" /> et ne le sera jamais :) ( bien que la moitié du marché les ait suivi les yeux fermés malgré tout )



Et pour finir le CELL s’était un peu comme le bluray useless dans une console de 2006 mais la console était parfaite pour imposer, répander et rentabiliser ses deux technologies très couteuses mais lucratives…

D’ailleurs le CELL devait aussi à la base équiper des voitures, frigos ou télés BRAVIA du futur dit(es) “intelligent(e)s” donc c’est une technologie mise au placard mais uniquement au placard pour l’univers console ….


votre avatar

Comme d’hab du grand n’importe quoi dans les commentaires…



Alors oui, le point fort de la PS4 c’est la mémoire très rapide.

Et non, que ce soit du x86 ne change absolument rien rien sur la facilité de portage…

A titre d’exemple, il est bien plus facile de faire un soft qui tourne sur iOS et mac (donc CPU différent ARM et x86) que de faire un portage de ce soft sur un PC windows (même si c’est du x86 comme le mac).

Et cette fois ci, ce sont les portages sur PC qui seront plus moche car la RAM est bien plus lente et les GPU n’ont pas accès à autant de RAM (à moins de payer avec un rein)…

votre avatar







mr-fox a écrit :



En juin 1998, je m’achetais mon premier PC avec des caractéristiques haut de gamme pour l’époque :




  • Pentium II 300 MHz (il existait jusqu’à 400MHz mais encore plus cher)

  • 64 Mo de SD-RAM

  • 6.4Go de disque dur

  • Carte graphique AGP ATI Expert Play avec 8 Mo de mémoire

  • Carte 3D 3dfx Voodoo II PCI avec 12 Mo de mémoire (les 3dfx à l’époque ne savaient gérer que l’affichage 3D, pas la 2D, elles venaient donc en complément d’une carte video)

    Le tout pour la modique somme de quasiment 2500€ !! (c’était des francs à l’époque…) et encore, si on adaptait la somme à l’euro actuel, ce serait plus cher encore…



    15 ans plus tard, le plus basique des smartphones est largement plus puissant pour 10-15% de ce prix… (et je ne parle pas des smartphones haut de gamme !!)





    Mouarf, ces jeunes <img data-src=" />



    Mon premier PC était un Commodore PC, 286 12Mhz, 20 mo de disque dur(oui oui Mo)

    C’est le seul pc “de constructeur” que j’ai eu…

    Et avant j’avais accès à un PC1512 Amstrad(8086) avec ses bonnes vieilles disquettes 5 14.



    Merde, je suis vieux <img data-src=" />


votre avatar







Holly Brius a écrit :



Et cette fois ci, ce sont les portages sur PC qui seront plus moche car la RAM est bien plus lente et les GPU n’ont pas accès à autant de RAM (à moins de payer avec un rein)…





Ca ce sera les deux premières années comme à chaque génération de consoles.<img data-src=" />


votre avatar







raoudoudou a écrit :



IBM Deskstar? <img data-src=" /> ou Quantum?







DEATHstar (88% de taux de panne, merci IBM)



ps : un peu comme les produits IBM quoi


votre avatar







Ideal a écrit :



<img data-src=" />







Je sais pas si je dis une connerie, mais il semble que le 360 n’était pas simple à côté non plus, beaucoup moins que la PS3, mais pas simple pour autant. Pour le deux consoles, c’est les améliorations des SDK qui leur ont facilité les choses. Bref, prendre la génération actuelle en exemple n’est pas une bonne idée.


votre avatar







Alucard63 a écrit :



Ca ce sera les deux premières années comme à chaque génération de consoles.<img data-src=" />





Un peu plus…

Certe y auras des GPU avec 4go de VRAM mais tant que la RAM du PC sera de la DDR3, certaines choses ne seront pas faisable sur PC. La différence de vitesse entre DDR3 et DDR5 change tout.


votre avatar







Holly Brius a écrit :



Comme d’hab du grand n’importe quoi dans les commentaires…



Alors oui, le point fort de la PS4 c’est la mémoire très rapide.

Et non, que ce soit du x86 ne change absolument rien rien sur la facilité de portage…

A titre d’exemple, il est bien plus facile de faire un soft qui tourne sur iOS et mac (donc CPU différent ARM et x86) que de faire un portage de ce soft sur un PC windows (même si c’est du x86 comme le mac).

Et cette fois ci, ce sont les portages sur PC qui seront plus moche car la RAM est bien plus lente et les GPU n’ont pas accès à autant de RAM (à moins de payer avec un rein)…







HEIN ???



Tu nous parle de langage de haut vol comme l’objective-c (Apple) et le C# (Microsoft) qui sont spécialement pré-compilés pour l’OS sur lequel ils tournent alors que là on parle de jeux, qui pour la plupart sont développés avec des langages de bas niveau… Rien à voir.


votre avatar







zzzZZZzzz a écrit :



Mouarf, ces jeunes <img data-src=" />



Mon premier PC était un Commodore PC, 286 12Mhz, 20 mo de disque dur(oui oui Mo)

C’est le seul pc “de constructeur” que j’ai eu…

Et avant j’avais accès à un PC1512 Amstrad(8086) avec ses bonnes vieilles disquettes 5 14.



Merde, je suis vieux <img data-src=" />







Ah ces jeunes <img data-src=" />

Moi c’était un IBM 8088, 4Mhz et 64k de mémoire si je me souviens bien, sous CP/M :)

Et les 5 pouces 14 c’était le bien, avec la ptite pochette en papier, tellement plus rapide que les cassettes… (j’en ai soupé de la cassette avec le C64… puuu ). 1 pour CP/M, 1 pour les données… haaaa soupir*



en fait… c’était pas mieux avant xD

Je l’aime mon core i7…


votre avatar







SrBelial a écrit :



j’aimerai bien aussi, mais c’est économiquement irréaliste <img data-src=" />

un editeur qui peut se le permettre ne s’interdira jamais de cibler plusieurs plateformes, et sur des plateformes à priori de plus en plus proches il serait dispendieux de développer plusieurs fois la même chose.







Je sais c’est pas réaliste, en plus mon commentaire avait pour but de prolonger la guerre console/PC ici. <img data-src=" />





Concrètement certains titres gagneraient a être disponible pour le +de monde, du moment qu’on puisse choisir les accessoires pour jouer.



Faut pas s’attendre non plus à voir sony faire des portage PC des ses licences, une console n’est pas un PC de toutes façon, la communication autour de la PS4 la rapprochais d’un PC mais faut garder à l’esprit que se sera un environnement moins ouvert c’est évident, le type de la news l’a enfin dit.


votre avatar







Holly Brius a écrit :



Un peu plus…

Certe y auras des GPU avec 4go de VRAM mais tant que la RAM du PC sera de la DDR3, certaines choses ne seront pas faisable sur PC. La différence de vitesse entre DDR3 et DDR5 change tout.





Oui le PC aura de l’avance sur le calcul CPU pur et rapidement sur la partie GPU.



La BP de la ram sera par contre son goulot d’étranglement, en effet.<img data-src=" />



Après c’est compliqué de comparer des configurations relativement différentes. Je pense que ce fut la plus grosse erreur des commentateurs lors de la présentation de la PS4. Ils ont vraiment pensé que leur PC actuel était au même niveau.



Si le CPU n’est pas une foudre de guerre et le GPU pas forcément incroyable non plus la configuration de la PS4 a une homogénéité qui lui donnera un bel avantage( en plus d’une optimisation plus poussée du code ) sur n’importe quel PC actuel.<img data-src=" />


votre avatar







after_burner a écrit :



Je sais c’est pas réaliste, en plus mon commentaire avait pour but de prolonger la guerre console/PC ici. <img data-src=" />





Concrètement certains titres gagneraient a être disponible pour le +de monde, du moment qu’on puisse choisir les accessoires pour jouer.



Faut pas s’attendre non plus à voir sony faire des portage PC des ses licences, une console n’est pas un PC de toutes façon, la communication autour de la PS4 la rapprochais d’un PC mais faut garder à l’esprit que se sera un environnement moins ouvert c’est évident, le type de la news l’a enfin dit.









j’acquiesce ^___^

et puis mer*e quoi, PC 4 EVER et puis c’est tout !!! + les final fantasy parce que quand même bon ….. <img data-src=" />


votre avatar







zzzZZZzzz a écrit :



Mouarf, ces jeunes <img data-src=" />



Mon premier PC était un Commodore PC, 286 12Mhz, 20 mo de disque dur(oui oui Mo)

C’est le seul pc “de constructeur” que j’ai eu…

Et avant j’avais accès à un PC1512 Amstrad(8086) avec ses bonnes vieilles disquettes 5 14.



Merde, je suis vieux <img data-src=" />







Apple II c par ici… <img data-src=" />


votre avatar







Superambre a écrit :



DEATHstar (88% de taux de panne, merci IBM)



ps : un peu comme les produits IBM quoi







Pas les 6.4Go <img data-src=" />



Pour mes 40 et 60Go, j’avais switché sur du Maxtor <img data-src=" />


votre avatar







Pochi a écrit :



Uniquement à hauteur du gain réel en performance que permet la DDR5 par rapport à de la DDR3. D’ailleurs, dans ton discours, y a beaucoup de choses qui me semblent plus relever de la quantité de mémoire dispo plus que de la vitesse de trasnfert (après je suis pas expert ès textures).







Disons que les deux vont ensemble… Si t’as 500Mo de textures en VRAM, il faut aussi le débit pour que le GPU y accède rapidement. C’est pour ça que des cartes graphiques type GT640 avec 2Go de vram sont inutiles, la bande passante est ridicule vis à vis de la quantité. Même sur une radeon hd 7850 1Go suffise largement et est sous exploité par le GPU… Mais 8Go accessible à plus de 150Go/s par le CPU et le GPU, c’est du jamais vu même sur pc ( hors carte graphique profesionnelle), on peut raisonnablement penser que les dev pourront en faire bon usage :)







Alucard63 a écrit :



Pour l’antialiasing moi je parie plutôt sur la même chose que la xboite 360: de l’EDRAM encore plus rapide intégrée au GPU. Sachant que le nombre de résolutions à traiter est connu il est assez simple dimensionner une EDRAM spécifiquement pour l’antialiasing à ces résolutions.



Ca a très bien marché avec la génération précédente et ça simplifie la prise de tête sur les questions d’antialiasing( encore un avantage de la xbox par rapport à la PS3 pour les devs ), il y a pas de raison de changer AMHA.<img data-src=" />







Je ne connais pas les détails de l’architecture GPU de la PS4, mais déjà 8Go de GDDR5 permettent d’activer l’antialiasing, mais s’ils ont mis en place l’équivalent de l’EDRAM de la xbox 360, ce serait encore mieux !! Après, l’écart de performance sera plus réduit et l’utilité moindre, à l’époque, 10Mo d’EDRAM à 256Go/s, c’était incroyable comparé au 22Go/s de la ram unifiée, mais aujourd’hui…


votre avatar







MikeNeko a écrit :



Ah ces jeunes <img data-src=" />

Moi c’était un IBM 8088, 4Mhz et 64k de mémoire si je me souviens bien, sous CP/M :)

Et les 5 pouces 14 c’était le bien, avec la ptite pochette en papier, tellement plus rapide que les cassettes… (j’en ai soupé de la cassette avec le C64… puuu ). 1 pour CP/M, 1 pour les données… haaaa soupir*



en fait… c’était pas mieux avant xD

Je l’aime mon core i7…





Tu fais tourner Crysis tranquille avec cette config non ? <img data-src=" />


votre avatar







RaYz a écrit :



Tu fais tourner Crysis tranquille avec cette config non ? <img data-src=" />





Avec une 1 FPS (frame par semaine) <img data-src=" />


votre avatar







zefling a écrit :



Avec une 1 FPS (frame par semaine) <img data-src=" />





Je tablerais plutôt sur une année <img data-src=" /> et encore si le PC explose pas avant.


votre avatar







RaYz a écrit :



Je tablerais plutôt sur une année <img data-src=" /> et encore si le PC explose pas avant.





Bon alors une 1 FPS (frame par semestre) <img data-src=" />


votre avatar

[quote:4495313:Ideal]





<img data-src=" />



quote]



<img data-src=" /> C’est ce que j’allais répondre aux autres. J’ai dis la PS4 mais j’aurais du dire la xbox 360. Les performances était similaires et les devs développaient prioritairement sur la 360 (les version présentées des jeux multi était tournaient sur Xbox.



Donc Sony s’est bien fait chier à développer une puce un peu useless. Je sais plus combien ils ont dépensés pour l’avoir mais c’était un truc du genre 600M€.






votre avatar

double post

votre avatar







zzzZZZzzz a écrit :



Mouarf, ces jeunes <img data-src=" />



Mon premier PC était un Commodore PC, 286 12Mhz, 20 mo de disque dur(oui oui Mo)

C’est le seul pc “de constructeur” que j’ai eu…

Et avant j’avais accès à un PC1512 Amstrad(8086) avec ses bonnes vieilles disquettes 5 14.



Merde, je suis vieux <img data-src=" />







Mon PC actuel (qui n’a d’actuel que le fait que je m’en sers, parce que les specs ne sont plus très actuelles !) est un Athlon 64 3200+ avec 2Go de DDR et une 6600GT fanless… Comme je ne joue plus depuis un bon moment (devenir papa ça a limité le temps à consacrer au jeu !), la config me sufit, d’autant que je l’ai boostée un peu en installant un disque SSD qui me permet de conserver un confort d’utilisation très décent… Je précise que je suis resté sur Windows XP car avec 7, le système utilise trop de ressources pour me permettre de lire des videos en 720p (pour les épisodes de séries)

Mais bon, j’aimerais bien changer ma config’ à l’occasion, même si c’est juste histoire d’avoir un nouveau PC…


votre avatar







Ellierys a écrit :



J’ai pas encore mes 25 ans et j’ai tout compris <img data-src=" />



Gros overclock pour ton Pentium MMX <img data-src=" />









Ellierys a écrit :



J’ai pas encore mes 25 ans et j’ai tout compris <img data-src=" />



Gros overclock pour ton Pentium MMX <img data-src=" />









Et 256 MO de ram edo, tu vendais un rein à l’époque, de plus, les carte mères avait généralement 4 slots et la taille maxi d’une barrette etait de 32 mo (de mémoire <img data-src=" />)


votre avatar







Drepanocytose a écrit :



En quoi c’est une victoire, et en quoi c’est mieux ? (vraie question, si un dev passe par là)





Moins de fuite mémoire à corriger, ou plutôt, elles seront moins fatales car plus de place :P

Et sinon, moins de chargement de données depuis le BR ou le DD.


votre avatar







pti_pingu a écrit :



Ouaip, faudrait leur filer un P350 MMX accompagné de 256 de EDO/SDRAM et d’une carte vidéo (et non graphique) ISA tiens <img data-src=" />





Note: pour ceux qui ne comprendraient pas certains sigle, c’est normal, vous avez moins de 25 ans, n00bs <img data-src=" />







P350… non désolé le pentium MMX c’est 300 MHz maxi <img data-src=" /><img data-src=" /><img data-src=" />


votre avatar

J’ai jamais réussi à trouver une réponse même en cherchant sur google



Si la Gddr5 est si + formidable que la ddr3



Pourquoi on ne l’utilise pas partout ?



Quelqu’un peut me vulgariser la réponse.

votre avatar







mr-fox a écrit :



En juin 1998, je m’achetais mon premier PC avec des caractéristiques haut de gamme pour l’époque :




  • Pentium II 300 MHz (il existait jusqu’à 400MHz mais encore plus cher)

  • 64 Mo de SD-RAM

  • 6.4Go de disque dur

  • Carte graphique AGP ATI Expert Play avec 8 Mo de mémoire

  • Carte 3D 3dfx Voodoo II PCI avec 12 Mo de mémoire (les 3dfx à l’époque ne savaient gérer que l’affichage 3D, pas la 2D, elles venaient donc en complément d’une carte video)

    Le tout pour la modique somme de quasiment 2500€ !! (c’était des francs à l’époque…) et encore, si on adaptait la somme à l’euro actuel, ce serait plus cher encore…



    15 ans plus tard, le plus basique des smartphones est largement plus puissant pour 10-15% de ce prix… (et je ne parle pas des smartphones haut de gamme !!)





    C’est cool, et alors ? <img data-src=" />


votre avatar







-DTL- a écrit :



P350… non désolé le pentium MMX c’est 300 MHz maxi <img data-src=" /><img data-src=" /><img data-src=" />







<img data-src=" /> Raaaah mais non, zut: source





Le Pentium II est un microprocesseur de la famille x86 produit par Intel. Sorti en mai 1997, il est de la sixième génération (architecture P6), comme le Pentium Pro. Il adopte les instructions vectorielles MMX







Deschutes, 250 nm, 100 MHz FSB, 512 ko cache L2

350, 400, 450 MHz







…. oui, z’avez bien lu, on parle de finesse à 250 nm <img data-src=" />


votre avatar







after_burner a écrit :



Moi j’ose espérer que l’on verra des jeux développés sur consoles restant sur consoles et des jeux PC pour PC.



Chacun chez soi, tout le monde est content.







Je connais la même avec un arabe <img data-src=" />


L’architecture de la PS4 répond à une demande des développeurs

Fermer