Connexion
Abonnez-vous

Développer sur la PS4 serait une promenade de santé pour Ubisoft

Plus besoin d'apprendre le japonais pour coder

Développer sur la PS4 serait une promenade de santé pour Ubisoft

Le 08 avril 2013 à 14h25

Yannis Mallat le PDG du studio Ubisoft Montreal, à qui l'on doit par exemple Assassin's Creed et Far Cry 3, a confié à nos confrères de CVG que l'architecture de la PlayStation 4 était à ses yeux une « très agréable surprise », tant elle serait « moins complexe » à maîtriser.

Assassin's Creed IV

 

« Ce que je peux dire, c'est que la PlayStation 4 est un changement radical par rapport à ce que l'on a connu venant de Sony », assure Yannis Mallat, le PDG d'Ubisoft Montreal. Depuis son annonce, la console nipponne semble s'attirer les compliments de nombreux éditeurs, qui mettent tous en avant son architecture plus facile à maîtriser que celles des PlayStation 2 et 3.

 

Pour illustrer cela, le responsable du studio s'est fendu d'une anecdote au sujet des consoles de Sony. « Quand j'étais producteur sur Prince of Persia, nous avions réussi à mettre la main sur un très bon programmeur, qui travaille toujours pour nous, dans le noyau de l'équipe d'Assassins Creed. Un jour sur son bureau je remarque un livre noir entièrement écrit en japonais. Je lui demande alors " mais qu'est ce que c'est ?" Il m'a répondu "C'est la documentation pour coder sur la PlayStation 2, c'est pour ça que je veux prendre des leçons de japonais, pour comprendre comment tirer parti de la machine" », s'amuse-t-il.  « Ce jour-là, j'ai compris à quel point il était complexe de programmer sur la PlayStation 2. Nous étions impatients de savoir ce que la PlayStation 3  proposerait  côté architecture, et c'était plus ou moins la même... en plus complexe », ajoute le responsable.

 

Aux yeux du studio, la PlayStation 4 pourrait signer la fin d'une dizaine d'années difficiles, ou les consoles ne faisaient que se complexifier, ce qui réclamait d'importants efforts aux programmeurs pour en tirer pleinement parti. « La PlayStation 4 est vraiment une bonne surprise, parce qu'elle propose une architecture qui nous est familière. Je pense que notre récente décision de développer des jeux pour les PC haut de gamme va payer. Cela facilitera notre transition », assure Mallat. Les joueurs sur PC auront peut-être aussi de quoi se réjouir pendant les prochaines années si  les portages des titres sur consoles deviennent moins laborieux.

Commentaires (133)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Et quand on pense que c’est qu’un simple PC, comme quoi certains avaient vraiment tort sur notre architecture “obsolète”…


votre avatar







Industriality a écrit :



Et quand on pense que c’est qu’un simple PC, comme quoi certains avaient vraiment tort sur notre architecture “obsolète”…





Pourquoi “notre” ?



Par opposition à celle de qui ? <img data-src=" />


votre avatar

C’est quand même bizarre de proposer de la doc en Japonais pour une console qui se vend à 70% aux USA et en Europe…

votre avatar

Obsolète ? Vraiment … C’est standardisé au moins <img data-src=" />

votre avatar

Je pense que Sony s’est vraiment sauvé les fesses pour le coup <img data-src=" />

votre avatar







Nathan1138 a écrit :



Pourquoi “notre” ?



Par opposition à celle de qui ? <img data-src=" />







Ben les autres quoi, pas les x86 <img data-src=" />



Je sais que tu m’as compris <img data-src=" />


votre avatar

Disons le fait que ça soit standardisé et que tout le monde bosse dessus fait que ça avance bien plus vite en terme de techno que des “archi” plus jolis sur le papier mais ou seulement quelque entreprise bossent dessus



on l’a vu avec les console précedente déjà

AMD et NVIDIA dedans y a pas de secret ces boites sont au také depuis des année pas la peine de réinventer la roue



même intel a abandonné ces archis exotiques



d’ailleurs pareil sur les CG

intel a tenté de mettre du x86 qui est exotique pour le coups pour un GPU et ont abandonnés

votre avatar

Là ou ça va piquer pour les PC c’est quand les développeurs vont s’amuser à se servir des 8gb de GDDR5 de la PS4… Sur PC avec nos 2gb max ca va faire tout drôle…



Mais bon je me fais quand même pas trop de soucis, y’aura surement une autre façon de faire. Pas de raison qu’une GTX680 soit à la rue juste à cause de ça.

votre avatar







Kokusho a écrit :



Là ou ça va piquer pour les PC c’est quand les développeurs vont s’amuser à se servir des 8gb de GDDR5 de la PS4… Sur PC avec nos 2gb max ca va faire tout drôle…



Mais bon je me fais quand même pas trop de soucis, y’aura surement une autre façon de faire. Pas de raison qu’une GTX680 soit à la rue juste à cause de ça.





Oui puis dans deux ans on aura tous mieux ^^


votre avatar

8 giga à partager avec le pross



sur un PC c’est 8 + 2 donc 10 giga



après le plus simple et d’attendre les prochaine CG et de s’en prendre une avec 4giga tu sera trankil

votre avatar

Les petits joueurs de développeurs, au pire ils n’ont qu’a faire comme à l’époque de la NES.

Ils prennent des jeux fait par SONY, regardent comment ils ont programmé la chose et tentent de développer à partir de ce qu’ils en ont déduits.

AUjourd’hui il n’y a plus de défis <img data-src=" />

votre avatar

les pc n’ont rien a craindre des 8gb <img data-src=" />

votre avatar

Et Sony (ré)inventa le PC <img data-src=" />

votre avatar







spamator a écrit :



Les petits joueurs de développeurs, au pire ils n’ont qu’a faire comme à l’époque de la NES.

Ils prennent des jeux fait par SONY, regardent comment ils ont programmé la chose et tentent de développer à partir de ce qu’ils en ont déduits.

AUjourd’hui il n’y a plus de défis <img data-src=" />







heu le code source est dispo?



de toute façon c’est sur le défi c’est pas le but

le but c’est de faire de bon jeux



et ça sony semble l’avoir compris cette fois

le but n’est pas de casser les couille au dev mais de leur déballer le tapis rouge


votre avatar







Angelus69 a écrit :



les pc n’ont rien a craindre des 8gb <img data-src=" />







mais tu joueras pas à Gran Turismo 6 dessus :p


votre avatar

J’en ai rêvé Sony l’a fait <img data-src=" /><img data-src=" />

votre avatar

[Troll ON] Vous sentez ?? non ? le petit Duel FPS entre joueurs PC et joueurs console (a la manette ………..) . La révélation enfin <img data-src=" />

[Off]



Pas la peine de pousser je suis déjà très loin <img data-src=" />

votre avatar







Reparateur a écrit :



heu le code source est dispo?











non il etat pas dispo mais à l’epoque les dev c’etait des vrai <img data-src=" />

desassemblage en regle et retro engenering des soft <img data-src=" /> <img data-src=" />


votre avatar







Reparateur a écrit :



heu le code source est dispo?



de toute façon c’est sur le défi c’est pas le but

le but c’est de faire de bon jeux



et ça sony semble l’avoir compris cette fois

le but n’est pas de casser les couille au dev mais de leur déballer le tapis rouge





C’est pas parce que la bête sera plus rapidement maîtrisable par les développeurs que ça fera des bons jeux.



Jusqu’aux années 2000, programmer sur console c’était assimiler à fond l’architecture, optimiser au maximum le code pour tirer le max des possibilité de chaque puce (son, vidéo) propres à chaque console.

Pourtant, malgré ces difficultés, d’excellents jeux sont sortis dans les années 80-90.



Aujourd’hui faut une machine de guerre pour pouvoir jouer à des jeux mal optimisés, et ça ne change rien qu’on nous sert majoritairement de la mer*e au gameplay simplifié dans des niveaux aux action pré-mâchées…


votre avatar







chris_lo a écrit :



mais tu joueras pas à Gran Turismo 6 dessus :p





Bah si c’est une archi PC classique les jeux pourront peut être facilement être transposés sur PC <img data-src=" />


votre avatar







RaYz a écrit :



Bah si c’est une archi PC classique les jeux pourront peut être facilement être transposés sur PC <img data-src=" />







Reste le problème des exclusivités.


votre avatar



parce qu’elle propose une architecture qui nous est familière. Je pense que notre récente décision de développer des jeux pour les PC haut de gamme va payer



ubi qui dit ça les mecs connues pour faire des portages foireux de leurs jeux sur pc <img data-src=" />

votre avatar







Ellierys a écrit :



Reste le problème des exclusivités.





Non mais je parlais pas de la voie légale <img data-src=" />


votre avatar







Ellierys a écrit :



Reste le problème des exclusivités.





Facile, emmuler la PS4 sur un bon gros PC de compet <img data-src=" /><img data-src=" />


votre avatar







Ellierys a écrit :



Reste le problème des exclusivités.





Vu le coût de développement d’un jeu, il y en a de toute façon de moins en moins… Même si ça reste déterminant pour le choix de la console.



Perso, quand j’ai dû choisir entre 360 et PS3 début 2008, j’ai pris la 360 uniquement parce que Mass Effect (le 1er) était une exclu 360.


votre avatar







chris_lo a écrit :



mais tu joueras pas à Gran Turismo 6 dessus :p









Ils ont prévu prologue vers 2018 à 50€ puis vers 2020 la version définitive à 70€



(dates complètement au piff)


votre avatar







Ellierys a écrit :



Reste le problème des exclusivités.







C’est pas un problème, pas pour ceux qui décide de les faire. Surtout si les portages consoles seront bien plus facile à faire, il ne restera que les titres des constructeurs comme exclusivités.



Je pense que pour les autres, les exclusivités étaient plus dues aux différences avec l’architectures PC, qd on voit par exemple dark souls, ils auraient mieux fait de ne pas porter le titre sur une plate-forme qu’ils ne maîtrisent pas.


votre avatar

Quelle sont les chances de voir des jeux PS4 être dispo aussi sur PC ?



D’un point de vu illégal je parle ?



Ce serait difficile ?

votre avatar







von-block a écrit :



Quelle sont les chances de voir des jeux PS4 être dispo aussi sur PC ?



D’un point de vu illégal je parle ?



Ce serait difficile ?







Vu que seul l’OS différerait, ça serait aussi compliqué que de faire marcher des jeux Windows sous Linux.


votre avatar







misterB a écrit :



Facile, emmuler la PS4 sur un bon gros PC de compet <img data-src=" /><img data-src=" />





Peut être devrait-on plus parler de virtualisation que d’émulation pure et dure <img data-src=" />



Mais bon il va vraiment falloir une machine de compet pour ça :(


votre avatar







Ellierys a écrit :



Vu que seul l’OS différerait, ça serait aussi compliqué que de faire marcher des jeux Windows sous Linux.





Je ne sais pas trop comment ça fonctionne chez eux, mais j’ai du mal à croire qu’ils développent un OS complet à chaque console ? Du coup c’est peut être basé sur un Linux bien castré et bien modifié, mais un linux quand même, non ?

Quelqu’un a des infos sur le sujet ?


votre avatar

Ah c’est le piratage qui vous intéressent…<img data-src=" />



Vous feriez mieux de pas trop aller sur cette voie, sinon les protections à la noix vont fleurir pour ces consoles.

votre avatar







ErGo_404 a écrit :



Peut être devrait-on plus parler de virtualisation que d’émulation pure et dure <img data-src=" />



Mais bon il va vraiment falloir une machine de compet pour ça :(





Pour casser les clés alacon™ qu’ils ne manqueront pas de mettre un peu partout dans leur bidule ?


votre avatar







chris_lo a écrit :



mais tu joueras pas à Gran Turismo 6 dessus :p





J’ai lâcher gran turismo depuis longtemps <img data-src=" />


votre avatar

la première xbox était aussi un “PC-Like”, ça n’as pas révolutionné pour autant le passage du monde PC au monde Console.

D’ailleurs la première Xbox est toujours aussi difficile à émuler sur PC.

Ce n’est donc pas parce qu’on a un CPU de PC, un GPU de PC que c’est un PC.

votre avatar







Pop Pop a écrit :



la première xbox était aussi un “PC-Like”, ça n’as pas révolutionné pour autant le passage du monde PC au monde Console.

D’ailleurs la première Xbox est toujours aussi difficile à émuler sur PC.

Ce n’est donc pas parce qu’on a un CPU de PC, un GPU de PC que c’est un PC.





Oui et a contrario la PS2 s’émule très bien.


votre avatar







chris_lo a écrit :



mais tu joueras pas à Gran Turismo 6 dessus :p







GT6 qui n’existera pas, de toute façon. ce sera Driver Club.

<img data-src=" />


votre avatar







misterB a écrit :



Facile, emmuler la PS4 sur un bon gros PC de compet <img data-src=" /><img data-src=" />





T’émule aussi l’OS ? Parce que la PS4 tourne pas sous Win8.







RaYz a écrit :



Oui et a contrario la PS2 s’émule très bien.





Ceux qui font des émulateurs font en priorités les consoles qui ont des jeux intéressants. <img data-src=" />


votre avatar

Rappelez moi qui a dit que développer sur Wii U était génial toussa … pour au final repousser Rayman Legends de 6 mois …



Ubisoft, sans moi désormais !!

votre avatar







zefling a écrit :



T’émule aussi l’OS ? Parce que la PS4 tourne pas sous Win8.





NON, dis moi pas que c’est pas vrai <img data-src=" /><img data-src=" />


votre avatar

c’est quoi l’architecture de la vita ?

parce que le cross play risque de pas être super simple si c’est pas du tout le même code <img data-src=" />

votre avatar







ErGo_404 a écrit :



Je ne sais pas trop comment ça fonctionne chez eux, mais j’ai du mal à croire qu’ils développent un OS complet à chaque console ? Du coup c’est peut être basé sur un Linux bien castré et bien modifié, mais un linux quand même, non ?

Quelqu’un a des infos sur le sujet ?







Il y a eu des infos comme quoi “l’environnement de développement” de la PS4 serait basé sur un win7 pro 64b, si quelqu’un dans le domaine peut nous dire quelles sont les différences entre l’OS de la console et son environnement de développement? <img data-src=" />



Sinon les portages n’ont pas grand chose à voir avec l’émulation, ça n’aidera pas bcp je pense.


votre avatar







Reparateur a écrit :



8 giga à partager avec le pross



sur un PC c’est 8 + 2 donc 10 giga





Non, la bande passante entre RAM et CG est trop lente (500Mo par 1/60ème de seconde), tu dois avoir en VRAM tout ce qui est nécessaire au rendu d’une seule image. La RAM ne sert que pour les infos non-destinées à l’affichage et éventuellement pour stocker ce qui n’est pas encore visible. Or plusieurs jeux PS4 utiliseront vraisemblablement plus de 2Go de données par rendu.


votre avatar







RaYz a écrit :



Je pense que Sony s’est vraiment sauvé les fesses pour le coup <img data-src=" />







Attendons d’avoir le tarif de la machine.



Si c’est plus de 450€ ça sera pas si facile d’en vendre par conteneur <img data-src=" />



Néanmoins AMD signe là également un bon coup pour la production du “SoC” de la PS4 (CPU + GPU dans une seule puce) enfin selon les rumeurs.



Un grand point positif est que les portages de jeux seront d’une aisance tel que les exclusivités ne seront que des studios travaillant que pour les constructeurs des machines. <img data-src=" />



Vivement l’arrivée du démat’ à tarif réduit sur console également <img data-src=" />


votre avatar







sniperdc a écrit :



Si c’est plus de 450€ ça sera pas si facile d’en vendre par conteneur <img data-src=" />





Malheureusement je vois plus un 500600 à la sortie. Mais bon on sait jamais.


votre avatar







Ellierys a écrit :



Vu que seul l’OS différerait, ça serait aussi compliqué que de faire marcher des jeux Windows sous Linux.





Un peu plus que ca quand meme. Le cout de la memoire unifié va faire bien chier. Le coté 8coeurs aussi, c’est loin d’etre la norme.



Il va donc falloir au moins revoir le scheduler pour les fonctions et le partage memoire tout en verifiant que le resultat reste coherent.



edit : apres, la taille memoire de nos GPU risquent d’augmenter rapidement vu la baisse de prix qu’entraine la production en masse de cette memoire pour les consoles.


votre avatar

Donc les jeux seront moins chers ? … <img data-src=" />

votre avatar







ErGo_404 a écrit :



Peut être devrait-on plus parler de virtualisation que d’émulation pure et dure <img data-src=" />



Mais bon il va vraiment falloir une machine de compet pour ça :(







A priori le matériel n’est pas exceptionnel d’après ce que l’on peut lire sur les sites reste que je ne sais pas si un émulateur demande beaucoup de puissance ou non.


votre avatar







after_burner a écrit :



Il y a eu des infos comme quoi “l’environnement de développement” de la PS4 serait basé sur un win7 pro 64b, si quelqu’un dans le domaine peut nous dire quelles sont les différences entre l’OS de la console et son environnement de développement? <img data-src=" />





Ça peut vouloir dire plusieurs choses : l’environnement de développement permet-il de faire tourner les jeux avec du matos standard, ou avec un matos spécifique, ou faut-il déployer sur une PS4 spéciale ? Le terme “environnement de développement” peut englober diverses choses.



La première option paraît très improbable vu les différences d’archi et la capacité offerte aux dévs d’exercer un contrôle de bas niveau, il aurait fallu écrire un émulateur et ce serait très lent. Mais la seconde, qui sait… Ca pourrait vouloir dire que le SDK pourrait être adapté pour faire tourner les jeux PS4 sur PC pourvu que l’on ait la bonne CG, si tant est que les futures Radeon ne diffèrent pas trop de ce qu’on voit sur PS4.



Pour rappel, le CPU étant le même, pas besoin de l’émuler, un machine comme Wine suffit pour transformer les appels vers les API de Sony en appels aux API de Windows. La question est de savoir s’il faut en revanche émuler le GPU ou d’autres parties du matos.


votre avatar







metaphore54 a écrit :



A priori le matériel n’est pas exceptionnel d’après ce que l’on peut lire sur les sites reste que je ne sais pas si un émulateur demande beaucoup de puissance ou non.







Recompiler du code à la volé… Et c’est loin d’être une partie de plaisir…

Strimy si tu passes par là…


votre avatar

ce n’est pas parce qu’une architecture utilise les composant d’une autre que ce sont les même.

Ce qui défini l’architecture c’est aussi la manière dont les composant communiquent entre eux. Là dessus les “PC-Like” sont souvent très diffèrent des PC.

Les petite “optimisation” ici et là qu’AMD va pratiquer sur les composant de la PS4 vont a coup sur rendre au final la PS4 totalement incompatible avec une architecture PC. (comme cela était le cas de la première XBOX).

Pour ce qui est de faire des OS pour chaque console, jusqu’à maintenant oui, ça a toujours été le cas. Chaque console a son OS(Firmware dans le cas des vieille archi)

votre avatar







RaYz a écrit :



Malheureusement je vois plus un 500600 à la sortie. Mais bon on sait jamais.







J’ai remarqué que la PS3 a renoué avec les ventes dès les 399€ atteins.



Le marché est il prêt a mettre plus de 450€ pour une console de jeux?

Je ne suis pas sûr. Les commerciaux de SONY doivent trouver le juste tarif car à performances similaire Microsoft pourrait damer de pion à SONY en sortant une xboite 50 € moins cher.


votre avatar







misterB a écrit :



Facile, emmuler la PS4 sur un bon gros PC de compet <img data-src=" /><img data-src=" />







Emule la PS2 sans bug déjà pour commencer sur un autre jeux que FFX par exemple,la PS4 sera émulée dans 15 ans… .. <img data-src=" />


votre avatar







sniperdc a écrit :



J’ai remarqué que la PS3 a renoué avec les ventes dès les 399€ atteins.



Le marché est il prêt a mettre plus de 450€ pour une console de jeux?

Je ne suis pas sûr. Les commerciaux de SONY doivent trouver le juste tarif car à performances similaire Microsoft pourrait damer de pion à SONY en sortant une xboite 50 € moins cher.





Oui j’suis d’accord, à mon avis à plus de 500€ vont pas en vendre beaucoup mais bon la politique tarifaire de Sony a toujours été comme ça.







kamuisuki a écrit :



Emule la PS2 sans bug déjà pour commencer sur un autre jeux que FFX par exemple,la PS4 sera émulée dans 15 ans… .. <img data-src=" />





Franchement tous les budokai déjà et pas mal d’autres.


votre avatar







kamuisuki a écrit :



Emule la PS2 sans bug déjà pour commencer sur un autre jeux que FFX par exemple,la PS4 sera émulée dans 15 ans… .. <img data-src=" />





C’est pas la meme archi. La on a un truc bien plus proche, mais comme indiqué plus haut, il reste des obstacles de taille pour y arriver.


votre avatar

J’aime bien le PDG qui dit qu’une console est compliquée à coder parce que la doc est en jap !



Ça n’a choqué personne ça ?



C’est n’importe quoi comme déclaration !

votre avatar







pitiwazou a écrit :



J’aime bien le PDG qui dit qu’une console est compliquée à coder parce que la doc est en jap !



Ça n’a choqué personne ça ?



C’est n’importe quoi comme déclaration !





Euh pas tant que cela. Si les traductions sont inexistantes, partielles, mal faite c’est franchement dur de tout bien comprendre.



A une epoque, 99% des docs pour Ruby etaient en Jap. Ben cela a pas aidé le langage a percé et les devs voulant quand meme l’utiliser a l’utiliser.


votre avatar







RaYz a écrit :



Oui j’suis d’accord, à mon avis à plus de 500€ vont pas en vendre beaucoup mais bon la politique tarifaire de Sony a toujours été comme ça.





Franchement tous les budokai déjà et pas mal d’autres.







Depuis peut-être 2006 que j’essaye de faire marcher bien ne serait ce qu’un seul de mes jeux pS2 … jamais réussi , toujours un truc qui bug, plante, qui est lent, qui a des artefacts de partout et c’est toujours le cas . que ce soit GT4 , Vice City, Burnout 2 , Ace Combat , Okami , SSX , V-rally 3 , .. la Dreamcast marche bien mieux comme la PSX , la gamecube, la Wii.



Quelque soit la machine utilisée, les plugins ..

Donc Bravo si vous y arrivez <img data-src=" />


votre avatar







kamuisuki a écrit :



Depuis peut-être 2006 que j’essaye de faire marcher bien ne serait ce qu’un seul de mes jeux pS2 … jamais réussi , toujours un truc qui bug, plante, qui est lent, qui a des artefacts de partout et c’est toujours le cas . que ce soit GT4 , Vice City, Burnout 2 , Ace Combat , Okami , SSX , V-rally 3 , .. la Dreamcast marche bien mieux comme la PSX , la gamecube, la Wii.



Quelque soit la machine utilisée, les plugins ..

Donc Bravo si vous y arrivez <img data-src=" />





T’as quelle machine ?

Je t’ai envoyé un petit MP


votre avatar







benflasherbzh a écrit :



En ddr5 ?





Oui, et d’ailleurs je trouve ça surprenant que le “proco” puisse en profiter, c’est la première fois que de la ddr5 est utilisée en Ram système non ?


votre avatar







pitiwazou a écrit :



J’aime bien le PDG qui dit qu’une console est compliquée à coder parce que la doc est en jap !



Ça n’a choqué personne ça ?



C’est n’importe quoi comme déclaration !





En quoi est-ce n’importe quoi ? A ton avis combien y a t-il de dévs compétents sur le marché pour programmer un jeu ? Maintenant combien parmi eux parlent couramment Japonais ? Un ? Trois ?







AngelSword a écrit :



Oui, et d’ailleurs je trouve ça surprenant que le “proco” puisse en profiter, c’est la première fois que de la ddr5 est utilisée en Ram système non ?





A vrai dire c’est mauvais pour le CPU : la bande passante est supérieure à de la DDR mais la latence est trop importante et cela ralentit la plupart des calculs. Côté CPU la PS4 sera franchement mauvaise.


votre avatar

Même si c’est un CPU x86, il y a fort à parier que Sony ait intégré un jeu spécial d’instructions supplémentaire, n’existant pas dans les AMD/Intel classiques…



D’ailleurs je confirme, la Xbox 1 tournait sur un Pentium III très peu modifié, pourtant j’ai jamais trouvé un émulateur potable sur PC.

votre avatar







Ler van keeg a écrit :



C’est pas parce que la bête sera plus rapidement maîtrisable par les développeurs que ça fera des bons jeux.



Jusqu’aux années 2000, programmer sur console c’était assimiler à fond l’architecture, optimiser au maximum le code pour tirer le max des possibilité de chaque puce (son, vidéo) propres à chaque console.

Pourtant, malgré ces difficultés, d’excellents jeux sont sortis dans les années 80-90.



Aujourd’hui faut une machine de guerre pour pouvoir jouer à des jeux mal optimisés, et ça ne change rien qu’on nous sert majoritairement de la mer*e au gameplay simplifié dans des niveaux aux action pré-mâchées…







des jeux de merde il y a en a toujours eux



et franchement pour moi les jeux console des année 80-90 c’est majoritairement de la merde dsl



et niveau repompage de truc en boucle on ne pouvais guère faire pire





votre avatar







ErGo_404 a écrit :



Je ne sais pas trop comment ça fonctionne chez eux, mais j’ai du mal à croire qu’ils développent un OS complet à chaque console ? Du coup c’est peut être basé sur un Linux bien castré et bien modifié, mais un linux quand même, non ?

Quelqu’un a des infos sur le sujet ?







ouep, l’OS de la playstation 3 était basé sur un BSD, bien sur ils l’ont modifié :)

Du moment qu’il y a un processeur, de la mémoire, du stockage et différents périphériques a gérer (USB, lecteur de carte, périphériques externers, …) et à usage multimédia, je pense qu’il y aura toujours une base déjà existante pour les différents environnements.



C’est lorsque la technologie s’y prête que les noyaux évoluent.

Par exemple, à l’heure actuelle, quelles seraient les conditions et les besoins pour qu’une voie alternative aux distributions Linux et aux noyaux windows ?

(



votre avatar







Kokusho a écrit :



Là ou ça va piquer pour les PC c’est quand les développeurs vont s’amuser à se servir des 8gb de GDDR5 de la PS4… Sur PC avec nos 2gb max ca va faire tout drôle…



Mais bon je me fais quand même pas trop de soucis, y’aura surement une autre façon de faire. Pas de raison qu’une GTX680 soit à la rue juste à cause de ça.







Les consoles n’ont jamais utilisé toutes leurs ressources dès le départ… <img data-src=" />



Et puis cette disproportion de VRAM pour un GPU beaucoup plus standard, moi je vois plutôt ça comme un cache-misère que comme un veritable atout.

Dans 8 ans, on pourra plus difficilement dire : “Ptain les textures sont vraiment dégueux sur PS4…”



Ils ont bien compris que c’était un moyen simple et peu couteux d’augmenter la durée de vie de la console. <img data-src=" />



Mais bon d’ici 2 ou 3 ans les perfs de la PS4 seront enterrées par celles du PC tout comme ça a toujours été le cas à chaque génération de console depuis la PSX…


votre avatar







AngelSword a écrit :



Oui, et d’ailleurs je trouve ça surprenant que le “proco” puisse en profiter, c’est la première fois que de la ddr5 est utilisée en Ram système non ?





C’est pas de la DDR5 mais de la GDDR5.<img data-src=" />



La DDR5 ça n’existe pas pour le moment.



Sinon la xbox 360 avait 512 Mo de GDDR3 unifié( partagée GPU+CPU ).


votre avatar







HarmattanBlow a écrit :



Ça peut vouloir dire plusieurs choses : l’environnement de développement permet-il de faire tourner les jeux avec du matos standard, ou avec un matos spécifique, ou faut-il déployer sur une PS4 spéciale ? Le terme “environnement de développement” peut englober diverses choses.



La première option paraît très improbable vu les différences d’archi et la capacité offerte aux dévs d’exercer un contrôle de bas niveau, il aurait fallu écrire un émulateur et ce serait très lent. Mais la seconde, qui sait… Ca pourrait vouloir dire que le SDK pourrait être adapté pour faire tourner les jeux PS4 sur PC pourvu que l’on ait la bonne CG, si tant est que les futures Radeon ne diffèrent pas trop de ce qu’on voit sur PS4.



Pour rappel, le CPU étant le même, pas besoin de l’émuler, un machine comme Wine suffit pour transformer les appels vers les API de Sony en appels aux API de Windows. La question est de savoir s’il faut en revanche émuler le GPU ou d’autres parties du matos.





Normalement le GPU lui aussi est proche des GPUs de PC.

En fait il faudrait juste virtualiser (ou comme tu dis transformer les appels plus ou moins à la volée). Mais c’est déjà bien compliqué à faire quand on sait ce que fait chaque instruction (cf Wine), alors quand on sait pas …


votre avatar







TaigaIV a écrit :



Pour casser les clés alacon™ qu’ils ne manqueront pas de mettre un peu partout dans leur bidule ?





Non je voyais pas trop ça sous la forme d’un Wine mais plutôt de la virtualisation.

Or un OS virtualisé ça demande un OS hôte qui consomme un peu les ressources <img data-src=" />

C’est pas franchement facile à faire. Faire un Wine like pour la PS4 serait plus envisageable, et il n’y aurait pas forcément trop de protections à casser du coup.


votre avatar







after_burner a écrit :



Il y a eu des infos comme quoi “l’environnement de développement” de la PS4 serait basé sur un win7 pro 64b, si quelqu’un dans le domaine peut nous dire quelles sont les différences entre l’OS de la console et son environnement de développement? <img data-src=" />



Sinon les portages n’ont pas grand chose à voir avec l’émulation, ça n’aidera pas bcp je pense.





Pour te donner une idée (HarmattanBlow t’a cependant déjà bien répondu), l’environnement d’un téléphone Android peut être un Windows 7, ce qui ne veut pas dire que le résultat de ton développement tourne sur Windows 7, juste que le compilateur tourne sous Windows 7 et qu’il est capable de compiler pour une autre plateforme (on appelle cela la cross-compilation).


votre avatar







AxelDG a écrit :



Les consoles n’ont jamais utilisé toutes leurs ressources dès le départ… <img data-src=" />



Et puis cette disproportion de VRAM pour un GPU beaucoup plus standard, moi je vois plutôt ça comme un cache-misère que comme un veritable atout.

Dans 8 ans, on pourra plus difficilement dire : “Ptain les textures sont vraiment dégueux sur PS4…”



Ils ont bien compris que c’était un moyen simple et peu couteux d’augmenter la durée de vie de la console. <img data-src=" />



Mais bon d’ici 2 ou 3 ans les perfs de la PS4 seront enterrées par celles du PC tout comme ça a toujours été le cas à chaque génération de console depuis la PSX…







  1. la mémoire est partagée GPU/CPU

  2. la bande passante de la GDDR5 est bien supérieure à n’importe quelle DDR3( 160 Gb/sc vs 17Gb/sc ) donc sur l’accès mémoire CPU la PS4 a un avantage important qui n’est pas prêt de disparaître



    Ce n’est pas juste un volume important de mémoire disponible pour la CG c’est une mémoire rapide est flexible pour les deux puces.



    Bon elle finira par être dépassée bien sur. Mais clairement la PS4 ne peut pas être comparée à un PC milieu de gamme actuel.<img data-src=" />



    Elle a été entièrement pensée pour le jeu à la différence d’un PC.



    Son avantage est son homogénéitée AMHA.<img data-src=" />


votre avatar







Reparateur a écrit :



des jeux de merde il y a en a toujours eux



et franchement pour moi les jeux console des année 80-90 c’est majoritairement de la merde dsl



et niveau repompage de truc en boucle on ne pouvais guère faire pire







T’as le droit d’avoir des gouts de merde <img data-src=" />


votre avatar







lossendae a écrit :



T’as le droit d’avoir des gouts de merde <img data-src=" />







je ne te juge pas je constate juste


votre avatar







Alucard63 a écrit :



Bon elle finira par être dépassée bien sur. Mais clairement la PS4 ne peut pas être comparée à un PC milieu de gamme actuel.<img data-src=" />



Elle a été entièrement pensée pour le jeu à la différence d’un PC.







La mémoire partagée CPU/GPU, ils ont déjà fait sur PC et ça n’a jamais été une grande réussite…

C’est surement différent sur console mais l’avenir nous le dira.



De plus, c’était prévisible mais les caractéristiques du GPU et CPU sont déjà dépassées par des PC moyen/haut de gamme aujourd’hui (oui oui j’ai bien dit MOYEN…) donc d’ici la sortie de la console et sa démocratisation… voilà quoi… <img data-src=" />



En plus il a toujours été de coutume, sur console, de ne pas exploiter toute la puissance dès le début…

D’ailleurs j’espère bien que les premiers possesseurs de console Next Gen pourront goûter toute la frustration des joueurs PC depuis des années en goûtant aux magnifiques portages prévus pour les deux générations de consoles simultanément. <img data-src=" />



Le PC n’a pas forcément été pensé pour le jeu mais comme le jeu est le média qui le pousse le plus dans ses derniers retranchements, il est logique que finalement toute son architecture s’y prête parfaitement.

Si tu choisis : une carte mère de gamer + de la mémoire de gamer + des périphérique de gamer + carte vidéo de gamer….

t’as inévitablement une machine de guerre pour jouer et pour un sacré bout de temps !<img data-src=" />


votre avatar







AxelDG a écrit :



La mémoire partagée CPU/GPU, ils ont déjà fait sur PC et ça n’a jamais été une grande réussite…

C’est surement différent sur console mais l’avenir nous le dira.



De plus, c’était prévisible mais les caractéristiques du GPU et CPU sont déjà dépassées par des PC moyen/haut de gamme aujourd’hui (oui oui j’ai bien dit MOYEN…) donc d’ici la sortie de la console et sa démocratisation… voilà quoi… <img data-src=" />



En plus il a toujours été de coutume, sur console, de ne pas exploiter toute la puissance dès le début…

D’ailleurs j’espère bien que les premiers possesseurs de console Next Gen pourront goûter toute la frustration des joueurs PC depuis des années en goûtant aux magnifiques portages prévus pour les deux générations de consoles simultanément. <img data-src=" />



Le PC n’a pas forcément été pensé pour le jeu mais comme le jeu est le média qui le pousse le plus dans ses derniers retranchements, il est logique que finalement toute son architecture s’y prête parfaitement.

Si tu choisis : une carte mère de gamer + de la mémoire de gamer + des périphérique de gamer + carte vidéo de gamer….

t’as inévitablement une machine de guerre pour jouer et pour un sacré bout de temps !<img data-src=" />





Tu as lu ce que j’ai marqué?



La mémoire partagée( dans les portable/PC low cost généralement ) sur PC est généralement de la DDR3 qui a une bande passante pourrie en comparaison de la GDDR5( donc un fillrate pourrie, donc des perfs graphiques pourries ).



Jamais n’est sortie un PC avec de la GDDR partagée.<img data-src=" />



Le seul autre exemple que je connaisse est la xbox 360 avec la GDDR3. Hors tous les devs en étaient très contents. Cette console a été pensée pour les devs et ce point est un élément central pour eux.<img data-src=" />



Pour le reste comme je disais la PS4 est plus homogène que n’importe quel PC actuel pour une utilisation jeu.



Après qu’il existe des GPU plus puissants c’est une évidence, qu’il existe des CPU plus puissants encore plus.



Mais qu’il existe une configuration comparable à la PS4 sur PC à l’heure actuelle: non.



Pour le moment on compare des choux et des carottes. Aucun intérêt.<img data-src=" />


votre avatar







Alucard63 a écrit :





  1. la bande passante de la GDDR5 est bien supérieure à n’importe quelle DDR3( 160 Gb/sc vs 17Gb/sc ) donc sur l’accès mémoire CPU la PS4 a un avantage important qui n’est pas prêt de disparaître





    C’est tout le contraire ! ^^

    La GDDR n’est pas une mémoire “magique” plus rapide que la DDR. C’est une mémoire pour laquelle on privilégie la bande passante à la latence. C’est très bien pour le GPU, pas pour le CPU. Côté CPU la PS4 est loin derrière à la ramasse et les dévs déporteront leurs calculs sur le GPU, ce qui sera assez facile grâce à la mémoire unifiée.







    AxelDG a écrit :



    La mémoire partagée CPU/GPU, ils ont déjà fait sur PC et ça n’a jamais été une grande réussite…





    Absolument rien à voir : sur PC le GPU n’accédait pas à la mémoire directement mais via le northrbidge. Latence de ouf, performances daubesques, etc. Tout le contraire ici.







    ErGo_404 a écrit :



    Normalement le GPU lui aussi est proche des GPUs de PC.





    En principe, oui, en tout cas vis-à-vis des autres cartes AMD, mais que veut dire Sony par “contrôle bas-niveau” ? Si les dévs peuvent coder le GPU en asm et compagnie, autant dire qu’à moins d’avoir exactement la même chose, il faudra plus ou moins émuler.


votre avatar







Alucard63 a écrit :



Mais qu’il existe une configuration comparable à la PS4 sur PC à l’heure actuelle: non.



Pour le moment on compare des choux et des carottes. Aucun intérêt.<img data-src=" />





La question c’est pas vraiment si on trouve une config identique… A la limite OSEF.



La vraie question c’est plutôt de savoir s’il est plus intéressant d’investir dans un PC aujourd’hui plutôt que d’attendre la sortie de la PS4.



Compte tenu de tout ce que j’ai dit, je reste persuadé que oui, sans hésitation.



Mon pronostic est que la console va “flirter” avec les performances PC Moyen/Haut de gamme du moment pendant… 6mois-1an GRAND MAX… pour se faire enterrer à nouveau. <img data-src=" />



Mais je serai d’accord pour dire que je suis dans la pure spéculation.<img data-src=" />


votre avatar







HarmattanBlow a écrit :



C’est tout le contraire ! ^^

La GDDR n’est pas une mémoire “magique” plus rapide que la DDR. C’est une mémoire pour laquelle on privilégie la bande passante à la latence. C’est très bien pour le GPu, pas pour le CPU.





La PS4 est faite pour le jeu…la partie la plus importante est le GPU, d’ailleurs le CPU est souvent utilisé comme GPU bis. Donc la latence n’est pas la priorité.<img data-src=" />


votre avatar







AxelDG a écrit :



La question c’est pas vraiment si on trouve une config identique… A la limite OSEF.



La vraie question c’est plutôt de savoir s’il est plus intéressant d’investir dans un PC aujourd’hui plutôt que d’attendre la sortie de la PS4.



Compte tenu de tout ce que j’ai dit, je reste persuadé que oui, sans hésitation.



Mon pronostic est que la console va “flirter” avec les performances PC Moyen/Haut de gamme du moment pendant… 6mois-1an GRAND MAX… pour se faire enterrer à nouveau. <img data-src=" />



Mais je serai d’accord pour dire que je suis dans la pure spéculation.<img data-src=" />





Moi j’achèterai une console next gen dans 2 ou 3 ans( le temps qu’elle baisse et que les bons jeux sortent ).



Mais je ne recherche pas la même chose.



Ce que je veux dire c’est que dire que la PS4 a une mauvaise config est une erreur. Pour ce qu’elle est censé faire, avec le cahier des charges qu’elle a, les choix sont très judicieux.<img data-src=" />


votre avatar







Alucard63 a écrit :



La PS4 est faite pour le jeu…la partie la plus importante est le GPU, d’ailleurs le CPU est souvent utilisé comme GPU bis. Donc la latence n’est pas la priorité.<img data-src=" />





ah bon, y a que les graphismes qui sont importants ? Un GPU meme si on lui fait faire de plus en plus de chose, son job de base c’est quand meme le graphisme. La physique, l’IA, gestion des inputs/outputs et donc du gameplay reste encore du domaine du CPU et c’est ce qu’il y a de plus gourmand.


votre avatar







Alucard63 a écrit :



Ce que je veux dire c’est que dire que la PS4 a une mauvaise config est une erreur. Pour ce qu’elle est censé faire, avec le cahier des charges qu’elle a, les choix sont très judicieux.<img data-src=" />







Je n’ai jamais dit que la configuration était mauvaise.



Par contre, je ne peux décemment pas laisser dire que les premiers jeux mettront les PC actuels à genoux.

Je comprends que certains adeptes des consoles rêvent de manger du PCiste en n’investissant que 400-500€ mais compte tenu de ce que l’on sait, c’est juste impensable.



Ceci dit il ne tient qu’aux développeurs de me faire mentir, mais je leur souhaite bien du courage. <img data-src=" />


votre avatar







Alucard63 a écrit :



La PS4 est faite pour le jeu…la partie la plus importante est le GPU





Sauf qu’il ne faut pas s’y tromper : cette mémoire unifiée et ce faible CPU sont un facteur d’économie, pas de performances. La facilité à faire communiquer GPU et CPU pourrait se révéler intéressante pour quelques scénarios (*) mais la majorité du temps ce ne sera qu’un moyen de pallier à la faiblesse de ce CPU bas de gamme couplé avec sa mémoire inadaptée.



En le présentant comme un facteur de performances tu te trompes : peu importe que la PS4 soit dédiée au jeu, la GDDR handicapera le CPU. Ce choix d’une mémoire unifiée et d’un faible CPU est une décision de raison permettant de faire de jolies économies au prix d’un peu de performances.



(*) Rarement bénéficiaire pour le jeu mais plus souvent pour les calculs scientifiques ! La PS4 pourrait, comme son ancêtre, redevenir la meilleure amie de folding@home.





d’ailleurs le CPU est souvent utilisé comme GPU bis.



Non, le CPU n’est jamais utilisé comme un GPU bis, quel que soit le sens que tu veuilles donner à ça. En revanche le GPU est parfois utilisé pour soulager le CPU, mais cela ne permet pas pour autant d’en faire un CPU bis.


votre avatar







AxelDG a écrit :



Par contre, je ne peux décemment pas laisser dire que les premiers jeux mettront les PC actuels à genoux.

Compte tenu de ce que l’on sait, c’est juste impensable.





La plupart des jeux PS4 seront incapables de tourner correctement sur un PC avec moins de 8Go de VRAM, du moins à qualité équivalente. Ces PC-là seront à genoux à moins d’utiliser des textures basse-résolution.



Une fois que les 8Go de VRAM seront là, tout dépendra de la qualité du portage : si les dévs reportent les calculs vers le CPU, un bon PC suivra sans problème. Mais s’ils font ça à la va-vite en gardant leurs algorithmes impliquant une communication fréquente entre CPU et GPU, ce sera la catastrophe sur PC avec le bus PCIe entre les deux.


votre avatar







yeagermach1 a écrit :



ah bon, y a que les graphismes qui sont importants ? Un GPU meme si on lui fait faire de plus en plus de chose, son job de base c’est quand meme le graphisme. La physique, l’IA, gestion des inputs/outputs et donc du gameplay reste encore du domaine du CPU et c’est ce qu’il y a de plus gourmand.





Pas besoin d’un puissance CPU de fou pour faire un jeu fun. Des jeux funs ont sait en faire depuis des années, même avec des CPU anémiques( et celui de la PS4 a l’air d’être un belle merde <img data-src=" /> ). Par contre des jeux beaux…



Quand à la physique c’est le GPU qui la gère maintenant.



Reste au CPU les instructions de branchement…



C’est la philosophie derrière cette configuration( et c’était pire encore avec le CELL qui était une ( très ) grosse merde concernant les entiers ).<img data-src=" />



votre avatar







HarmattanBlow a écrit :



La plupart des jeux PS4 seront incapables de tourner correctement sur un PC avec moins de 8Go de VRAM, du moins à qualité équivalente. Ces PC-là seront à genoux à moins d’utiliser des textures basse-résolution.



Une fois que les 8Go de VRAM seront là, tout dépendra de la qualité du portage : si les dévs reportent les calculs vers le CPU, un bon PC suivra sans problème. Mais s’ils font ça à la va-vite en gardant leurs algorithmes impliquant une communication fréquente entre CPU et GPU, ce sera la catastrophe sur PC avec le bus PCIe entre les deux.







Je ne remets pas en doute tes indéniables connaissances dans le domaine.



J’ai juste du mal à voir comment un console qui ne supporte le 4K que pour les vidéos va pouvoir rivaliser avec le PC qui est déjà à l’aube de passer le pas.



Pour moi, j’en reviens à la conversation que nous avions un autre soir, je ne vois pas en quoi la VRAM va solutionner toutes les contraintes de calcul dues à l’application de textures sur des modèles, aux effets physiques, à la 3D… etc etc… et le tout cumulé !

C’est comme si tu disais que de mettre 64To de RAM à un Netbook allait en faire un supercalculateur…



Bref, je demande à voir…


votre avatar







HarmattanBlow a écrit :



Non, le CPU n’est jamais utilisé comme un GPU bis, quel que soit le sens que tu veuilles donner à ça. En revanche le GPU est parfois utilisé pour soulager le CPU, mais cela ne permet pas pour autant d’en faire un CPU bis.





Si, sur console, justement c’est le cas: un certains nombre de filtres et d’effets ne sont pas fait via le GPU mais le CPU.



Au fil des années on tente de compenser la vieillesse du GPU par des astuces mais aussi en essayant de décharger un peu la charge sur le CPU( au prix d’autres éléments… ) pour suivre les évolutions graphiques. Après je ne suis pas dev mais c’est ce que j’ai compris.



La PS4 est pensée avant tout pour le jeu. <img data-src=" />



votre avatar







AxelDG a écrit :



Je ne remets pas en doute tes indéniables connaissances dans le domaine.



J’ai juste du mal à voir comment un console qui ne supporte le 4K que pour les vidéos va pouvoir rivaliser avec le PC qui est déjà à l’aube de passer le pas.



Pour moi, j’en reviens à la conversation que nous avions un autre soir, je ne vois pas en quoi la VRAM va solutionner toutes les contraintes de calcul dues à l’application de textures sur des modèles, aux effets physiques, à la 3D… etc etc… et le tout cumulé !

C’est comme si tu disais que de mettre 64To de RAM à un Netbook allait en faire un supercalculateur…



Bref, je demande à voir…





Ce qu’il veut dire c’est que ce sera le goulot d’étranglement du PC si les jeux sont conçus pour tirer partie de la RAM.



Tu peux bien avoir un CPU de fou si le jeu est conçu pour un CPU anémique tu ne verras pas la différence. Tu peux bien avoir un GPU de fou, si le jeu est conçu pour un GPU moyen tu ne verras pas la différence.



Par contre si tu manques de VRAM et que les textures ont été conçues pour ce quota de VRAM, quoi que tu fasses, tu ne pourra pas avoir les même textures.



Comme je disais on compare des choux et des carottes.<img data-src=" />


votre avatar







Alucard63 a écrit :



Ce qu’il veut dire c’est que ce sera le goulot d’étranglement du PC si les jeux sont conçu pour tirer partie de la RAM.



Tu peux bien avoir un CPU de fou si le jeu est conçu pour un CPU anémique tu ne verras pas la différence. Tu peux bien avoir un GPU de fous, si le jeu est conçu pour un GPU moyen tu ne verras pas la différence.



Par contre si tu manques de VRAM et que les textures ont été conçues pour ce quota de VRAM, quoi que tu fasses, tu ne pourra pas avoir les même textures.



Comme je disais on compare des choux et des carottes.<img data-src=" />







Tu n’as pas assisté à notre dernière conversation, tu as donc loupé un bout de l’argumentaire.



Ok, c’est super les textures Ultra HD, tu vas pouvoir coller ta tronche à 2cm des murs et t’extasier en disant “Wow putain on voit même les trous de mites dans les poutres !!!”.

Oué cool, mais si tu colles ça sur des modèles 3D dignes de MineCraft (j’exagère volontairement… j’adore le jeu c’est pas la question), ça va pas aller chier loin niveau immersion et réalisme. <img data-src=" />


votre avatar







AxelDG a écrit :



Tu n’as pas assisté à notre dernière conversation, tu as donc loupé un bout de l’argumentaire.



Ok, c’est super les textures Ultra HD, tu vas pouvoir coller ta tronche à 2cm des murs et t’extasier en disant “Wow putain on voit même les trous de mites dans les poutres !!!”.

Oué cool, mais si tu colles ça sur des modèles 3D dignes de MineCraft (j’exagère volontairement… j’adore le jeu c’est pas la question), ça va pas aller chier loin niveau immersion et réalisme. <img data-src=" />





Ca n’enlève rien à son argumentaire.



Tout comme on peut avoir l’argumentaire inverse du tien: du 4K avec des textures moches sera un catastrophe pour la rétine( particulièrement sur grand écran ).



Bref on compare des choses incomparables.<img data-src=" />


votre avatar







AxelDG a écrit :



J’ai juste du mal à voir comment un console qui ne supporte le 4K que pour les vidéos va pouvoir rivaliser avec le PC qui est déjà à l’aube de passer le pas.



Pour moi, j’en reviens à la conversation que nous avions un autre soir, je ne vois pas en quoi la VRAM va solutionner toutes les contraintes de calcul dues à l’application de textures sur des modèles, aux effets physiques, à la 3D… etc etc… et le tout cumulé !

C’est comme si tu disais que de mettre 64To de RAM à un Netbook allait en faire un supercalculateur…



Bref, je demande à voir…





Tu raisonnes en termes de puissance brute. Comme si une formule 1 de 800 chevaux valait 400 deux-chevaux. Alors que les deux répondent à des problèmes différents. Avec 400 2cv je livre le courrier pour pas cher sur tout le département sous 48h, avec une F1 j’organise un service de livraison en 3h chrono sur toute la France à un prix démentiel.



De la même façon PC et PS4 ne sont pas construits de la même façon et on ne peut pas faire exactement les mêmes choses de l’une à l’autre. Mais lequel des deux est le plus gros marché ? La console, d’un facteur dix. Donc le jeu sera d’abord conçu pour la PS4. Ça ne me plaît pas non plus mais c’est la réalité.



Partant de là, le jeu est construit avec les limites matérielles de la machine en tête. Celle-ci a 8Go de VRAM, donc les scènes doivent être en-dessous de 8Go de contenus, disons 6Go. Si tu tentes de faire un rendu avec moins de VRAM que ces 6Go tu vas te heurter au goulet d’étranglement du bus PCIe (500 Mo par image) et ton framerate va être horrible. Même si la puissance de ton GPU est plus grosse : il se tournera les pouces en attendant les données ! Tu pourras toujours le gonfler, tu gagneras pas un poil de performances. Ce n’est pas que les 8Go ont augmenté la puissance de la PS4, c’est que tu ne peux pas utiliser ta puissance sans la même quantité de mémoire. Heureusement la solution est assez simple : diminuer la taille des textures.



Pour le reste, je l’ai dit ailleurs, le couple mémoire unifiée + faible processeur est un facteur d’économie, pas de performances. Mais encore une fois le dév va d’abord coder pour la PS4 et donc pour ce CPU moisi. Ça va l’obliger à faire plus de calculs sur le GPU, ce que la mémoire unifiée permet en éliminant le goulet d’étrangement. Mais si tu portes ça tel quel sur PC, à nouveau, c’est la catastrophe à cause de ce goulet ! Sur PC il faut réaliser tous les calculs sur le CPU, ce que la PS4 serait incapable de faire faute de puissance. Tout dépend donc de la qualité du portage, que ton jeu initialement développé pour PC ou pour consoles.


votre avatar







Angelus69 a écrit :



les pc n’ont rien a craindre des 8gb <img data-src=" />







Soyons un peu tatillon <img data-src=" />

8gb = 1go :p


votre avatar







Alucard63 a écrit :



Ca n’enlève rien à son argumentaire.



Tout comme on peut avoir l’argumentaire inverse du tien: du 4K avec des textures moches sera un catastrophe pour la rétine( particulièrement sur grand écran ).



Bref on compare des choses incomparables.<img data-src=" />







Moué sauf que pour l’instant tous les ingénieurs chez AMD et NVIDIA n’ont pas jugé utile de monter au dessus de 4Go de VRAM et encore c’est très récent.



Aujourd’hui sur PC, on dépasse tout juste les 2Go pour 4Go (les dernières cartes et c’est ultra minoritaire), c’est pour ça que je m’interroge sur la capacité de la PS4 à le faire car elle est encore assez loin d’avoir les même capacités de calcul.


votre avatar







HarmattanBlow a écrit :



Ça va l’obliger à faire plus de calculs sur le GPU, ce que la mémoire unifiée permet en éliminant le goulet d’étrangement. Mais si tu portes ça tel quel sur PC, à nouveau, c’est la catastrophe à cause de ce goulet ! Sur PC il faut réaliser tous les calculs sur le CPU, ce que la PS4 serait incapable de faire faute de puissance.





La, je ne comprend pas en quoi le GPGPU peut remplacer le CPU mis à part pour les parties physiques et graphiques. Autant l’inverse est possible(avec de grosses limites…on sort pas 2TFlops d’un octocore Jaguar ni d’un core i7 d’ailleurs <img data-src=" /> ) autant dans ce sens je ne comprends pas.



De plus les GPU PC auront sensiblement les mêmes capacités que ce soit en termes de 3D que de physique.



AMHA sur PC le CPU sera simplement sous exploité par les jeux cross plateforme, c’est tout.



votre avatar







Alucard63 a écrit :



Si, sur console, justement c’est le cas: un certains nombre de filtres et d’effets ne sont pas fait via le GPU mais le CPU.





D’accord, visiblement ça concerne la PS3 et son Cell initialement sous-utilisé. Ce que tu dis est vraisemblable. Cela dit le cas est un peu particulier et si tu peux déporter quelques opérations ici et là vers le GPU, il y a une limite à ce qu’on peut faire et le CPU reste fondamentalement une bête très différente du GPU.


votre avatar

Espérons que le prix des jeux ps4 s’alignera sur le prix des jeux pc

votre avatar







HarmattanBlow a écrit :



Ce n’est pas que les 8Go ont augmenté la puissance de la PS4, c’est que tu ne peux pas utiliser ta puissance sans la même quantité de mémoire. Heureusement la solution est assez simple : diminuer la taille des textures.







Oui mais ça je te l’ai dit, je le vois venir dès aujourd’hui que ce sera un cache-misère qui servira la fin de vie de la PS4.

Ne t’attends pas à voir des jeux qui utilisent toute la VRAM demain car vu comment les éditeurs ont fait chier les utilisateurs PC depuis des années, ça m’étonnerait bien que ça arrive aussi rapidement même pour les consoles Next Gen.

Et puis sur PC on a l’option changement de Carte Graphique à 150€ quand il sera temps.

Ils le feront pour compenser les limites de leur console pour montrer des jeux “soit disant” toujours plus beaux mais avec les mêmes contraintes techniques.



Personnellement les belles textures, c’est bien, mais ce qui me fait vibrer aussi c’est tout ce qui va autour : effets de lumière, physique, particule, opacité, tesselisation… etc etc… bref ! De la puissance de calcul, merde ! <img data-src=" />


votre avatar







HarmattanBlow a écrit :



D’accord, visiblement ça concerne la PS3 et son Cell initialement sous-utilisé. Ce que tu dis est vraisemblable. Cela dit le cas est un peu particulier et si tu peux déporter quelques opérations ici et là vers le GPU, il y a une limite à ce qu’on peut faire et le CPU reste fondamentalement une bête très différente du GPU.





Ca concerne pas que la PS3. On le faisait déjà avant et même sur xbox il y a pas mal de choses déportées sur le CPU dans certains jeux.



La PS3 était un concept jusqu’au boutiste dans la mesure ou le CELL a presque été pensé comme un second GPU au prix de scores ridicules en matières d’entiers( et d’autres goulots d’étranglement qui le rende complexe à programmer ).


votre avatar







HarmattanBlow a écrit :



Sauf qu’il ne faut pas s’y tromper : cette mémoire unifiée et ce faible CPU sont un facteur d’économie, pas de performances. La facilité à faire communiquer GPU et CPU pourrait se révéler intéressante pour quelques scénarios (*) mais la majorité du temps ce ne sera qu’un moyen de pallier à la faiblesse de ce CPU bas de gamme couplé avec sa mémoire inadaptée.



En le présentant comme un facteur de performances tu te trompes : peu importe que la PS4 soit dédiée au jeu, la GDDR handicapera le CPU. Ce choix d’une mémoire unifiée et d’un faible CPU est une décision de raison permettant de faire de jolies économies au prix d’un peu de performances.



(*) Rarement bénéficiaire pour le jeu mais plus souvent pour les calculs scientifiques ! La PS4 pourrait, comme son ancêtre, redevenir la meilleure amie de folding@home.





Non, le CPU n’est jamais utilisé comme un GPU bis, quel que soit le sens que tu veuilles donner à ça. En revanche le GPU est parfois utilisé pour soulager le CPU, mais cela ne permet pas pour autant d’en faire un CPU bis.







Faible CPU? Il ne faut pas non plus exagérer


votre avatar







Alucard63 a écrit :



La, je ne comprend pas en quoi le GPGPU peut remplacer le CPU mis à part pour les parties physiques et graphiques. Autant l’inverse est possible(avec de grosses limites…on sort pas 2TFlops d’un octocore Jaguar ni d’un core i7 d’ailleurs <img data-src=" /> ) autant dans ce sens je ne comprends pas.





Pour simplifier un CPU passe 90% de son temps dans 10% du programme (voire 99-1). L’idée c’est de voir quels algos sont mis en oeuvre dans ces 10% et tenter d’imaginer des approches parallèles. Le pathfinding peut être parallélisé, tout comme la détermination des objets visibles, etcétéra. C’est plus compliqué (plus cher et source de bogues), ça bouffe des ressources GPU et de la VRAM, mais enfin si tu es limité par le CPU comme sur la PS4, pourquoi pas ?



Par contre ça veut dire plus d’aller-retours entre CPU et GPU : parce que souvent tu extraies d’un gros algorithme quelques étapes parallélisables et le CPU demeure le chef d’orchestre entre ces étapes. Or la latence CPU-GPU peut être un problème pour du GPGPU mais la mémoire unifiée allège ce problème sur la PS4. Pas sur le PC, d’où l’intérêt de rester sur le CPU.



Au passage concernant la physique, en dépit des arguments marketing de NVidia, la déporter sur le GPU est loin d’être une bonne idée en général, à moins de vouloir faire des choses infaisables sur le CPU. Sinon on choisira plutôt de faire la physique sur le moins sollicité des deux parmi le CPU et le GPU, et c’est souvent le premier sur PC.







AxelDG a écrit :



Ne t’attends pas à voir des jeux qui utilisent toute la VRAM demain car vu comment les éditeurs ont fait chier les utilisateurs PC depuis des années, ça m’étonnerait bien que ça arrive aussi rapidement même pour les consoles Next Gen.





Je ne vois aucune raison de ne pas utiliser toute la VRAM dès lors qu’elle sera là. Ça n’est pas très difficile et les moteurs existent déjà pour en tirer partie.





Personnellement les belles textures, c’est bien, mais ce qui me fait vibrer aussi c’est tout ce qui va autour : effets de lumière, physique, particule, opacité, tesselisation… etc etc… bref ! De la puissance de calcul, merde ! <img data-src=" />



Plus de mémoire pour les textures, ça ne sert pas seulement à avoir des textures de plus haute résolution. Ça sert aussi à augmenter le nombre de textures par objet pour de meilleurs modèles d’illumination, plus sophistiqués.



Pour moi ces 8Go de VRAM ne sont pas un cache-misère mais bien une nécessité et l’annonce est une très bonne nouvelle. Et d’après les communiqués de plusieurs dévs de jeux vidéos, je ne me trompe pas.





Et puis sur PC on a l’option changement de Carte Graphique à 150€ quand il sera temps.



Tout à fait. Et ces cartes seront vite disponibles : six mois après la sortie de la PS4 les capacités de production de la GDDR5 seront dispos et feront chuter les prix.







Nithril a écrit :



Faible CPU? Il ne faut pas non plus exagérer





AMD parlait de 15% de perfs de plus que Bobcat, donc le mot “faible” est approprié.


votre avatar







Nithril a écrit :



Faible CPU? Il ne faut pas non plus exagérer





Un coeur Jaguar fait 15% de mieux qu’un bobcat à fréquence égale( sur quoi on sait pas..mais on va supposer que c’est pour tout ). Comme il a un pipeline plus long AMD parle de +10% de gain en fréquence( cf AMD ). Donc disons +25% dans le meilleur des cas qu’un bobcat avec le même TDP.



Le problème c’est que bobcat c’est pas vraiment unefoudre de guerre.<img data-src=" />



Donc même si tu en mets 8…c’est pas un CPU qui poutre.<img data-src=" />


votre avatar







Alucard63 a écrit :



Un coeur Jaguar fait 15% de mieux qu’un bobcat à fréquence égale( sur quoi on sait pas..mais on va supposer que c’est pour tout ). Comme il a un pipeline plus long AMD parle de +10% de gain en fréquence( cf AMD ). Donc disons +25% dans le meilleur des cas qu’un bobcat avec le même TDP.



Le problème c’est que bobcat c’est pas vraiment unefoudre de guerre.<img data-src=" />



Donc même si tu en mets 8…c’est pas un CPU qui poutre.<img data-src=" />







Qui poutre non. Faible non plus, je qualifie de faible un atom.


votre avatar







HarmattanBlow a écrit :



Je ne vois aucune raison de ne pas utiliser toute la VRAM dès lors qu’elle sera là. Ça n’est pas très difficile et les moteurs existent déjà pour en tirer partie.







C’est mal connaître les éditeurs…

Ça fait plus de 5 ans que sur PC les textures ne représentent pas la moitié de ce que les machines (PC) sont capables de faire.

Maintenant, s’ils ne choisissent pas de se caler sur la WII U bien vous en fasse.



Heureusement quelques éditeurs ont compris que le PC est non seulement l’origine de dizaine d’éditeurs émérites, d’une vitrine pour leurs futurs hits mais aussi du meilleur environnement de développement actuel et commence à mieux considérer leurs utilisateurs.

Les temps changent…


votre avatar







HarmattanBlow a écrit :



Non, la bande passante entre RAM et CG est trop lente (500Mo par 1/60ème de seconde), tu dois avoir en VRAM tout ce qui est nécessaire au rendu d’une seule image. La RAM ne sert que pour les infos non-destinées à l’affichage et éventuellement pour stocker ce qui n’est pas encore visible. Or plusieurs jeux PS4 utiliseront vraisemblablement plus de 2Go de données par rendu.









Sans doute que l’affichage des jeux en 4K y sera pour quelue chose nan ?


votre avatar







Nithril a écrit :



Qui poutre non. Faible non plus, je qualifie de faible un atom.





Le soucis c’est que quand la PS4 sortira les ATOM Out of Order vont aussi sortir…et ils seront normalement du niveau d’un Jaguar( mais 4 coeurs pas 8, ok… ).<img data-src=" />


votre avatar







Alucard63 a écrit :



Le soucis c’est que quand la PS4 sortira les ATOM Out of Order vont aussi sortir…et ils seront normalement du niveau d’un Jaguar( mais 4 coeurs pas 8, ok… ).<img data-src=" />







Cela reste au demeurant (si on en croiten.wikipedia.org Wikipedia 2.5x plus puissant que le xenon de la 360, mais il est vrai que ramené au coeur, 5%


votre avatar







AxelDG a écrit :



C’est mal connaître les éditeurs…

Ça fait plus de 5 ans que sur PC les textures ne représentent pas la moitié de ce que les machines (PC) sont capables de faire.





Parce que les jeux sont calés sur la PS3.





Heureusement quelques éditeurs ont compris que le PC est non seulement l’origine de dizaine d’éditeurs émérites, d’une vitrine pour leurs futurs hits mais aussi du meilleur environnement de développement actuel et commence à mieux considérer leurs utilisateurs.

Les temps changent…



C’est aussi une plateforme où les taux de piratage sont de 90% et les ventes dix fois inférieures à celles des consoles.









manany a écrit :



Sans doute que l’affichage des jeux en 4K y sera pour quelue chose nan ?





En fait, non : que le rendu se fasse en 1080p ou davantage, on envoie les mêmes données au GPU, la bande passante du PCIe ne fait donc pas de différence. En revanche le travail pour le GPU et la bande passante entre la carte et le moniteur en sont affectés : plus de pixels à calculer et à transmettre.



On ne peut même pas attribuer à la hausse des résolutions le besoin en textures plus fines : ce besoin existait avant cela et aujourd’hui la hausse des résolutions se fait en aghrandissant les écrans, si bien que l’utilisateur s’éloigne de l’écran et que la pixellisation perçue demeure identique à textures constantes.


votre avatar







HarmattanBlow a écrit :



En fait, non : que le rendu se fasse en 1080p ou davantage, on envoie les mêmes données au GPU, la bande passante du PCIe ne fait donc pas de différence. En revanche le travail pour le GPU et la bande passante entre la carte et le moniteur en sont affectés : plus de pixels à calculer et à transmettre.







“Normalement” le passage à 4k est l’occasion d’avoir un rendu plus détaillé, sinon autant rester en 1080 et faire du upscaling ;)


votre avatar







Nithril a écrit :



Cela reste au demeurant (si on en croiten.wikipedia.org Wikipedia 2.5x plus puissant que le xenon de la 360, mais il est vrai que ramené au coeur, 5%





C’est largement mieux que la génération précédente.



Mais on ne pouvait pas faire un processeur triple coeur à 3.2 Ghz en 2005 sans faire d’énormes concessions.<img data-src=" />



Les coeurs du xenon sont extrêmement simples, même par rapport à un processeur de 2005 comme le P4 ou l’Athlon 64.<img data-src=" />


votre avatar







HarmattanBlow a écrit :



C’est aussi une plateforme où les taux de piratage sont de 90% et les ventes dix fois inférieures à celles des consoles.







Discours débile TF1/Hadopi dont les statistiques ont démontré le contraire récemment et si tu veux mon avis.

Si tu veux pirater sur XBox ou sur PS3, c’est aussi largement possible… sauf que le public est trop… aller je vais lâcher le mot… trop con pour le faire.



Aujourd’hui le PC est reconnu comme une des plateforme les plus rentables.


votre avatar

ah c’est pour ca qu’ils nous pondaient que des merdes buggées à la sortie ?

Le prix lui par contre, était le même.



Ptet qu’ils vont commencer à sortir des jeux complets et voir moins de DLC a J+7 de la sortie car ca c’est du non respect des consommateurs a mon avis

votre avatar







Alucard63 a écrit :



Le soucis c’est que quand la PS4 sortira les ATOM Out of Order vont aussi sortir…et ils seront normalement du niveau d’un Jaguar( mais 4 coeurs pas 8, ok… ).<img data-src=" />





En même temps c’est logique, sony ne peut pas acheter du matériel à 2000€ pour les revendre sous forme de PS4 à 400€. Donc il faut faire aussi des concessions sur ce terrain.



Par contre vous voulez dire que jaguar est moins puissant que mon I7 920 ?


votre avatar







metaphore54 a écrit :



Par contre vous voulez dire que jaguar est moins puissant que mon I7 920 ?





Bah oui.<img data-src=" />


votre avatar

Si ça peut permettre d’avoir moins de daube de la part d’Ubisoft (qui compte beaucoup sur leurs jeux développé dans des studio chinois pour pas un rond (nul au passage) et vendre ça plein pôt…



(Et AS peut en faire parti, ils pourraient faire mieux quand même, c’est beau ok, mais à part ça…)



Peut être plus facile de nous vendre des DLC pourri ? <img data-src=" /> (enfin, mis à part le bout d’histoire qui est un DLC)

votre avatar

@HarmattanBlow



Tu penses que grâce à la PS4, on aura bientôt (GTX 7XX / HD 8XXX?) des GPU pour PC avec 8Go de VRAM, sans pour autant exploser son porte monnaie ?



En tout cas c’est une bonne nouvelle que la PS4 (et future Xbox) va probablement donner un bon coup de fouet graphique pour les prochain jeux.

Enfin j’espère, parce que depuis Crysis sorti en 2007, (presque 6 ans déjà :o) l’évolution n’est pas si flagrante..



Bien que n’étant absolument pas expert, je confirme le fait que ça risque de ramer sévère un jeu PS4 porté sur pc qui demande disons 6-7 Go de VRAM pour des réglages maximum ! à moins d’avoir une TITAN <img data-src=" />



Parce que je suis passé d’une GTX 660 Ti 2Go (fortement OC) à une GTX 670 4Go et ce surplus de VRAM ne me sert que pour Skyrim que j’ai beaucoup “moddé” et qui regorge donc de textures 4k.

Sur ma GTX 660 Ti j’avais d’énorme freeze, et ça ramait sévère par endroit. La mémoire consommé par Skyrim, en extérieur, était constament à plus de 1700Mo et souvent à 2000Mo alors même que je ne suis qu’en 1920x1080 et que je n’ai pas de MSAA activé (mais FXAA oui).

Mais depuis, avec ma GTX 670 4Go il n’y a plus aucun ralentissement/freeze c’est 100% fluide :o et je dépasse facilement les 2048 Mo de VRAM utilisée toujours sans MSAA.

Donc dans ces conditions, même une GTX 680 2go (fortement OC) aurait du mal à s’accommoder face à ma GTX 670 4Go.

Et si je comprends bien le même scénario pourrait s’appliquer à la 690 qui n’a que 2Go de RAM par GPU interfacés en 256bits chacun.

votre avatar







Nithril a écrit :



“Normalement” le passage à 4k est l’occasion d’avoir un rendu plus détaillé, sinon autant rester en 1080 et faire du upscaling ;)





Mais augmenter la résolution améliore bien plus le jeu que de simplement faire de l’upscaling. Essaie dans n’importe quel jeu.



Et puis ce que j’ai essayé d’expliquer c’est que la taille idéale pour les textures ne se mesure pas en “pixels de texture / pixels d’écran” mais en “pixels de texture / angle de vision de ton écran”. En effet, si à texture et résolution égales je recule le moniteur, le résultat est bien moins pixellisé. C’est ce qui permet aux consoles de garder un air potable sur des TV en 720x560 par rapport à nos 1920*1080.







AxelDG a écrit :



Discours débile TF1/Hadopi dont les statistiques ont démontré le contraire récemment et si tu veux mon avis.





Avant de m’insulter regarde les chiffres. Tiens, Skyrim, ce jeu infiniment meilleur sur PC, qu’ils s’agisse des graphismes, de la disponibilité des mods, des temps de chargement, ou de la console en cas de bogue qui te coincerait. Ventes sur PC ? 14% ! Seulement !



Masse Effect 3 ? 8% pour le PC ! Battlefield 3 ? Entre 10% et 15%, ce qui a valu à EA un commentaire sur les ventes étonnamment élevées, selon leurs mots !





Si tu veux pirater sur XBox ou sur PS3, c’est aussi largement possible… sauf que le public est trop… aller je vais lâcher le mot… trop con pour le faire.



Et c’est ce qui explique, en partie (le piratage ne fait pas tout), les meilleures ventes sur consoles et le fait que les éditeurs ciblent davantage cette plateforme.





Aujourd’hui le PC est reconnu comme une des plateforme les plus rentables.



Source ? Car ce qui tire le marché PC vers le haut aujourd’hui ce sont les f2p et les jeux casus, pas vraiment ce qui nous intéresse n’est-ce pas ?


votre avatar

Il doit y avoir un truc que j’ai pas pigé



On a toujours, toujours dit qu’avoir trop de RAM sur un GPU était inutile parce que de toute façon, le proco du GPU n’avait pas le temps de traiter toute l’information et que bref cette RAM était gaspillé.



ALors pourquoi sur ce coup ci ce ne serait plus vrai ?

votre avatar







manany a écrit :



Tu penses que grâce à la PS4, on aura bientôt (GTX 7XX / HD 8XXX?) des GPU pour PC avec 8Go de VRAM, sans pour autant exploser son porte monnaie ?





A mon avis sans aucun doute ! Les usines seront forcément là et six à douze mois après la sortie de ces consoles les capacités de production seront disponibles et les prix chuteront.



Cela dit je ne suis pas un spécialiste des questions de prix et autres. D’ailleurs je l’ai dit ailleurs et je le rappelle à l’occasion mais je ne bosse pas dans le JV. En revanche je suis développeur et j’ai bossé sur des moteurs de rendu pour d’autres usages.





Et si je comprends bien le même scénario pourrait s’appliquer à la 690 qui n’a que 2Go de RAM par GPU interfacés en 256bits chacun.



Je connais mal le marché des CG mais si j’ai bien compris ta carte la moins puissante avec 4Go ramait moins sur ton Skyrim ultra-moddé que la plus puissante avec seulement 2Go ? Alors en effet c’est exactement le même phénomène que ce qui se passerait en essayant de faire tourner tel quel un jeu PS4 sur un PC blindé mais avec moins de 8Go de VRAM : les données n’arriveraient pas assez vite au GPU, celui-ci se tournerait les pouces et le jeu ramerait.







von-block a écrit :



On a toujours, toujours dit qu’avoir trop de RAM sur un GPU était inutile parce que de toute façon, le proco du GPU n’avait pas le temps de traiter toute l’information et que bref cette RAM était gaspillé.



ALors pourquoi sur ce coup ci ce ne serait plus vrai ?





Personne de sérieux n’a jamais dit ça en fait. ^^

En fait, grosso modo, il n’y a aucun lien entre performances et taille des textures, tant que ta VRAM peut tout contenir (je simplifie).

En revanche, aujourd’hui, il est inutile d’avoir beaucoup de VRAM car les jeux n’en ont pas besoin. Et pour cause : ils ont tous été conçus pour tourner sur des PS3 avec 256Mo de VRAM.


votre avatar

Alors pour résumer les dev viennent de découvrir ce qu’est un pc allo ont est en 2013 tu capte <img data-src=" />

Puis a chaque nouvelle consoles, ils nous font génial cette machine après dans 1 ans elle sera naze le gpu est pas assez puissant alors ont va faire des bouses c’est pas de notre faute .

votre avatar







HarmattanBlow a écrit :



Avant de m’insulter regarde les chiffres. Tiens, Skyrim, ce jeu infiniment meilleur sur PC, qu’ils s’agisse des graphismes, de la disponibilité des mods, des temps de chargement, ou de la console en cas de bogue qui te coincerait. Ventes sur PC ? 14% ! Seulement !







Mon but n’était pas de t’insulter mais plus de citer des faits bien réels



Le discours Hadopi qui est de mettre tous les vices du monde sur cette pratique sera terminé dans quelque mois…

Pour les retardataire, le rapport Lescure a des chances de montrer la vérité des faits.

ET pour me citer comme exemple, je suis capable de pirater des 10aines d’oeuvres par an mais j’en achète autant !

LA EST LE PROBLEME ! LES PLUS GROS PIRATES SONT AUSSI LES PLUS GROS CONSOMMATEURS.

Hadopi s’en aperçoit après avoir chié et s’être essuyé les pieds sur la plupart d’entre eux…

Maintenant, va venir la contrepartie… et ils l’ont déjà bien sentie… mais ils vont se faire rouler et même chier dessus comme jamais…


votre avatar







von-block a écrit :



On a toujours, toujours dit qu’avoir trop de RAM sur un GPU était inutile parce que de toute façon, le proco du GPU n’avait pas le temps de traiter toute l’information et que bref cette RAM était gaspillé.





Je reviens là-dessus : on disait ça aux débuts des cartes 3D et c’était vrai à l’époque. La différence c’est qu’en ce temps-là les unités de texture et (surtout) le cache associé pesaient encore lourd dans la conception du GPU et étaient un facteur limitant. Aujourd’hui on s’en cogne parce qu’en principe ça ne pèse plus très lourd et qu’il y a tout ce qu’il faut de ce côté (dans les limites du raisonnable) alors que le gros de la puce et de son coût est occupé par les unités de traitement des shaders.









AxelDG a écrit :



Mon but n’était pas de t’insulter mais plus de citer des faits bien réels





Ce que tu me donnes-là c’est le volume du jeu PC tout compris, de farmville à Skyrim en passant par le jeu flash.




  1. Est-ce c’est ce dont nous parlons ? Est-ce que c’est ce qui nous intéresse personnellement ? Non, nous nous sommes intéressés par autre chose.

  2. Volume de ventes n’est pas rentabilité. Je sais que l’auteur de l’article a fait la même faute mais bon…

  3. Le fait est que lorsqu’un jeu est dispo sur PC/PS3/XBox, le PC tourne en moyenne à 10% des ventes.





    Le discours Hadopi qui est de mettre tous les vices du monde sur cette pratique sera terminé dans quelque mois…



    Autant le discours “c’est la faute du piratage” est faux, autant le discours “le piratage n’a rien à voir avec ça” l’est autant.


votre avatar







HarmattanBlow a écrit :



Autant le discours “c’est la faute du piratage” est faux, autant le discours “le piratage n’a rien à voir avec ça” l’est autant.







Et le discours : une bonne partie de pirates ont aussi un côté mécènes tu en penses quoi ?


votre avatar

Ce que l’article linké montre c’est qu’en moyenne un joueur PC rapporte plus qu’un joueur console. C’est juste une division. Oui le publique est pas forcement le meme et il y a enormement de jeu pas consideré comme noble (facebook, f2p, jeux sur portable/tablette…), mais chose amusante, les consoles vont aussi vers ce public :




  • voir les appels du pied de Sony aux F2P, aux Independants, ..

  • voir le fait que MS veut unifier son ecosysteme a travers win8 pour capter le public mobile deja present sur telephone/tablette



    Le PC est tres loin d’etre moribond meme si minoritaire dans les ventes en terme de volume.



    Le succés de Steam le montre mais aussi des systemes equivalents (meme origin c’est dire).

votre avatar







HarmattanBlow a écrit :



Je reviens là-dessus : on disait ça aux débuts des cartes 3D et c’était vrai à l’époque. La différence c’est qu’en ce temps-là les unités de texture et (surtout) le cache associé pesaient encore lourd dans la conception du GPU et étaient un facteur limitant. Aujourd’hui on s’en cogne parce qu’en principe ça ne pèse plus très lourd et qu’il y a tout ce qu’il faut de ce côté (dans les limites du raisonnable) alors que le gros de la puce et de son coût est occupé par les unités de traitement des shaders.







Hey bien



Merci


votre avatar







AxelDG a écrit :



Et le discours : une bonne partie de pirates ont aussi un côté mécènes tu en penses quoi ?





Et les pirates sont-ils aussi plus sexy, plus intelligents et généreux ?



A mon avis tu poses la question parce que tu as sous la main une étude qui montrerait que ceux qui piratent le plus feraient plus de mécénat. Sauf que ceux qui piratent le plus sont aussi les plus gros consommateurs (légaux ou pas) et donc les plus intéressés et que cette étude ne compare pas à niveau de consommation égal. J’ai bon ?



Car à niveau de consommation égal, je serais surpris qu’ils fassent plus de mécénat, ne serait-ce que parce qu’ils sont en moyenne plus pauvres et plus radins. Quant à leur comportement à revenu et niveau de consommation égal, à mon avis un plus fort taux de piratage conduit à moins de mécénat. De mon expérience c’est la capacité à sortir la CB qui prime : à capacité égale tu as le réflexe de payer ou non.







yeagermach1 a écrit :



Ce que l’article linké montre c’est qu’en moyenne un joueur PC rapporte plus qu’un joueur console. C’est juste une division.





Non, relis le titre du graphique, c’est le volume total et non pas par joueur, et l’échelle de gauche est en milliards de dollars (précisé dans le titre).



En revanche le marché PC est effectivement loin d’être moribond, au contraire des marchés consoles (en attendant les PS4 & co). Même le jeu “pour nous” s’y porte mieux qu’ailleurs, mais sans doute du fait du creusement du gap avec les consoles.


votre avatar







Reparateur a écrit :



des jeux de merde il y a en a toujours eux



et franchement pour moi les jeux console des année 80-90 c’est majoritairement de la merde dsl



et niveau repompage de truc en boucle on ne pouvais guère faire pire





Pourtant ça reste la période la plus faste avec de bonnes idées, des jeux originaux, des tours de force incroyable pour tirer le meilleur des machines et dépasser les limites…



Aujourd’hui on a des suites de suites de suites puis des reboots, ça fleure autant l’innovation qu’au ciné…


votre avatar

C’est dommage que la config ne soit pas vraiment innovante.



Un nouveau GPU et CPU plutôt qu’un dérivé aurait été le bienvenue tout en gardant une architecture proche du PC.

votre avatar







Ler van keeg a écrit :



Pourtant ça reste la période la plus faste avec de bonnes idées, des jeux originaux, des tours de force incroyable pour tirer le meilleur des machines et dépasser les limites…



Aujourd’hui on a des suites de suites de suites puis des reboots, ça fleure autant l’innovation qu’au ciné…









disont sur console quelque jeux majeurs, pas mal de tour de force technique et après 90% de merde



certain on la mémoire courte

c’est sur quand on est gamin on s’extasie devant le moindre bhonome qui saute





après sur PC j’ai vu beaucoup beaucoup plus d’innovation et de jeux intéressant


votre avatar







Kokusho a écrit :



Là ou ça va piquer pour les PC c’est quand les développeurs vont s’amuser à se servir des 8gb de GDDR5 de la PS4… Sur PC avec nos 2gb max ca va faire tout drôle…



Mais bon je me fais quand même pas trop de soucis, y’aura surement une autre façon de faire. Pas de raison qu’une GTX680 soit à la rue juste à cause de ça.





Attention : les 8 GB correspondent à la mémoire vive (RAM) + GPU. La PS4 (et à priori la xBox 720 sera aussi dans ce cas) utilise sa RAM centrale, certes performante pour son GPU. Un peu à la manière d’un GPU Intel intégré à la CM. En gros, un PC doté de 8 Go de RAM et de 8 Go de VRAM est mieux doté.


votre avatar







Gilbert_Gosseyn a écrit :



Attention : les 8 GB correspondent à la mémoire vive (RAM) + GPU. La PS4 (et à priori la xBox 720 sera aussi dans ce cas) utilise sa RAM centrale, certes performante pour son GPU. Un peu à la manière d’un GPU Intel intégré à la CM. En gros, un PC doté de 8 Go de RAM et de 8 Go de VRAM est mieux doté.





Le soucis c’est qu’une CG avec 8Go de VRAM ça existe pas encore.



Le max actuel c’est 6Go sur une GTX Titan( qui par contre a un GPU qui explose celui de la PS4 ) et pour le prix de la carte tu t’achètes 2 PS4.<img data-src=" />


votre avatar







Reparateur a écrit :



disont sur console quelque jeux majeurs, pas mal de tour de force technique et après 90% de merde



certain on la mémoire courte

c’est sur quand on est gamin on s’extasie devant le moindre bhonome qui saute





après sur PC j’ai vu beaucoup beaucoup plus d’innovation et de jeux intéressant







Les innovations sur PC tiennent essentiellement aux politiques non incitatrices de Microsoft, Sony, Nintendo.





votre avatar







Gilbert_Gosseyn a écrit :



Attention : les 8 GB correspondent à la mémoire vive (RAM) + GPU. La PS4 (et à priori la xBox 720 sera aussi dans ce cas) utilise sa RAM centrale, certes performante pour son GPU. Un peu à la manière d’un GPU Intel intégré à la CM. En gros, un PC doté de 8 Go de RAM et de 8 Go de VRAM est mieux doté.







Mieux doté certes mais avec les inconvénients d’une mémoire non unifiée/partagée.


votre avatar







Nithril a écrit :



Mieux doté certes mais avec les inconvénients d’une mémoire non unifiée/partagée.





Quand les mémoires séparées sont &gt;= à la mémoire unifiée en termes de volume c’est déjà moins grave( plus chiant pour le partage de données GPU/CPU par contre ).



Le vrai problème c’est la mémoire façon PS3: 256 de VRM 256 de mémoire principale contre 512 de GDDR3 unifiée sur Xbox. La mémoire façon PS3 qui n’est pas souple, les devs n’en veulent pas.<img data-src=" />



La technique doit être un moyen qui s’adapte au jeu qu’ils veulent créer, pas une limitation à la créativité. Donc ils veulent de la souplesse.<img data-src=" />


votre avatar







Alucard63 a écrit :



Quand les mémoires séparées sont &gt;= à la mémoire unifiée en termes de volume c’est déjà moins grave( plus chiant pour le partage de données GPU/CPU par contre ).



Le vrai problème c’est la mémoire façon PS3: 256 de VRM 256 de mémoire principale contre 512 de GDDR3 unifiée sur Xbox. La mémoire façon PS3 qui n’est pas souple, les devs n’en veulent pas.<img data-src=" />



La technique doit être un moyen qui s’adapte au jeu qu’ils veulent créer, pas une limitation à la créativité. Donc ils veulent de la souplesse.<img data-src=" />







Les devs sont des feignasses… ou pas… <img data-src=" />


votre avatar







Reparateur a écrit :



je ne te juge pas je constate juste







C’est tout à ton honneur, moi je te juge <img data-src=" />


Développer sur la PS4 serait une promenade de santé pour Ubisoft

Fermer