je n’ai pas testé particulièrement les performances, mais sachant que l’USB2 monte au maximum a 280MB/s, c’est pas tellement loins des perfs du Gb (125MB/s théorique)
Je pense que tu voulais plutôt dire 280Mb/s, ou 35MB/s, ce qui est tout de même bien plus que 3 fois moins rapide que du Gb en ethernet
Si les consoles n’existaient pas, les Bioshock et/ou Batman n’existeraient pas parce qu’ils ne seraient pas rentable.
C’est donnant donnant entre les deux plateformes, et surtout un choix de l’éditeur du jeux de bien faire son boulot ou pas.
Tu me fais penser à un mec qui achèteraient une Ferarri et qui se plaindrait que les autoroutes sont limitées à 130.
J’entends ce même refrain depuis l’époque de 3Dfx avec les api Glide.
Si t’es pas content, claque pas ton fric dans des système hyper cher sous exploitées.
La faute des consoles… " />
Je sais bien que c’est un choix de l’éditeur, mais tu fais en sorte de satisfaire tout le monde (bien que je comprenne qu’il y ait des impératifs financiers).
Bien heureusement, mon PC ne me sers pas qu’à jouer, je fais aussi du dev et de la MAO, j’ai pas dépenser 1100€ juste pour un PC de jeu ^^.
Mais malgré tout, je trouve dommage que les développeurs ne poussent pas un peu plus leur jeu sur PC, ça ne peux qu’attirer du monde supplémentaire et plus satisfaire leurs clients. Je prend en exemple le dernier Bioshock. Le jeu est excellent à tout point de vue, mais il y a des soucis de latence assez énorme sur PC, et un patch qui corrige partiellement le soucis vient à peine de sortir (8 semaines après la sortie du jeu). Aucun problème sur console par contre.
Le
23/05/2013 à
16h
05
killerbs007 a écrit :
Oui c’est ce qui a fait la force de crytek, mais je pence que si le 1 tourne si mal sur petite config c’est parce que tout les modélisation son en high poly…. il on un peu fait les bourrins, a tu tester le crysis warhead en low, car il utilise exactement la même mouture du moteur graphique a quelque optimisation près, par contre tout les objet son en low poly.
moi perso je joue toujours sur tout les jeux en full et en 1080p avec un écran 120hz (je vais même augmenter un peu plus dans le panneau de contrôle de nvidia parfois tu a des effet qui ce débloque que tu ne verra jamais sur une console malheureusement), du coup ca me fait toujours mal au cœur de jouer sur console.
Je comprend ton point de vue :), possédant moi-même un PC de jeu et une X360, je ne peux que constater la différence. Cependant, les joueurs PC représentent une minorité vis-à-vis des joueurs console et ce n’est pas étonnant. Beaucoup des joueurs consoles ont déjà leur propre PC pour autre chose que le jeu. Qu’est ce qui justifie pour eux l’investissement dans un nouveau PC ou une carte graphique dans le meilleur des cas, alors qu’ils peuvent acheter une console 200-250€, avec une interface sympa, que tu déballes du carton, tu poses sous la tv, tu mets ton jeu et sa fonctionne. Pas d’entretien de PC, de changement de pilotes ou autre. Ca fonctionne, ils prennent du plaisir et c’est au final le principal. Chacun y trouve son compte :)
Le
23/05/2013 à
16h
01
lossendae a écrit :
Les performances ne sont donc pas limitées par les consoles. " />
Je me demande pourquoi certains joueurs PC veulent a tous prix blâmer les consoles, quand leur jeu préféré est wow ou encore “mieux” Minecraft…
Pour ce type de jeu ce n’est pas limités par les consoles puisque ces jeux n’existent pas sur console. Les jeux multiplateformes le sont tous à 99%. Il suffit de parler avec les devs pour qu’ils te disent que la X360 ou PS3 sont les lead de développement. Le PC arrive après, avec un portage souvent à la ramasse.
Le
23/05/2013 à
15h
53
lossendae a écrit :
Conneries !
La majorité des MMO RPG ou RTS sortis sur PC sont moches comme des poux et pourtant ne sortiront jamais sur consoles.
Crysis 3 est sortit sur les consoles et PC, et le niveau est pourtant très élevé sur PC.
Ouais enfin, tu parles des MMO RPG et RTS qui sont des jeux joués à 95% sur PC et dont les ressources matérielles sont utilisées ailleurs que dans le graphisme. Ce sont aussi des jeux qui doivent être exploitable par le plus grand nombre.
OK pour Crysis 3 sur PC, mais malheureusement c’est presque l’exception qui confirme la règle. On peux aussi parler des bioshock, batman, les call of, et j’en passe…. qui sont à peine supérieur à ce qu’il y a sur console. Le jeu PC n’a pas évolué comme il aurait dû, principalement à cause des consoles, mais cela va changer dans les années à venir, avant de retrouver le même problème lorsque les PS4 et XOne s’essouffleront comme leurs grandes soeurs
Le
23/05/2013 à
15h
38
killerbs007 a écrit :
Il me semble que c ‘est le même moteur graphique qu’il on utiliser pour le 2 et celui si, en tout cas sur console. sur pc, les deux moteur graphique non rien a voir…
Farcry avec le patch en version 64 bit quelle révolution pour l’époque !!!
Oui, Crysis sur console utilise le CryEngine 3 (et le CryEngine 2 sur PC). Ca n’empêche qu’un jeu PC ne propose pas toujours une meilleure qualité graphique en faible qu’une console " />.
Parfaitement d’accord pour Far Cry, c’est vrai que c’était assez impressionnant, mais très très lourd !
Le
23/05/2013 à
15h
29
sooN a écrit :
Je me base sur ces 6 dernières années, les jeux n’ont pas évolués de manière conséquente et si les développeurs gardent ce rythme je pense effectivement que dans plusieurs années je ferai encore tourner les nouveaux jeux au maximum ( dans le pire des cas je vais un SLI et sur plusieurs années c’est rentable d’avoir à acheter qu’une seule carte graphique ).
Les jeux n’ont pas évolué de manière conséquente parce que les consoles actuelles ont nivelé la qualité par le bas. Avec les nouvelles consoles cela risque de fortement changer et nos PC bas/moyen de gamme suffisant depuis 2-3 ans à cause d’une faible évolution vont prendre très cher dans les années à venir, j’en met ma main à couper.
Le
23/05/2013 à
15h
27
Jean_Peuplus a écrit :
le truc c’est que même avec un PC bas de gamme, nous PCiste on aime bien jouer en résolution native. et pas avoir un rendu dégueulasse en 720p
C’est clair que le 720p sur PC ça craint, mais (pour ma part en tout cas) mon écran de PC se situe à 70cm de moi alors que ma TV à 2m. C’est difficile à l’oeil nu, de faire une différence en jeu entre un 1080p à 50-70cm et un 720p à 1,5-2m.
Le 30FPS constant sur les consoles me dérange un peu plus par contre :)
Le
23/05/2013 à
15h
25
killerbs007 a écrit :
tu peu pas comparé crysis !!!! la version console et la version pc ne sont pas du tout sortit en même temps …..sur pc il est de 2007 et sur ps3 2011 faut arrêter de fumer la moquette
Et alors il est où le soucis ? Un Crysis sur PC en DX10 Very High fracasse tout ce qu’il y sur console graphiquement. Ce même Crysis en Low sur PC ne ressemble à rien (essaie tu verras), c’est même pas du niveau de Far Cry sorti en 2004. Même si le version console est sorti en 2011, ça reste des consoles de 2005⁄2006 et il reste plus beau que sur pc en low. Donc si ça reste comparable.
Le
23/05/2013 à
15h
21
Lafisk a écrit :
6 ans c’est clairement exagéré mais 2 voir 3 ans, non. 6ans ça te permet de tenir en setting moyen pour 95% des jeux
Même 2 à 3 ans au maximum ça me semble compliqué à moins de se contenter de 25 - 30 FPS. Il y a 3 ans, c’était la période des Radeon 5XXX et GTX4XX. Une bonne carte milieu/haut de gamme type Radeon 5850 obtient sur Far Cry 3 en Very High (il y a encore le ultra au dessus) 23FPS. Et je parle pas de BF3 ou encore Crysis 3. Donc non franchement, même 3 ans ça me semble léger. Je possède moi-même un CFX de 7850, mais je ne compte pas dessus pour jouer tout à fond durant les 3 prochaines années, ou alors je me contenterai de 30FPS, ce qui est assez dommage sur PC. Mais d’ici 2 Ans pourquoi pas.
Le
23/05/2013 à
15h
11
sooN a écrit :
Ce qu’il ne faut pas lire.. Avec mon PC actuel je vais pouvoir faire tourner tous les jeux qui vont sortir au maximum pendant 4 à 6 ans minimum. Et non les PC ne doivent pas avoir leurs jeux réglés au maximum pour qu’ils soient beaux, même en faible ça aura toujours un meilleur rendu que ces dernières consoles.
Quand tu mets un jeu au maximum c’est pour exploiter les performances de ton PC au maximum ( quand c’est bien optimisé ) mais c’est pas pour rendre le jeu “beau” car il le sera déjà en faible.
Euh… en général un jeu PC en faible est quand moins beau que sur console faut pas déconner non plus… Je prend l’exemple de Crysis premier du nom, entre la version console et la version Low, il y a un monde quand même.
Je suis curieux de savoir comment tu vas faire tourner tous les jeux dans 6 années à venir “au maximum” avec ton PC actuel.
Le
23/05/2013 à
13h
18
Magyar a écrit :
Laisser moi émettre quelques doutes. Un test a été fait entre le pci-e 2.0 et 3.0 avec des cartes graphiques haut de gamme. Et la différence maximum remarqué est de 1 fps. (Hardware.fr)
De plus, le fait d’avoir une mémoire unifier peut en effet être un avantage mais les PC ont des mémoires jusqu’à 2400MHz aujourd’hui (voir même plus…).
.
Un port PCI-E 3.0 x16 offre 16Go/s théorique de débit. Si tu veux envoyer des vertices/textures depuis la mémoire centrale vers le GPU, tu pars de la RAM via un bus qui varie de 8.5Go/s à plus de 40Go/s suivant les configurations, qui passe par le CPU puis par le bus PCI-E cité ci-dessus pour arriver au GPU qui insère ces mêmes données en VRAM avec un bus variant (en étant gentil) de 50Go/s à plus de 300 Go/s suivant la carte graphique.
Avec la mémoire unifiée (type GDDR5 dans ces consoles), le CPU envoie direct en mémoire à 176Go/s, et le GPU vient chercher ces mêmes données directement dans la même mémoire au même débit. Il y a beaucoup moins d’aller-retour, sans parler des débits monstrueux à tous les niveaux. Tu parles de mémoire jusqu’à 2400MHz aujourd’hui (en DDR3 sans doute), qui offre en Dual Channel 40Go/s en débit, on est loin de ce qui est possible ici.
La faible différence de perf entre le PCI-E 2.0 et le PCI-E 3.0 vient probablement du fait que les développeurs ne tirent pas parti de l’augmentation de bande passante puisque les configurations en PCI-E 2.0 sont encore très très courantes. La donne sera totalement différente sur console.
Bref, pour résumé, le matériel des consoles est étudié pour le jeu et uniquement pour ça. Pas le PC. Le débat de comparaison entre les deux est de toute façon stérile. Oui les PC en puissance brute seront toujours plus puissants que les consoles, mais ils savent tout faire. Pas les consoles.
J’ai l’impression surtout que ce sont les mêmes consoles et que tout se jouera sur la partie logicielle et services associés.
Le
22/05/2013 à
10h
05
CharmingShaman a écrit :
Ah d’accord! merci pour les explications " />
" />
Le
22/05/2013 à
09h
58
CharmingShaman a écrit :
Pourquoi mettre GDDR5 et DDR3 sur la même ligne? Je croyais que l’un faisait référence à la mémoire de la CG alors que le second à la mémoire vive.. Un truc que je n’ai pas compris ou bien ça n’a vraiment rien à voir?
Dans nos PC, la GDDR est utilisé dans les cartes graphiques et la DDR3 pour le CPU… Mais des cartes graphiques avec de la DDR ont existé aussi, l’un n’empêche pas l’autre.
Après, bien que ces consoles ressemblent à des PC, le matos est quand même adapté à l’usage qui en est fait, donc dans ce cas là, le CPU à un contrôleur mémoire qui lui permet d’utiliser de la GDDR et de profiter de la bande passante supplémentaire qu’elle propose.
Mais dans tous les cas, il est peu probable que la XOne utilise de la DDR3 unifiée. Ou alors sur les 8Go, il y en a par exemple 2 en DDR3 pour le système et 6Go en GDDR5 pour les jeux. Nous n’avons pas plus de détails encore, donc difficile d’en tirer des infos fiables
Le
22/05/2013 à
09h
48
Ce n’est pas de la DDR3 sur la Xbox One, c’est impossible.
Il y a de la GDDR3 à 22Go/s sur la X360, ils peuvent mettre une mémoire encore plus lente aujourd’hui, ça me parait totalement improbable !
Préférez dans ce cas le terme box multimédia… Ou truc du genre !
;) tu es pardonné :)
Le
21/05/2013 à
18h
12
deepinpact a écrit :
Rien à avoir avec une console, un HTPC, ou que sais je !!!
Un HTPC reste un PC, mais généralement dans un format plus compact…
Le
21/05/2013 à
18h
08
djshotam a écrit :
Parceque ton pc peut évoluer, et en plus tu peux graver des cd ,dvd voir blue ray
L’argument de la gravure de cd/dvd/blu-ray est… étrange. Mais le grand public (autrement dit, la cible visée par ces consoles) n’a pas le temps / l’expérience pour monter un PC et le faire évoluer. Il envie de jouer sur sa télé dans son canapé avec une manette de 15 boutons à tout casser.
Je ne suis pas pro-console, mais le jeu sur PC et sur console ne s’adresse pas aux mêmes personnes et les usages ne sont pas les mêmes
Le
21/05/2013 à
18h
04
djshotam a écrit :
Les jeux auront beau être plus performants graphiquement, il y aura toujours la limitation fps des tv… 60hz… donc 60fps…
Et ?
Aux alentours de 60FPS et plus, et pour la grande majorité des humains, ça devient très difficile de faire la différence en terme de fluidité.
60Fps sur console sera déjà une excellente chose au niveau de l’expérience de jeu par rapport aux 30Fps actuels. Mais aller au-delà ne servira à rien puisque la différence sera très minime. Autant utiliser la puissance restante pour enrichir le jeu.
Le
21/05/2013 à
17h
50
romjpn a écrit :
Mais on attend de voir tes compétences en C# ou C++ pour nous sortir un Crysis 3 qui tourne en Ultra sur 360 à 30fps " />" />
C++…. j’adore le C#, mais faut pas rêver, les jeux pro c’est en C++
Le
21/05/2013 à
17h
49
Drepanocytose a écrit :
" />" />
Je pense plutôt aux graphistes en fait…
Tout ca va demander des textures plus chiadées, des anims plus complexes, des persos plus réalistes, des “mondes” plus grands, etc…
Non ? Ca demande du peuple et du temps tout ca…..
Ca prend déjà du temps aujourd’hui et ça n’augmentera pas plus que ça pour la simple raison que les textures, persos plus réalistes etc. ils le font déjà en studio aujourd’hui avant de dégrader pour que cela fonctionne de façon performante sur le matos actuel.
En revanche, le fait d’avoir 3 plateformes (XOne, PS4 et PC) avec du matos plus ou moins commun fait que les devs gagneront du temps ailleurs
Le
21/05/2013 à
17h
38
Drepanocytose a écrit :
Jolie….
Les devs sauront-ils exploiter tant de puissance (nombre de devs nécessaire tout en restant dans un coût acceptable, etc…) ?
A priori, ils demandent que ça, beaucoup s’y sont déjà mis sur PC, ça ne devrait pas être trop compliqué de faire la même chose sur console !
Le
21/05/2013 à
17h
36
zogG a écrit :
ça reste une supposition " />
Certes, mais une bonne supposition " />
Le
21/05/2013 à
17h
33
Jean_Peuplus a écrit :
huit coeurs… utilité ?
Ben… évoluer technologiquement par rapport aux 3 coeurs / 6 threads du power pc de la x360 ?
Avec la quantité de ram associée on devrait avoir des mondes bien plus grands, et avec la puissance de calcul en plus, des mondes plus dynamiques et plus “intelligents”
Le
21/05/2013 à
17h
33
zogG a écrit :
Pour y connecter ton DVR/Cable, les ricains ont tous ça.
Le vrai frein sur le runtime X64, à la base, c’est Microsoft. Pas d’un point de vue technique, mais marketing.
Tant qu’ils vendent en standard des versions 32bit de Windows…
Constat : compte le nombre de jeux avec runtime X64.
ça fait un bail que Win7 se vend en standard en version 64 bits, idem pour Win8. Mais c’est plus délicat pour XP et Vista, je te l’accorde :). Ca n’empêche que les devs pourraient faire un petit effort et fournir un petit exécutable pour 64bits (comme Crysis), il n’y a pas tout le jeu à redévelopper non plus.
Le
26/04/2013 à
13h
13
Tkop a écrit :
En mème temps les consoles actuelle bride légèrement les réalisations PC actuelle (cherchez l’euphémisme). Tu connais beaucoup de jeu qui utilisent plus de 2Go de RAM sur PC alors que ceux ci disposent 8Go de RAM sur n’importe qu’elle PC de jeux moyen?
Les Total war, Skyrim sous perfusion de mod? En tout cas pas Crysis 3 ou BF3.
Les jeux actuelles sont totalement vide d’objet et les textures sont méme pas assez grand pour servir de fond d’écran sur mon téléphone. Dans la version non modifié de skyrim sur PC à fond, tu vois encore apparaitre des forts par magie.
Et puis je n’oserais pas dire que les consoles actuelles tiennent la comparaison avec les PC: suffit de voir les creen de AC3 (j’ai absolument pas joué au jeu), mais les images de la version consolessont sacrément caca
Beaucoup de jeu n’utilisent pas plus de 2Go de ram parce que ce sont des programmes 32 bits, et windows ne leur permet pas d’utiliser plus de 2Go de RAM. Crysis en 64 bits utilisent plus de 2Go et évite d’utiliser le streaming de texture (d’où des gains de perfs d’ailleurs). Peut-être qu’avec ces nouvelles consoles cela changera. Apparemment, ce serait un processeur x86-64, ce qui ouvrira la voie aux portages 64 bits.
On peut dire ce qu’on veut sur ces nouvelles consoles, ce sera tout benef’ pour nos jeux sur PC.
nvidia94 a écrit :
Mouais à voir…
Quoiqu’il en soit, je suis pas près de remplacer mon ptit PC.
Un Core I5, 16Go de ram, et une HD7970OC 3Go… Pas sur que la PS4 fasse mieux. :)
C’est sûr :), je m’étais acheté une Xbox 360 en me disant que je n’aurai pas à maintenir un PC pour le jeu, que je pourrai jouer au fond de mon canapé avec le home cinema et que je pourrai me contenter de composants moins puissants. Aujourd’hui, je me retrouve avec un i5 3570k, 12Go de ram et un CFX de 7850 " />
Tourner.lapache a écrit :
A mon avis elle le fera car les jeux seront bien optimisés dessus.
J’espère d’ailleurs que ces optimisations profiteront aussi aux CG AMD sur PC puisque l’architecture sera assez proche
Le
26/04/2013 à
12h
44
nvidia94 a écrit :
Déjà que différents test prouvent qu’une CG PCIE 3.0 n’est pas bridé par du PCIE2 voir du 1… quel intéret?
Les CG PCIE 3.0 ne sont pas bridés parce que les applications n’utilisent pas le bus complètement pour ne pas le surcharger justement. Ou encore parce que le bottleneck ne se situe pas sur ce bus dans les tests effectués. Demain tu doubles la bande passante, les développeurs en profiteront, n’en doute pas :).
Le
26/04/2013 à
12h
05
Tkop a écrit :
Il faut esperer
Mais c’est certainement le cas, car dans un jeux video les accès mémoire sont certainement plus séquentiel que lorsque tu utilise ton PC de façon classique.
Du coup il est plus facile pour ton proc de précharger les données que tu va utiliser dans son cache et donc de limiter la latence plus élevée par la GDDR.
En fait, je pense que l’avantage va se situer surtout sur les transferts des vertices et textures vers le GPU. Dans un PC, les vertices et les textures sont stockées dans la RAM centrale, puis transférer vers la VRAM par PCI express, tu passes donc une fois par le bus de la RAM (de 10Go/s à 20Go/s suivant la fréquence de ta mémoire), puis par le PCIE (on va dire en v3.0) donc 16Go/s. Dans le cas de la PS4, le CPU transfère dans la mémoire unifiée les données à 176Go/s, et le GPU vient directement se servir dans cette même mémoire. Cela peut permettre de créer des modèles 3D bien plus détaillé que sur PC, puisque le CPU pourra envoyer plus rapidement une quantité de données plus importantes (et aussi stocker plus pour le GPU puisque les 8Go sont partagés entre les deux).
Bien que les jeux seront assez rapidement dépassé graphiquement sur PC, je pense que le bond en avant sera assez conséquent. Pour moi, le1080p@60FPS n’est pas une utopie avec ces nouvelles consoles : il y a ce qu’il faut en mémoire, en BP aussi, si le GPU est bien l’équivalent d’une HD7850 amélioré spécifiquement pour la console, avec la charge software moins lourde et les optimisations pour la console, on pourrait fortement être surpris
Le
26/04/2013 à
10h
15
Reparateur a écrit :
c’est justement là le problème
pas forcement adapté au CPU (si tu avais suivis)
si j’ai bien suivi, j’ai bien compris que ce n’est pas forcément adapté au CPU par rapport à la latence, mais il vaut mieux 176Go/s de bande passante et un peu plus de latence que 12Go/s à latence réduite (dans le cas d’une console)
Le
26/04/2013 à
10h
13
Tourner.lapache a écrit :
Yep erreur de ma part c’est 30 € par an ! " /> Ce que je voulais dire c’est que 30 x 7 ans ça fait déjà 210 € comparé à des multi gratuits sur PC ;)
et ton PC pour jouer tu le gardes pas 7 ans, tu le changes au moins une fois si eux suivre à peu près les dernièrs jeux, donc au final, je suis persuadé qu’on en revient au même, la facilité d’utilisation en plus pour les consoles
je précise aussi au cas où que je ne suis pas un pro-console nécessairement hein, j’ai une X360 mais aussi et surtout un PC de jeu avec CFX et cie, mais je trouve que les prochaines consoles ont un potentiel très intéressant et qu’elles rattraperont beaucoup de leur retard sur les PC actuels. Quand je vois déjà ce qui se fait aujourd’hui sur console avec du vieux matos, à peine 20Go/s de bande passante en mémoire, des GPU rikiki qui ne valent même pas les petits APU AMD actuel, un processeur digne des meilleurs pentium D de l’époque, en voyant l’évolution qu’il y a avec une PS4, je pense que c’est tout benef, surtout pour le prix
Le
26/04/2013 à
10h
05
Reparateur a écrit :
de la DDR
la GDDR est pour les carte graphique comme son nom l’indique
elle privilégie la bande passante mais n’est pas forcement adapté pour un CPU
Sur la PS4 c’est bien la GDDR que le CPU utilise puisque la mémoire est unifiée justement, 8Go de GDDR5 accessible à 176Go/s par le CPU et le GPU
Le
26/04/2013 à
09h
28
Tourner.lapache a écrit :
En quoi ce n’est pas comparable ? On parle de puissance brute. Et à l’époque ou la Playstation, la xbox ou la xbox 360 sont sorties, leurs puissances étaient comparable aux meilleurs PC de l’époque, quel que soit leur prix…
Après évidemment la performance de ces machines va résider dans l’équilibre entre prix, encombrement et puissance. Il faut aussi savoir que sony et MS vont subventionner à mort leurs consoles en espérant se rattraper sur les jeux, les services et les accessoires. D’où l’épineux problème de l’occasion, du piratage ou encore de linux à l’époque de la PS3.
Bref comparer le prix d’un PC et d’une console à puissance équivalente est aussi pertinent que de comparer le prix de deux smartphones dont l’un est subventionné par Orange et pas l’autre ! " />
Euh… La xbox avec son PIII à 733MHz plus puissant que les PC de 2002 ? La X360 avec son Xenon aussi puissant qu’un core 2 duo 2GHz ? sans parler du GPU qui était à la ramasse par rapport aux GeForce 88xx et radeon HD29XX sorties dans la foulée…. C’était le même problème qu’aujourd’hui !
Je comprend ce que tu veux dire par ton analogie avec les smartphones, mais la t’as pas de forfait à payer, t’achètes la console une fois et c’est ok (sans compter les jeux évidemment) mais bon pour le coup, le 3960x + le CFX de 6990 + le reste on dépasse facilement les 2000€. c’est une grosse somme tout de même. Bref, même si les constructeurs réduisent fortement leur marge, ça n’empêche que demain je vais en boutique je vois la nouvelle console à 500€ plutôt bien équipée pour le prix, bah c’est possible que j’achète. Oui il y a plus puissant, mais pour moi il faut tout le temps associer la rapport puissance/prix. Il y aura toujours plus puissant, tu peux te monter un PC avec 2 processeurs, un quad SLI et cie, oui tu dépasseras n’importe quelle console et même une grande majorité dans PC qui sortira dans les 3-4 ans à venir, mais à quel prix ?
Le
26/04/2013 à
08h
43
calimero1 a écrit :
Qui a déjà eu un prescott entre le mains se dit tout peux se refroidir en informatique, c’est la taille du ventirad qui compte!
+1
Le
26/04/2013 à
08h
29
Tourner.lapache a écrit :
A mon avis c’est la première gen de consoles qui sera battue par des PC sortis 1-2 an avant elles. Tout simplement car la mode du Crossfire/SLI ne battait pas son plein en 2005⁄2006.
Un core i7 3960X (6c/12 T) Sandy Bridge associé à 16 Go de DDR3 et un crossfire de 6990 doit déjà poutrer ces consoles. Mémoire unifiée ou non. Et pourtant la config date de fin 2011.
Et elle coute combien cette config ? rien que le 3960x coute minimum 900€… la PS4 dépassera pas 500€ à sa sortie et se trouvera à 300€ dans 2 ans. Comparons ce qui est comparable
Le
26/04/2013 à
08h
22
AngelSword a écrit :
Il y a quelque chose qui m’échappe, quelle mémoire utilise le CPU en ces cas la ?
Je ne suis pas sûr qu’un home-cinéma même de qualité puisse restituer du son en hi-fi (mais je peux me tromper). Le son télé-cinéma est par nature très compressé, histoire que le chuchotement d’un personnage ou un coup de feu soit à peu-près au même niveau sonore, alors que le son de musique est censé l’être moins (“censé”, vu la suite de ton post, pas la peine que je m’attarde).
Du coup, une installation home-cinéma est taillée pour un rendu compressé, et je me demande si elle peut rendre un vrai son hi-fi.
Le son d’un film est par définition plutôt dynamique pour justement bien nuancer les phases calmes des phases avec plus d’action. Les films qui passent à la TV ont le son compressé (la majorité des gens ont juste une tv sans installation Hi-Fi/Home Cinema donc difficile de garder le son d’origine). Il suffit de regarder un film en DVD en Dolby digital / DTS et leur équivalent HD sur un home cinema qui ne compresse pas le son pour s’en rendre compte.
Le
23/04/2013 à
14h
22
OlivierJ a écrit :
En plus de la réponse de raoudoudou (#105), j’ajoute que ça a été établi par Harry Nyquist et Claude Shannon :
« Le théorème de Nyquist-Shannon, nommé d’après Harry Nyquist et Claude Shannon, énonce que pour représenter correctement un signal analogique à numériser, la fréquence d’échantillonnage de ce signal doit être égale ou supérieure au double de la fréquence maximale contenue dans ce signal, afin de convertir ce signal d’une forme continue à une forme discrète (discontinue dans le temps) tout en conservant sa forme générale. Ce théorème est à la base de la conversion analogique-numérique des signaux. »
@azedrummer : Aucun rapport entre la fréquence d’échantillonnage et le nombre de canaux. L’échantillonnage se fait par voie, chacune (droite et gauche) étant échantillonnée à 44100 Hz, c’est pour permettre de reproduire le son jusqu’à 20 kHz (techniquement 22050 Hz mais à cause du filtre passe-bas qui n’est pas parfait on prévoit une marge afin que le 20 kHz soit lui bien présent).
La bande passante d’un CD est précisément de : 44100 Hz x 16 bits x 2 voies = 176 ko/s (ou ~ 1,4 Mb/s).
pourquoi échantillonné à 44100Hz par canal permet reproduire jusqu’à 22050Hz ? je dois louper quelquechose quelquepart… :)
Le
23/04/2013 à
12h
42
mononokehime a écrit :
44.1kHz c’est la fréquence d’échantillonnage, pas forcement la hauteur du son (qui s’exprime en hertz aussi mais n’exprime pas la meme chose) plus un son est échantillonné (découpé) plus celui ci est précis et reflète l’enregistrement audio d’origine, sachant qu’on essaye d’exprimer en 0 et 1 ce qui est a l’origine analogique, donc en théorie on n’atteint jamais réellement la qualité analogique d’un enregistrement sur vinyle mais on s’en rapproche.
En pratique une oreille humaine normale, et essentiellement le cerveau, ne s’aperçoit pas de tout ça, un non musicien n’entend pas la meme chose que quelqu’un qui a l’oreille absolu par exemple.
Oui effectivement, c’est bien la fréquence d’échantillonage mais elle fixe aussi la bande fréquence reproductible (22050 Hz dans le cas du CD). La quantité de 0 et 1 par échantillon dépend après de la résolution (16 bits dans le cas du CD)
Le
23/04/2013 à
12h
15
myahoo a écrit :
Actuellement le CD est la combinaison PCM 16 bits, stéréo, fourchette de fréquences entre 0 et 44,1 kHz.
Sachant que l’ouïe humaine est entre 20 Hz et 20 kHz, le passage à un nouveau système n’apporterait pas grand chose. L’effet 3D, la profondeur, à la limite ? Même pas, puisque cela était déjà là avec SACD et DVD audio.
En fait, la fourchette de fréquence d’un CD se situe de 0 à 22.05 KHz (la donnée technique indique 44.1kHz parce que la piste est stéréo).
Techniquement, l’oreille en elle-même peut capter les sons entre 20Hz et 20kHz (environ hein, ça change suivant les personnes et leurs expériences auditives au cours de leur vie). Après, écouter du son de se résume pas qu’à nos oreilles : les graves s’écoutent également à l’aide du thorax, et les ultrasons sont captés par notre boite craniene et permettent de mieux situer les sons dans l’espace. C’est pour raison que des formats qui montent jusqu’à 192khz (96kHz par canal). Après il faut du coup des équipements audios qui permettent de diffuser ces fréquences… et là c’est autre chose déjà :)
la mémoire unifié c’est pas ce qu’il ya une époque on appeler la mémoire partagé ya 15-20 ans sur les pc d’entrée de gamme ? qui été considérée comme le summum de l’arnaque ?sur une tour ?
oue unifié c’est plus cool que partagé …
Non, ça n’a rien voir. Ce que tu parles, ce sont les technologies “HyperMemory” chez ATI et je me souviens plus du nom chez nVidia. T’avais la mémoire de la carte graphique qui était combiné avec la mémoire centrale du PC. L’arnaque venait du fait que l’accès à la mémoire centrale par la carte graphique passait par le northbridge avec une bande passante plus faible et une latence plus élevée. Bref, c’était pas plus performant, voire même moins.
Dans le cas de la PS4 (et de la Xbox 360 actuellement), la même mémoire est accessible directement par le CPU et le GPU sur un bus commun. La bande passante est la même pour tout le monde et la latence aussi. Du coup, le GPU se comportera comme un GPU d’aujourd’hui puisqu’on se situe dans le même ordre de performance qu’une carte milieu de gamme type HD 7850, et le CPU aura un vrai coup de boost lors de l’accès à des données non en cache par rapport à celui de nos PC (du fait de la bande passante bien plus élevée).
En fait, cette PS4 (et probablement la future Xbox) ne sont pas tant dépassées que ça par nos PC pour plusieurs raisons : bien que l’architecture soit très proche d’un PC, il reste des spécificités liées aux consoles et au jeu. Cette mémoire unifiée en est l’exemple. Il y aussi des fonctionnalités matérielles (comme l’EDRAM sur la xbox 360 actuelle) qui n’existe pas sur PC et qui permettent d’accélérer certains traitements. Aussi, la plateforme matérielle étant fixe, le code pourra être fortement optimisé, spécifique à la plateforme (contraiement au PC).
Moi qui suis bien plus PC que console, je suis assez surpris et plutôt enthousiaste sur cette nouvelle génération pour 2-3 premières années d’existence. Sans être de mauvaise foi, il y a une bonne plateforme matérielle, dont les ressources sont données en priorité aux jeux, il faut voir ce que les développeurs en feront, mais je pense qu’on aura quelques surprises.
Le
13/03/2013 à
12h
35
von-block a écrit :
J’ai jamais réussi à trouver une réponse même en cherchant sur google
Si la Gddr5 est si + formidable que la ddr3
Pourquoi on ne l’utilise pas partout ?
Quelqu’un peut me vulgariser la réponse.
Pas les mêmes contrôleurs mémoire et la ddr3 est moins cher :)
Le
13/03/2013 à
11h
07
Pochi a écrit :
Uniquement à hauteur du gain réel en performance que permet la DDR5 par rapport à de la DDR3. D’ailleurs, dans ton discours, y a beaucoup de choses qui me semblent plus relever de la quantité de mémoire dispo plus que de la vitesse de trasnfert (après je suis pas expert ès textures).
Disons que les deux vont ensemble… Si t’as 500Mo de textures en VRAM, il faut aussi le débit pour que le GPU y accède rapidement. C’est pour ça que des cartes graphiques type GT640 avec 2Go de vram sont inutiles, la bande passante est ridicule vis à vis de la quantité. Même sur une radeon hd 7850 1Go suffise largement et est sous exploité par le GPU… Mais 8Go accessible à plus de 150Go/s par le CPU et le GPU, c’est du jamais vu même sur pc ( hors carte graphique profesionnelle), on peut raisonnablement penser que les dev pourront en faire bon usage :)
Alucard63 a écrit :
Pour l’antialiasing moi je parie plutôt sur la même chose que la xboite 360: de l’EDRAM encore plus rapide intégrée au GPU. Sachant que le nombre de résolutions à traiter est connu il est assez simple dimensionner une EDRAM spécifiquement pour l’antialiasing à ces résolutions.
Ca a très bien marché avec la génération précédente et ça simplifie la prise de tête sur les questions d’antialiasing( encore un avantage de la xbox par rapport à la PS3 pour les devs ), il y a pas de raison de changer AMHA." />
Je ne connais pas les détails de l’architecture GPU de la PS4, mais déjà 8Go de GDDR5 permettent d’activer l’antialiasing, mais s’ils ont mis en place l’équivalent de l’EDRAM de la xbox 360, ce serait encore mieux !! Après, l’écart de performance sera plus réduit et l’utilité moindre, à l’époque, 10Mo d’EDRAM à 256Go/s, c’était incroyable comparé au 22Go/s de la ram unifiée, mais aujourd’hui…
Le
13/03/2013 à
10h
02
Pochi a écrit :
Ca c’est la théorie. Je doute trèèès fortement qu’on multiplie les FPS par 10 sur un même jeu.
Ca ne montera pas les FPS par 10, mais cela permettra d’avoir des textures de plus hautes définitions, des modèles 3D plus détaillés, plus de modèles en mémoire pour des univers plus riches, de pouvoir passer à de la Full HD sans problèmes, utiliser l’AntiAliasing, et de faire tout ce qui nécessite de la mémoire et de la bande passante :)
Le
13/03/2013 à
09h
28
Tourner.lapache a écrit :
…
Bref on passe quand même de 256 x 2 pour la PS3 à 8 Go x 1 pour la PS4, 16 fois plus. Ca évolue plus vite que du “Moore”. D’ailleurs 256 MB + 256 MB c’était faiblard en 2007, la xbox qui avait un an de plus avait 512 MB + 512 MB.
113 commentaires
ASUS : un portable pour joueurs en GTX 770M et un Ultrabook encore plus fin
04/06/2013
Le 05/06/2013 à 07h 50
Selon EA, les consoles next-gen ont une longueur d’avance sur les PC
23/05/2013
Le 23/05/2013 à 16h 21
Le 23/05/2013 à 16h 05
Le 23/05/2013 à 16h 01
Le 23/05/2013 à 15h 53
Le 23/05/2013 à 15h 38
Le 23/05/2013 à 15h 29
Le 23/05/2013 à 15h 27
Le 23/05/2013 à 15h 25
Le 23/05/2013 à 15h 21
Le 23/05/2013 à 15h 11
Le 23/05/2013 à 13h 18
Xbox One contre la PlayStation 4 : combat de caractéristiques techniques
22/05/2013
Le 22/05/2013 à 10h 06
Le 22/05/2013 à 10h 05
Le 22/05/2013 à 09h 58
Le 22/05/2013 à 09h 48
Ce n’est pas de la DDR3 sur la Xbox One, c’est impossible.
Il y a de la GDDR3 à 22Go/s sur la X360, ils peuvent mettre une mémoire encore plus lente aujourd’hui, ça me parait totalement improbable !
Microsoft annonce la XBox One : tout ce qu’il faut savoir
21/05/2013
Le 21/05/2013 à 18h 18
Le 21/05/2013 à 18h 12
Le 21/05/2013 à 18h 08
Le 21/05/2013 à 18h 04
Le 21/05/2013 à 17h 50
Le 21/05/2013 à 17h 49
Le 21/05/2013 à 17h 38
Le 21/05/2013 à 17h 36
Le 21/05/2013 à 17h 33
Le 21/05/2013 à 17h 33
Le 21/05/2013 à 17h 28
Quelqu’un sait à quoi servira l’entrée HDMI ?
L’architecture de la PlayStation 4 décortiquée par son concepteur
25/04/2013
Le 26/04/2013 à 15h 10
Le 26/04/2013 à 13h 13
Le 26/04/2013 à 12h 44
Le 26/04/2013 à 12h 05
Le 26/04/2013 à 10h 15
Le 26/04/2013 à 10h 13
Le 26/04/2013 à 10h 05
Le 26/04/2013 à 09h 28
Le 26/04/2013 à 08h 43
Le 26/04/2013 à 08h 29
Le 26/04/2013 à 08h 22
Blu-Ray High Fidelity Pure Audio : Universal se lance le 14 mai
23/04/2013
Le 23/04/2013 à 15h 15
Le 23/04/2013 à 14h 22
Le 23/04/2013 à 12h 59
Le 23/04/2013 à 12h 42
Le 23/04/2013 à 12h 15
[MàJ] Piégée par Rémi Gaillard, TF1 s’emploie à bloquer des vidéos YouTube
19/04/2013
Le 18/04/2013 à 12h 56
Ici :) :
YouTube
3DMark est disponible sous Android
02/04/2013
Le 02/04/2013 à 14h 10
3053 avec un HTC One X sous android 4.2.2 (build AOSP) :)
L’architecture de la PS4 répond à une demande des développeurs
13/03/2013
Le 13/03/2013 à 13h 35
Le 13/03/2013 à 12h 35
Le 13/03/2013 à 11h 07
Le 13/03/2013 à 10h 02
Le 13/03/2013 à 09h 28