votre avatar

Alucard63

est avec nous depuis le 7 mars 2006 ❤️

3592 commentaires

Le 08/02/2013 à 10h 29

Call of c’est déjà pas top sur console de salon mais sur PSP vita ils ont battu des records.<img data-src=" />

Le 08/02/2013 à 10h 25







sioowan a écrit :



Comment ça un Amiga 500 non déballé?

J’achète à la découpe! !!!

Au cas ou mon A500 me lâche.





Arrête de radoter papy.<img data-src=" />



<img data-src=" />


Le 08/02/2013 à 09h 52

Il va pouvoir s’acheter une belle maison à Miami si ça se vend.<img data-src=" />

Le 08/02/2013 à 10h 19







bingo.crepuscule a écrit :



Mhhhh…



/me prends les paris, ClassicShell, Start8 et cie risquent de ne plus fonctionner après le passage à blue. <img data-src=" />





En même temps le strat screen on s’y habitue.



C’est pas si mal que ça: ça permet d’éviter mal de recherches dans des dossiers et sous dossiers.



Je persiste à penser que les programmes modern UI n’ont aucun intéret sur PC mais le nouveau start screen j’aime bien.<img data-src=" />



Note que c’est purement subjectif.<img data-src=" />


Le 07/02/2013 à 22h 37

Je précise que je suis pas un fanboy apple j’ai jamais acheté un produit de la pomme et j’ai une xbox à la maison.<img data-src=" />

Le 07/02/2013 à 22h 29







kail a écrit :



Ce n’est pas parce qu’ils sont passé faire leur spectacle chez Apple que c’était forcément prévu pour mac…Au tout début, quand ils en étaient au commencement du développement, c’était prévu pour PC…





Jamais entendu parlé d’un dev PC avant le mac. Après oui par contre je dois encore avoir un PC mag qui en parle quelque part chez mes parents..on en a pas mal parlé au moment de l’annonce de la geforce 3, mais on savait pas que le projet xbox existait à ce moment.



Mais bon OSEF ce qui est marrant c’est de voir que la plus grosse franchise vidéoludique de MS était en fait prévu pour mac.<img data-src=" />


Le 07/02/2013 à 22h 18







kail a écrit :



Apparemment, vu la source wikipedia, ça devait être une exclu PC et mac.

Mais je me souviens étant gosse que mon mag préféré (le défunt PC Soluces) parlait déjà de Halo, qui devait sortir sur PC.





C’était bien une exclu mac pas PC avant le rachat.Mais le projet a connu de nombreux rebondissements avec le rachat et le projet xbox. Ensuite ça devait être une exclu PC..puis la xbox a été lancée…



Le 07/02/2013 à 21h 02







kail a écrit :



Mais qu’est-ce qu’il ne faut pas lire…





Pourtant c’est vrai avant que MS ne rachète bungie Halo devait être une exclu mac.<img data-src=" />


Le 07/02/2013 à 21h 00







kail a écrit :



Tu te méprends.

Je parle de Microsoft. En fabriquant leur console, ils ont trahi leur communauté, allant même jusqu’à réserver des exclus initialement pour le PCmac, comme halo par exemple, à la xbox.

Vraiment dégueulasse ce qu’ils ont fait….Tout ça pour gagner plus de fric…





<img data-src=" />


Le 07/02/2013 à 10h 34







Cypus34 a écrit :



Comme dit plus tôt ils ne constateront rien du tout puisqu’ils ne verront pas les jeux sur le store. Et s’ils voient des jeux plus beaux chez leurs potes qui ont une meilleure version ils peuvent upgrader. J’ai encore vu personne râler parce qu’il pouvait pas jouer à des jeux PS3 sur sa PS2…





Sauf que pendant plus 5 ans des jeux sont sorties sur PS2 pour la PS3 on en est à 7 ans. Là avec des cycles de 1 ans on va se retrouver avec une console qui aura une durée de vie ridicule.<img data-src=" />


Le 07/02/2013 à 10h 07

1 an c’est trop court.



Le but d’une console c’est de ne pas avoir à investir tous les ans ou 2 ans dans du matos pour le particulier et avoir une plate forme de dev stable que l’on peut exploiter au max pour les devs.



Là je comprends pas trop ce qui leur prend.



Des cycle de 3 4 ans je veux bien, mais en dessous on retombe dans les travers du PC.<img data-src=" />

Le 06/02/2013 à 18h 00







Para-doxe a écrit :



Mais qu’ils fassent, qu’ils fassent.



En attendant:




  • Les outils de développement de jeux vidéo deviennent de plus en plus accessible (tant niveau coût que niveau complexité).

  • Le savoir nécessaire se partage de plus en plus sur Internet.

  • Les banques de modèles 3D librement ré-utilisable se remplissent toujours plus chaque jour.



    Le domaine du jeux vidéo va bientôt, comme le domaine de la musique et de la photo, voir apparaitre des oeuvres de qualité fêtent par des passionnés et librement partageable.



    Et là, il y aura pas photo: Entre des produits contraignants faient dans un but strictement commercial et des créations de passionnés librement partageables, les gens auront vite choisies.





    OSEF on veut jouer à Call of.<img data-src=" />


Le 06/02/2013 à 15h 23







Danytime a écrit :



Mais tu vas en acheter une, marketing oblige.





Si elle est piratable j’en achèterai une. De toute façon c’est ce que je fais pour chaque génération de console( mais j’achète des jeux aussi je ne fais pas que tipiaker ).<img data-src=" />


Le 06/02/2013 à 15h 18

Blocage des jeux d’occasion pour moi ce sera rédhibitoire.<img data-src=" />



Ils peuvent se gratter pour que j’en achète une.<img data-src=" />

Le 06/02/2013 à 14h 04







David_L a écrit :



Pour avoir testé l’AD06 dont le test arrive sous peu, l’E2-1800 est tt de même assez limité (surtout avec un HDD et 2 Go de mémoire). Du coup faut pas vouloir faire grand chose sous peine de vite devenir fou <img data-src=" />



Après entre un AD13 et un NUC chacun trouvera son bonheur en fonction de son besoin je pense.





On peut pas faire tourner Crysis 3 en 4K?<img data-src=" />


Le 06/02/2013 à 13h 14

Je croyais que Max Payne avait pas marché.<img data-src=" />

Le 06/02/2013 à 13h 11







John Shaft a écrit :



Des libristes probablement barbus… Pas dangereux ?? <img data-src=" />



Réfléchis 2 secondes : qui porte des barbes hormis les libristes ? Les terroristes bien sûr !



C’est bin que linuxfr c’est un repaire de pas gentils !









<img data-src=" /> <img data-src=" /> <img data-src=" />





http://www.dailymotion.com/video/x7zxbq_monty-python-sorciere_shortfilms#.URJWSWf5VkY<img data-src=" />


Le 06/02/2013 à 12h 57







Fuinril a écrit :



Sans parler de lag ou autre, actuellement le cloud gaming ce n’est pas possible pour des questions de puissance : aucun serveur ou grappe de serveur au monde n’est capable de gérer 6,5 millions de rendus 3D différents en même temps d’un jeu aussi gourmand en ressources que ceux qui sortent actuellement (pour info 6,5 millions c’est les chiffres de vente de la première journée de COD : Modern Warfare 3).

Du cloud gaming qui concerne un jeu de calculatrice comme un serpent, un pacman ou autres dame de pique oui, mais ça s’arrête là… ou alors avec TRES peu de monde (mais du coup avec un abo hors de prix).



Ce n’est pas un hasard si le cloud gaming tout le monde en parle beaucoup mais étrangement les rares sociétés à avoir vraiment fait des essais dans le secteur (en fait j’en connais qu’une : onlive) se sont méchamment viandées malgré le support des éditeurs et d’importants moyens financiers <img data-src=" />





+1<img data-src=" />


Le 06/02/2013 à 11h 03







chris_lo a écrit :



avant que les PS4 et XBox 720 représentent des centaines de millions de terminaux vendus, c’est pas demain la veille (si ce jour arrive)



de plus les consoles de salon sont fabriquées à perte, Sony et MS sont des marchands de tapis sur ce secteur et ils vont faire en sorte que les marges (d’AMD) soient les plus infimes possibles… pas sûr que ce soit le “salut” d’AMD ce “monopole” contrats, limite ils vont gagner plus d’argent avec le GPU de la WIi-U <img data-src=" />





Si ça rapportait pas ils ne répondraient pas à l’appel d’offre.



Donc ça va sûrement pas sauver AMD( qui ne coulera pas de toute façon ) mais c’est toujours ça de pris et de moins pour la concurrence. <img data-src=" />


Le 06/02/2013 à 10h 01







Le-Glod a écrit :



fr.wikipedia.org WikipediaUn peut de culture .

Le Risc c’est un processeur a jeu d’instructions reduite

le Cisc donc les Intel il ya beaucoup d’instruction pour faire plein de choses.

A l’epoque des premiers PC ou le processeur se taper pratique tout le boulot , je parle des programme, faire du son déplacer des fenêtres afficher des icônes , le Cisc avait peut etre un intérêt !

Mais aujourd’hui on a des puces dedier a ce travail et le processeur n’est la que en chef d’orchestre , la carte son est capable de faire tout un tat de chose, pareil pour la carte video etc … Donc l’interet de l’architecture Risc et grandissant .

Par contre dans le cas ou il n’y a pas de corposseur, le Cisc sera plus rapide car il aura des instructions dedier a certaine taches avec que les Risc il faudra ruser avec des ou trois pour arriver au meme resultat qu’un processeur Cisc qui en aura utiliser qu’une seule ! Et plus on utilise d’instruction plus c’est lent !





Sauf qu’entre temps avec la miniaturisation le convertisseur d’opérations occupe de moins en moins de place sur le die.



Donc la différence entre CISC et RISC avec l’évolution de la finesse de gravure et les architectures “modernes”( on parle depuis le pentium et les K5… ) CISC/RISC utilisées actuellement dans les processeurs AMD/INTEL. La différence est de plus en plus ténue.<img data-src=" />


Le 05/02/2013 à 21h 19







MikeNeko a écrit :



Certaines instructions je veux bien, mais heureusement que tout n’est pas décomposé en micro-ops. Tu ne me vendras pas l’idée que le CISC maintenant c’est du RISC xD









Bah je ne sais pas ce que c’est alors.<img data-src=" />


Le 05/02/2013 à 21h 10







Alucard63 a écrit :



Bah marre toi bien, mais, avant, fait une petite recherche: depuis le Pentium I( si je ne me trompe pas ) les processeurs intels ne sont plus CISC comme on a pu le concervoir au moment de la guerre CISC/RISC.



Le jeu d’instruction CISC est complètement disponible en assembleur on est d’accord.



Mais Intel utilise un convertisseur d’opération( hardware ) pour une partie du jeu d’instruction. Ceci afin de convertir les instructions complexes en de multiples instructions simples.<img data-src=" />





Ceci il est vrai que cette partie utilise de la place sur le die pour garder la retro compatibilité on est d’accord sur ce point.


Le 05/02/2013 à 21h 02







MikeNeko a écrit :



Tiens je ne l’avais jamais lue celle la, je la raconterai au bureau demain xD

On se marrera aussi avec les potos de chez Renesas.





Bah marre toi bien, mais, avant, fait une petite recherche: depuis le Pentium I( si je ne me trompe pas ) les processeurs intels ne sont plus CISC comme on a pu le concervoir au moment de la guerre CISC/RISC.



Le jeu d’instruction CISC est complètement disponible en assembleur on est d’accord.



Mais Intel utilise un convertisseur d’opération( hardware ) pour une partie du jeu d’instruction. Ceci afin de convertir les instructions complexes en de multiples instructions simples.<img data-src=" />


Le 05/02/2013 à 20h 21







RRMX a écrit :



Tu présentes la chose comme si le RISC avait tous les avantages; or ce n’est pas le cas. Le RISC se débarrasse du souci des instructions complexes et laisse le compilateur se débrouiller à convertir du code complexe en instructions simples. L’avantage certes c’est que le RISC est moins gourmand en énergie. Le souci c’est qu’aujourd’hui, les compilateur sont à des années lumière du matériel.





Vu que X86 est une archi RISC qui émule le CISC pour la rétro compatibilité depuis des lustres ces débats n’ont plus lieu d’être. RISC a gagné il y a bien longtemps.<img data-src=" />


Le 05/02/2013 à 17h 16



814 euros en Wi-Fi, 944 euros en cellulaire





Moi j’attends le modèles cellulaire plaqué Or: pas assez cher 944 euros.<img data-src=" />

Le 05/02/2013 à 16h 12







sylware a écrit :



Bin, il paraît que les type de RAM pour CPU avec leur BUS ne seraient pas assez rapides pour satisfaire les besoins d’un GPU moderne… alors si on partage RAM/BUS avec un CPU qui fait tourner un programme gourmand en opérations mémoires…



Où est la vérité?





Si on se réfère à la précédente génération ce qui avait été fait pour la xbox est une mémoire de carte graphique accessible aux deux.



La xbox a de la GDDR3 partagée entre le CPU et le GPU.



Je pense que ce sera la même chose pour la prochaine génération dans la mesure ou une console est purement dédiée aux jeux.<img data-src=" />


Le 04/02/2013 à 15h 20







sylware a écrit :



Bin, ça semble se préciser, les consoles next gen, devraient tourner sur des GPUs d’AMD. Certaines sans VRAM dédiée (OUCH!) d’autres avec (ouf!). Mieux vaut ne pas prendre moins qu’un southern island (car c’est chelou ce qui s’est passé pour les shaders sur les evergreen et les northern island).





La VRAM dédiées est un bienfait?



C’est plutôt une plaie pour les dev console. C’était un des reproches fait par les devs à la PS3( et un des éléments qui la rendent plus chiante à programme que la Xbox ).



Mieux vaut la souplesse d’une mémoire centralisé très rapide dans bien des cas.<img data-src=" />


Le 04/02/2013 à 21h 27







sylware a écrit :



Perso, je ne connais que le gameplay MP bétâ de crysis 3 (qui est bien rapide selon mon point de vue).



On est bien d’accord 30 images par seconde impliquent un gameplay super lent pour que le terrain reste lisible. Et le gameplay doit être propice à l’imprécision frustrante du pad (comparé à la souris): genre mario galaxy (pour le pad, car il tourne à 60 fps).







Attends 30 images/sc c’est quand il y rien à afficher…le reste du temps on est =&lt; à 25 images/sc.



On parlera même pas du clipping et streaming de textures ni des textures baveuses.<img data-src=" />





Je précise que je joue sur console. Mais faut reconnaitre que là elles sont en fin de vie.<img data-src=" />


Le 01/02/2013 à 18h 46







sylware a écrit :



Tiens, je fais le bétâ test du multiplayer sur ps3… je me force à m’entraîner à jouer avec un FPS au pad pour voir ce que ça donne… pour l’instant, je ne change pas mon avis: un FPS au pad c’est BEURK ! (Et le crytek engine 3 sur ps3 à besoin d’être sacrément optimisé… car c’est tout flou (–&gt;pas fluide quoi=60fps)).





Le cry engine 3 ne troune pas à plus de 30 fps sur consoles, c’était déjà le cas pour crysis 2. Elles sont pas assez puissantes pour donner plus.



On est très loin des 60 fps.<img data-src=" />


Le 04/02/2013 à 16h 57







methos1435 a écrit :



Ya pas besoin d’aller chercher bien loin des fois. Si je prend mon cas perso, j’aimerai tout simplement aller m’installer en montagne et ouvrir un petit commerce en village.Ya tellement de villages qui souffrent de la fermeture de leurs commerce. Je demande pas à me faire des couilles en or, juste pouvoir vivre correctement. Et bien quand t’as aucun support financier derrière toi et pas de fonds perso, ton banquier il t’indique où est la sortie et prend même pas la peine de te raccompagner…



Alors quand tu vois une connaissance (ce n’est pas une critique, tant mieux pour lui au final), qui à 19 ans à déja 3 apparts en location sur la cote d’azur et deux magasins à son nom… T’as un peu les boules.



Ya des gens qui ont de l’argent et d’autres non. C’est comme ça. Ce n’est pas ça que je remet en cause. Pour moi le problème c’est que la société actuelle n’admet plus de prendre des risques. Alors quand t’as pas les moyens (tu sais pour une famille comme la mienne, même les 10000 euros que tu donnes, c’est une somme ENORME) t’es quasiment condamné à rester dans ta petite vie. Il y en qui s’en sortent (tant mieux) mais c’est minoritaire.





C’est minoritaire à cause de l’argent?



Je ne suis pas d’accord.<img data-src=" />



Pour moi l’argent est un faux problème. Le patrimoine culturel et social condamne bien plus à la reproduction sociale que le patrimoine financier de mon point de vue. Après ça n’engage que moi.



Les banquiers n’ont jamais pris trop de risques, c’est pas nouveau et c’est tout à fait légitime( ils sont moins légitimes quand ils en ont pris et qu’on les renfloue gratuitement, mais c’est une autre affaire… ).



Attention quand je parle de patrimoine culturel et social ce n’est pas uniquement les études. La patrimoine social( qui sont tes connaissances/amis ) compense parfois énormément le patrimoine culturel( même bien plus ). <img data-src=" />


Le 04/02/2013 à 15h 53







methos1435 a écrit :



Si je peux me permettre un avis perso sur la question. Le problème n’est pas vraiment héritier ou pas héritier. Le véritable problème aujourd’hui c’est que tu as énormement de personnes avec des projets professionnels tout à fait réalistes mais qui sont condamnées à rester dans la merde, par manque d’argent et de soutien.





Quel projet professionnel?



Monter sa boite? Il y a des Business angels qui ont pas grand chose à perdre en investissant dans des startups( de toute façon sinon ça part aux impôts ).



Faire des études? A par les écoles de commerces ça coûte rien de faire des études en France. Personnellement j’ai fait une école d’ingénieur et ma soeur Sciences Po en étant boursier tout le long de mes études( aller je me suis endetté de 10000 euros pour mon échange à l’étranger, c’est bien tout ).



Le problème des études est plus culturel( connaissance des bonnes filières, non peur de l”élitisme: la prépa c’est pour les fous… ) que financier en France.<img data-src=" />


Le 04/02/2013 à 14h 58







Fuinril a écrit :



D’un autre côté, si il y a bien UNE chose qui n’a pas progressé - ou si peu - en 25 ans de jeux video c’est bien l’IA…





C’est pas faux les soldat de HL1 semblaient plus intelligents que ceux de certains FPS modernes…



Il y a que FEAR qui m’a impressionné coté IA dans les jeux récents.<img data-src=" />


Le 04/02/2013 à 14h 11







Yzokras a écrit :



Tout ça avec un jeu moche digne des années 90, comme quoi les choses simples…





C’est sur que c’est bien mieux un FPS avec des effets de particules et de flou dans tous les sens et uneIA à chier.<img data-src=" />


Le 04/02/2013 à 09h 15







-Vlad- a écrit :



http://rastergrid.com/blog/2010/09/history-of-hardware-tessellation/





Ca remonte à avant même. On peut faire de la tesselation software.<img data-src=" />



Bon le trueform sur les ATI 8500 ça faisait des trucs un peu bizarre des fois( genre tout était rond ) donc ça a peu été utilisé. Mais en effet ça fait un baille que ça existe sur le principe.Mais je pense plutôt qu’il parlait des la tesselation hardware incluse dans DX11 en effet. <img data-src=" />


Le 03/02/2013 à 15h 39







kail a écrit :



Si tu veux aller dans ce sens, elle est où la gestion dynamique de la lumière, elle est où la tesselation dans la xbox360?





C’est sur que les Tesselation c’était commun dans toutes les cartes en 2005.<img data-src=" />



Quand à la gestion dynamiques de lumières…wait…mais en fait la quasi totalité des jeux xbox ont une gestion dynamique des lumières…



Oui on peut gérer dynamiquement les lumières avec les shader model 3.0 je te jure.<img data-src=" />


Le 03/02/2013 à 00h 47







kail a écrit :



Les shaders unifiés, c’est juste une très légère optimisation. Ça ne fera pas de la puce graphique utilisée un monstre de puissance…





Non mais ça fait que la puce est flexible et surtout et c’est là mon point que la puce intégrait une technologie en avance sur le PC, puisque bizarrement maintenant toutes les CG ont des unités de traitement de shaders unifiés.



Le GPU de la PS3 est moins impressionnante mais c’est quand même une 7900 overclockée…



On parle pas du pas de gamme ni même du milieu de gamme dans les deux cas.<img data-src=" />


Le 02/02/2013 à 19h 10







kail a écrit :



Ouais ben justement, je pense avoir été bien trop gentil dans mon évaluation. Et je suis obligé de faire du pifomètre car les fabricants de consoles ne sont jamais très clairs par rapport à ce qu’ils embarquent dedans.Maintenant, je pense plutôt à la x850xt. La x1800 gto n’était que de l’ancien haut de gamme renommé pour faire du milieu de gamme.

Maintenant, pour l’intégration des technologies, la xbox360 a juste rattrapé son retard par rapport au PC en se mettant à son tour au dx9.0c alors que les geforce 8xxx et radeon HD2xxx en étaient déjà à dx10 avec gestion dynamique de la lumière. Et dans crysis en very high, elle était très bien intégrée.

Maintenant, personnellement, ça me gène vraiment de jouer en 720p, c’est une résolution ridicule. Mais si on voulait jouer façon console sur PC avec une cg bas de gamme, il n’y avait qu’à se mettre en 720p et libérer les ressources pour que tout soit fluide et beau…comme sur console <img data-src=" />





Le jour ou tu trouves une X850 avec 49 unité de traitement de shaders unifiés tu m’appelle…wait… la HD2900 a exactement cette configuration…est ce un hasard?



Comme je l’ai dit: la HD2900 est un xenos DX10 sans EDRAM. Je n’ai pas dit que les xenos était compatible DX10.<img data-src=" />


Le 02/02/2013 à 15h 42







kail a écrit :



Justement, je suis quelqu’un qui se bat sur certaines choses qui semblent évidentes aux yeux de tous car on leur a tellement rabâché de fausses informations marketing énormissimes que leurs cerveaux sont forcément conditionnés.

J’admets que la xbox 360 était sortie avant la PS3 avec une puissance graphique grosso modo équivalente, mais le prix allait avec.

Allez, on va dire X1800GTO=puissance de la cg intégrée à la Xbox360 (je pense que je suis même trop gentil dans mon évaluation)





Justement li les caractéristiques d’une X1800/X1900 et compare les au Xenos



Tu verras que le Xenos intègre des technologies qui n’arrivent sur le marché qu’avec les geforce 8xxx et radeon HD2xxx.



La HD2900 est un xenos avec gestion de DX10 et sans les 10Mo de EDRAM( permettant de gérer l’antialiasing sans perte de framerate à la résolution de la Xbox, le PC laissant libre de la résolution choisie à la différence de la Xbox pensé pour le 720p ).



Elle est bien en avance technologiquement sur les X1800 et X1900.<img data-src=" />



Avant d’affirmer au pifomètre il faut regarder les caractéristiques de ces chips.<img data-src=" />



Ceci dit la Xbox a payé cette avance avec des RRoD par contre.<img data-src=" />


Le 02/02/2013 à 13h 29







kail a écrit :



J’interviens parfois pour mettre la vérité en face. Évidement, chez ceux qui sont déjà con-vaincus du contraire, on ne pourra pas les changer.





Oui…en attendant j’aimerai bien savoir ce que tu as trouvé d’équivalent en termes de puissance au xenos en 2005.<img data-src=" />



Aucun GPU PC n’était aussi en avance que le xenos à l’époque.



Les évidences il faut s’en méfier.<img data-src=" />


Le 02/02/2013 à 13h 14







kail a écrit :



Au top de la technologie, j’en doute ( toutes les technologies apportées dans dx9.0c, dx10, dx11, ce n’est pas aux consoles qu’on le doit, mais bien aux PC ). Au top de la performance, certainement pas…





Si ça peut te rassurer.<img data-src=" />


Le 02/02/2013 à 12h 15







kail a écrit :



Pas du tout. A la sortie de la PS3, je m’étais déjà acheté une carte graphique 2 fois plus puissante que celle qu’elle embarquait (8800 GTS 320 mo).



Il faut savoir que les résolutions utilisées sur les consoles ne sont pas les mêmes que sur PC. Du coup, une console demandera beaucoup moins de ressources qu’un PC car le niveau d’exigence n’est pas le même.





La PS3 est pas sortie en France en premier que je sache.<img data-src=" />



Prenons le cas de la Xbox: trouve moi une carte graphique avec une architecture avec shader unifiés en 2005.<img data-src=" />



En effet en 20062007 on avait les premières 8xxxx et HD2xxx qui s’en approchaient.<img data-src=" />



Ce que je dis c’est que les consoles sont toujours au top de la technologie quand elles sortent d’habitude. D’après les premiers retour de dev ce ne sera pas le cas de la prochaine génération( mais il y a de bonnes raisons économiques pour ça…au hasard que ni Sony ni MS n’ont été rentables sur cette gen de console… ) c’est un changement important du marché de mon point de vue. On a pas fini d’entendre les joueurs pc se plaindre des consoles.<img data-src=" />


Le 02/02/2013 à 11h 28







kail a écrit :



Et…Ça change quoi par rapport à avant ?

Depuis l’époque de la 3D, les consoles n’ont jamais été des monstres. Les PC ont toujours eu une très grande longueur d’avance, bien plus que ce que ce qu’on veut vous faire croire.





<img data-src=" />



Les Xbox 360 et PS3 était très en avance en termes de hardware au moment de leur sortie.



Pas vraiment sur le processeur( contrairement a été vendu ) qui était juste différent mais pas en avance sur l’époque, mais sur la partie GPU c’était des monstres.



Il a fallu 1 à 2 ans s avant que des GPU haut de gamme PC s’approchent de leur puissance.<img data-src=" />



Au moment de leur sortie les consoles sont généralement en avance en terme de hardware sur les PC. Ce qui est tout à fait logique une console doit tenir 5 ans voir plus, il vaut mieux que se soit pas le bas de gamme si lle constructeur veut qu’elle suive.<img data-src=" />


Le 01/02/2013 à 13h 04







yeagermach1 a écrit :



Des specs on en a plein qui ont leaké. Maintenant a voir les fausses des vrais bien sur.



edit mais bon Sony avait déjà annoncé un monstre avec la PS3 et on a tous vu le résultat.





+1



De plus les premiers retours des devs ne parlent pas de monstres. Epic disait que les consoles next gen avait pour le moment un hardware trop faible.<img data-src=" />


Le 01/02/2013 à 12h 09







lincruste a écrit :



Ptête qu’ils vont annoncer un jeu sur PSVita. Enfin.





Peut être même qu’ils vont annoncer la sortie de The Last Guardian.<img data-src=" /><img data-src=" /><img data-src=" />


Le 01/02/2013 à 11h 38







Twiz a écrit :



Il vont sortir la PS4 alors que la PS3 n’est même pas utilisée à fond…





Le magic Cell va permettre de faire tourner les derniers jeux en 4K avec des effets impossibles avec un I7 + Radeon HD 7970 X2 c’est sur.<img data-src=" />


Le 01/02/2013 à 11h 11







yeagermach1 a écrit :



Ben il y a quand meme pas mal d’exclu console. Et puis une console, c’est la facilité d’usage, le jeu canape, …



Je suis joueur PC hardcore mais je vois quand même les avantages d’une console (et les inconvénients).





Moi je suis joueur principalement console.



Pourquoi? Parce que c’est pas prise de tête:



J’ai pas à me poser la question de savoir si mon PC va pouvoir faire tourner le jeu de manière fluide. J’ai pas besoin de faire évoluer mon matos( je paye 250 euros et zou )…ect…



De mon point de vue( purement subjectif ), je préfère des jeux un peu moins beaux mais jouables sans prise de tête que de me poser des questions existentielles pour savoir si je vais pouvoir faire tourner Witcher 2 Far Cry 3 ou Crysis 3 correctement( en 1080 p vu que j’ai le nez collé à mon écran de PC… ).<img data-src=" />



Moi je dis chacun fait son choix.<img data-src=" />


Le 01/02/2013 à 10h 38









zzzZZZzzz a écrit :



En même temps dans les jeux pc actuel j’ai du mal à en trouver des CPU limited comme tu dis…

Je viens de passer d’un i3 2100 à un i7 3770 et comment dire… la différence n’est pas flagrante dans les jeux sauf Far Cry 3.



Et pourtant l’i7 est plus de 2 fois plus performant…



Mais je ne doute pas que les jeux hyper optimiser multi-core vont arriver(ou pas).





Pas étonnant les CPU des consoles actuelles sont des grosses m*( les deux: PS3 et Xbox ). contrairement à ce que qu’on a voulu nous faire gober à coup de pics théoriques, de coeurs et de Mhz.<img data-src=" />


Le 01/02/2013 à 10h 12

[blague pourrie]







John Shaft a écrit :



Et faire un 180°720 dans la comm’ <img data-src=" />





<img data-src=" />

[/blague pourrie]


Le 01/02/2013 à 12h 54



Parce que mettre des puces de ouf dedans (genre CELL) c’est mignon mais si personne ne sait en tirer partie / que c’est trop complexe par rapport à la concurrence, eh bien c’est mal barré pour attirer les studios…



C’est bien parce que le Cell n’est pas une puce de ouf que justement les devs ont du mal à en tirer partie.



Mais c’est une autre affaire.<img data-src=" />

Le 01/02/2013 à 12h 01







Blastm a écrit :



pensait déjà que la wiiu était faite pour accueillir des portages ps3/360 …

si même pour ca nintendo arrive pas a la rendre attractive :o





En fait je pense qu’elle est assez mauvaise de ce point de vue là à cause de son CPU.



La Wii U ne doit pas être programmée comme les xbox 360 et PS3 il faut plus utiliser le GPGPU.



Avec des portages bêtes et méchants le résultat est pas toujours brillant( CoD semble en être un bon exemple ) même si la console se défend on sent bien qu’il y a un truc qui cloche.



Je pense que Big N veut essayer de proposer des outils pour simplifier l’adaptation du code au hardware de la console qui vont dans ce sens.