Je précise que je suis pas un fanboy apple j’ai jamais acheté un produit de la pomme et j’ai une xbox à la maison." />
Le
07/02/2013 à
22h
29
kail a écrit :
Ce n’est pas parce qu’ils sont passé faire leur spectacle chez Apple que c’était forcément prévu pour mac…Au tout début, quand ils en étaient au commencement du développement, c’était prévu pour PC…
Jamais entendu parlé d’un dev PC avant le mac. Après oui par contre je dois encore avoir un PC mag qui en parle quelque part chez mes parents..on en a pas mal parlé au moment de l’annonce de la geforce 3, mais on savait pas que le projet xbox existait à ce moment.
Mais bon OSEF ce qui est marrant c’est de voir que la plus grosse franchise vidéoludique de MS était en fait prévu pour mac." />
Le
07/02/2013 à
22h
18
kail a écrit :
Apparemment, vu la source wikipedia, ça devait être une exclu PC et mac.
Mais je me souviens étant gosse que mon mag préféré (le défunt PC Soluces) parlait déjà de Halo, qui devait sortir sur PC.
C’était bien une exclu mac pas PC avant le rachat.Mais le projet a connu de nombreux rebondissements avec le rachat et le projet xbox. Ensuite ça devait être une exclu PC..puis la xbox a été lancée…
Le
07/02/2013 à
21h
02
kail a écrit :
Mais qu’est-ce qu’il ne faut pas lire…
Pourtant c’est vrai avant que MS ne rachète bungie Halo devait être une exclu mac." />
Le
07/02/2013 à
21h
00
kail a écrit :
Tu te méprends.
Je parle de Microsoft. En fabriquant leur console, ils ont trahi leur communauté, allant même jusqu’à réserver des exclus initialement pour le PCmac, comme halo par exemple, à la xbox.
Vraiment dégueulasse ce qu’ils ont fait….Tout ça pour gagner plus de fric…
Comme dit plus tôt ils ne constateront rien du tout puisqu’ils ne verront pas les jeux sur le store. Et s’ils voient des jeux plus beaux chez leurs potes qui ont une meilleure version ils peuvent upgrader. J’ai encore vu personne râler parce qu’il pouvait pas jouer à des jeux PS3 sur sa PS2…
Sauf que pendant plus 5 ans des jeux sont sorties sur PS2 pour la PS3 on en est à 7 ans. Là avec des cycles de 1 ans on va se retrouver avec une console qui aura une durée de vie ridicule." />
Le
07/02/2013 à
10h
07
1 an c’est trop court.
Le but d’une console c’est de ne pas avoir à investir tous les ans ou 2 ans dans du matos pour le particulier et avoir une plate forme de dev stable que l’on peut exploiter au max pour les devs.
Là je comprends pas trop ce qui leur prend.
Des cycle de 3 4 ans je veux bien, mais en dessous on retombe dans les travers du PC." />
Les outils de développement de jeux vidéo deviennent de plus en plus accessible (tant niveau coût que niveau complexité).
Le savoir nécessaire se partage de plus en plus sur Internet.
Les banques de modèles 3D librement ré-utilisable se remplissent toujours plus chaque jour.
Le domaine du jeux vidéo va bientôt, comme le domaine de la musique et de la photo, voir apparaitre des oeuvres de qualité fêtent par des passionnés et librement partageable.
Et là, il y aura pas photo: Entre des produits contraignants faient dans un but strictement commercial et des créations de passionnés librement partageables, les gens auront vite choisies.
OSEF on veut jouer à Call of." />
Le
06/02/2013 à
15h
23
Danytime a écrit :
Mais tu vas en acheter une, marketing oblige.
Si elle est piratable j’en achèterai une. De toute façon c’est ce que je fais pour chaque génération de console( mais j’achète des jeux aussi je ne fais pas que tipiaker )." />
Le
06/02/2013 à
15h
18
Blocage des jeux d’occasion pour moi ce sera rédhibitoire." />
Ils peuvent se gratter pour que j’en achète une." />
Pour avoir testé l’AD06 dont le test arrive sous peu, l’E2-1800 est tt de même assez limité (surtout avec un HDD et 2 Go de mémoire). Du coup faut pas vouloir faire grand chose sous peine de vite devenir fou " />
Après entre un AD13 et un NUC chacun trouvera son bonheur en fonction de son besoin je pense.
Sans parler de lag ou autre, actuellement le cloud gaming ce n’est pas possible pour des questions de puissance : aucun serveur ou grappe de serveur au monde n’est capable de gérer 6,5 millions de rendus 3D différents en même temps d’un jeu aussi gourmand en ressources que ceux qui sortent actuellement (pour info 6,5 millions c’est les chiffres de vente de la première journée de COD : Modern Warfare 3).
Du cloud gaming qui concerne un jeu de calculatrice comme un serpent, un pacman ou autres dame de pique oui, mais ça s’arrête là… ou alors avec TRES peu de monde (mais du coup avec un abo hors de prix).
Ce n’est pas un hasard si le cloud gaming tout le monde en parle beaucoup mais étrangement les rares sociétés à avoir vraiment fait des essais dans le secteur (en fait j’en connais qu’une : onlive) se sont méchamment viandées malgré le support des éditeurs et d’importants moyens financiers " />
avant que les PS4 et XBox 720 représentent des centaines de millions de terminaux vendus, c’est pas demain la veille (si ce jour arrive)
de plus les consoles de salon sont fabriquées à perte, Sony et MS sont des marchands de tapis sur ce secteur et ils vont faire en sorte que les marges (d’AMD) soient les plus infimes possibles… pas sûr que ce soit le “salut” d’AMD ce “monopole” contrats, limite ils vont gagner plus d’argent avec le GPU de la WIi-U " />
Si ça rapportait pas ils ne répondraient pas à l’appel d’offre.
Donc ça va sûrement pas sauver AMD( qui ne coulera pas de toute façon ) mais c’est toujours ça de pris et de moins pour la concurrence. " />
Le Risc c’est un processeur a jeu d’instructions reduite
le Cisc donc les Intel il ya beaucoup d’instruction pour faire plein de choses.
A l’epoque des premiers PC ou le processeur se taper pratique tout le boulot , je parle des programme, faire du son déplacer des fenêtres afficher des icônes , le Cisc avait peut etre un intérêt !
Mais aujourd’hui on a des puces dedier a ce travail et le processeur n’est la que en chef d’orchestre , la carte son est capable de faire tout un tat de chose, pareil pour la carte video etc … Donc l’interet de l’architecture Risc et grandissant .
Par contre dans le cas ou il n’y a pas de corposseur, le Cisc sera plus rapide car il aura des instructions dedier a certaine taches avec que les Risc il faudra ruser avec des ou trois pour arriver au meme resultat qu’un processeur Cisc qui en aura utiliser qu’une seule ! Et plus on utilise d’instruction plus c’est lent !
Sauf qu’entre temps avec la miniaturisation le convertisseur d’opérations occupe de moins en moins de place sur le die.
Donc la différence entre CISC et RISC avec l’évolution de la finesse de gravure et les architectures “modernes”( on parle depuis le pentium et les K5… ) CISC/RISC utilisées actuellement dans les processeurs AMD/INTEL. La différence est de plus en plus ténue." />
Le
05/02/2013 à
21h
19
MikeNeko a écrit :
Certaines instructions je veux bien, mais heureusement que tout n’est pas décomposé en micro-ops. Tu ne me vendras pas l’idée que le CISC maintenant c’est du RISC xD
Bah je ne sais pas ce que c’est alors." />
Le
05/02/2013 à
21h
10
Alucard63 a écrit :
Bah marre toi bien, mais, avant, fait une petite recherche: depuis le Pentium I( si je ne me trompe pas ) les processeurs intels ne sont plus CISC comme on a pu le concervoir au moment de la guerre CISC/RISC.
Le jeu d’instruction CISC est complètement disponible en assembleur on est d’accord.
Mais Intel utilise un convertisseur d’opération( hardware ) pour une partie du jeu d’instruction. Ceci afin de convertir les instructions complexes en de multiples instructions simples." />
Ceci il est vrai que cette partie utilise de la place sur le die pour garder la retro compatibilité on est d’accord sur ce point.
Le
05/02/2013 à
21h
02
MikeNeko a écrit :
Tiens je ne l’avais jamais lue celle la, je la raconterai au bureau demain xD
On se marrera aussi avec les potos de chez Renesas.
Bah marre toi bien, mais, avant, fait une petite recherche: depuis le Pentium I( si je ne me trompe pas ) les processeurs intels ne sont plus CISC comme on a pu le concervoir au moment de la guerre CISC/RISC.
Le jeu d’instruction CISC est complètement disponible en assembleur on est d’accord.
Mais Intel utilise un convertisseur d’opération( hardware ) pour une partie du jeu d’instruction. Ceci afin de convertir les instructions complexes en de multiples instructions simples." />
Le
05/02/2013 à
20h
21
RRMX a écrit :
Tu présentes la chose comme si le RISC avait tous les avantages; or ce n’est pas le cas. Le RISC se débarrasse du souci des instructions complexes et laisse le compilateur se débrouiller à convertir du code complexe en instructions simples. L’avantage certes c’est que le RISC est moins gourmand en énergie. Le souci c’est qu’aujourd’hui, les compilateur sont à des années lumière du matériel.
Vu que X86 est une archi RISC qui émule le CISC pour la rétro compatibilité depuis des lustres ces débats n’ont plus lieu d’être. RISC a gagné il y a bien longtemps." />
Bin, il paraît que les type de RAM pour CPU avec leur BUS ne seraient pas assez rapides pour satisfaire les besoins d’un GPU moderne… alors si on partage RAM/BUS avec un CPU qui fait tourner un programme gourmand en opérations mémoires…
Où est la vérité?
Si on se réfère à la précédente génération ce qui avait été fait pour la xbox est une mémoire de carte graphique accessible aux deux.
La xbox a de la GDDR3 partagée entre le CPU et le GPU.
Je pense que ce sera la même chose pour la prochaine génération dans la mesure ou une console est purement dédiée aux jeux." />
Le
04/02/2013 à
15h
20
sylware a écrit :
Bin, ça semble se préciser, les consoles next gen, devraient tourner sur des GPUs d’AMD. Certaines sans VRAM dédiée (OUCH!) d’autres avec (ouf!). Mieux vaut ne pas prendre moins qu’un southern island (car c’est chelou ce qui s’est passé pour les shaders sur les evergreen et les northern island).
La VRAM dédiées est un bienfait?
C’est plutôt une plaie pour les dev console. C’était un des reproches fait par les devs à la PS3( et un des éléments qui la rendent plus chiante à programme que la Xbox ).
Mieux vaut la souplesse d’une mémoire centralisé très rapide dans bien des cas." />
Perso, je ne connais que le gameplay MP bétâ de crysis 3 (qui est bien rapide selon mon point de vue).
On est bien d’accord 30 images par seconde impliquent un gameplay super lent pour que le terrain reste lisible. Et le gameplay doit être propice à l’imprécision frustrante du pad (comparé à la souris): genre mario galaxy (pour le pad, car il tourne à 60 fps).
Attends 30 images/sc c’est quand il y rien à afficher…le reste du temps on est =< à 25 images/sc.
On parlera même pas du clipping et streaming de textures ni des textures baveuses." />
Je précise que je joue sur console. Mais faut reconnaitre que là elles sont en fin de vie." />
Le
01/02/2013 à
18h
46
sylware a écrit :
Tiens, je fais le bétâ test du multiplayer sur ps3… je me force à m’entraîner à jouer avec un FPS au pad pour voir ce que ça donne… pour l’instant, je ne change pas mon avis: un FPS au pad c’est BEURK ! (Et le crytek engine 3 sur ps3 à besoin d’être sacrément optimisé… car c’est tout flou (–>pas fluide quoi=60fps)).
Le cry engine 3 ne troune pas à plus de 30 fps sur consoles, c’était déjà le cas pour crysis 2. Elles sont pas assez puissantes pour donner plus.
Ya pas besoin d’aller chercher bien loin des fois. Si je prend mon cas perso, j’aimerai tout simplement aller m’installer en montagne et ouvrir un petit commerce en village.Ya tellement de villages qui souffrent de la fermeture de leurs commerce. Je demande pas à me faire des couilles en or, juste pouvoir vivre correctement. Et bien quand t’as aucun support financier derrière toi et pas de fonds perso, ton banquier il t’indique où est la sortie et prend même pas la peine de te raccompagner…
Alors quand tu vois une connaissance (ce n’est pas une critique, tant mieux pour lui au final), qui à 19 ans à déja 3 apparts en location sur la cote d’azur et deux magasins à son nom… T’as un peu les boules.
Ya des gens qui ont de l’argent et d’autres non. C’est comme ça. Ce n’est pas ça que je remet en cause. Pour moi le problème c’est que la société actuelle n’admet plus de prendre des risques. Alors quand t’as pas les moyens (tu sais pour une famille comme la mienne, même les 10000 euros que tu donnes, c’est une somme ENORME) t’es quasiment condamné à rester dans ta petite vie. Il y en qui s’en sortent (tant mieux) mais c’est minoritaire.
C’est minoritaire à cause de l’argent?
Je ne suis pas d’accord." />
Pour moi l’argent est un faux problème. Le patrimoine culturel et social condamne bien plus à la reproduction sociale que le patrimoine financier de mon point de vue. Après ça n’engage que moi.
Les banquiers n’ont jamais pris trop de risques, c’est pas nouveau et c’est tout à fait légitime( ils sont moins légitimes quand ils en ont pris et qu’on les renfloue gratuitement, mais c’est une autre affaire… ).
Attention quand je parle de patrimoine culturel et social ce n’est pas uniquement les études. La patrimoine social( qui sont tes connaissances/amis ) compense parfois énormément le patrimoine culturel( même bien plus ). " />
Le
04/02/2013 à
15h
53
methos1435 a écrit :
Si je peux me permettre un avis perso sur la question. Le problème n’est pas vraiment héritier ou pas héritier. Le véritable problème aujourd’hui c’est que tu as énormement de personnes avec des projets professionnels tout à fait réalistes mais qui sont condamnées à rester dans la merde, par manque d’argent et de soutien.
Quel projet professionnel?
Monter sa boite? Il y a des Business angels qui ont pas grand chose à perdre en investissant dans des startups( de toute façon sinon ça part aux impôts ).
Faire des études? A par les écoles de commerces ça coûte rien de faire des études en France. Personnellement j’ai fait une école d’ingénieur et ma soeur Sciences Po en étant boursier tout le long de mes études( aller je me suis endetté de 10000 euros pour mon échange à l’étranger, c’est bien tout ).
Le problème des études est plus culturel( connaissance des bonnes filières, non peur de l”élitisme: la prépa c’est pour les fous… ) que financier en France." />
Le
04/02/2013 à
14h
58
Fuinril a écrit :
D’un autre côté, si il y a bien UNE chose qui n’a pas progressé - ou si peu - en 25 ans de jeux video c’est bien l’IA…
C’est pas faux les soldat de HL1 semblaient plus intelligents que ceux de certains FPS modernes…
Il y a que FEAR qui m’a impressionné coté IA dans les jeux récents." />
Le
04/02/2013 à
14h
11
Yzokras a écrit :
Tout ça avec un jeu moche digne des années 90, comme quoi les choses simples…
C’est sur que c’est bien mieux un FPS avec des effets de particules et de flou dans tous les sens et uneIA à chier." />
Ca remonte à avant même. On peut faire de la tesselation software." />
Bon le trueform sur les ATI 8500 ça faisait des trucs un peu bizarre des fois( genre tout était rond ) donc ça a peu été utilisé. Mais en effet ça fait un baille que ça existe sur le principe.Mais je pense plutôt qu’il parlait des la tesselation hardware incluse dans DX11 en effet. " />
Le
03/02/2013 à
15h
39
kail a écrit :
Si tu veux aller dans ce sens, elle est où la gestion dynamique de la lumière, elle est où la tesselation dans la xbox360?
C’est sur que les Tesselation c’était commun dans toutes les cartes en 2005." />
Quand à la gestion dynamiques de lumières…wait…mais en fait la quasi totalité des jeux xbox ont une gestion dynamique des lumières…
Oui on peut gérer dynamiquement les lumières avec les shader model 3.0 je te jure." />
Le
03/02/2013 à
00h
47
kail a écrit :
Les shaders unifiés, c’est juste une très légère optimisation. Ça ne fera pas de la puce graphique utilisée un monstre de puissance…
Non mais ça fait que la puce est flexible et surtout et c’est là mon point que la puce intégrait une technologie en avance sur le PC, puisque bizarrement maintenant toutes les CG ont des unités de traitement de shaders unifiés.
Le GPU de la PS3 est moins impressionnante mais c’est quand même une 7900 overclockée…
On parle pas du pas de gamme ni même du milieu de gamme dans les deux cas." />
Le
02/02/2013 à
19h
10
kail a écrit :
Ouais ben justement, je pense avoir été bien trop gentil dans mon évaluation. Et je suis obligé de faire du pifomètre car les fabricants de consoles ne sont jamais très clairs par rapport à ce qu’ils embarquent dedans.Maintenant, je pense plutôt à la x850xt. La x1800 gto n’était que de l’ancien haut de gamme renommé pour faire du milieu de gamme.
Maintenant, pour l’intégration des technologies, la xbox360 a juste rattrapé son retard par rapport au PC en se mettant à son tour au dx9.0c alors que les geforce 8xxx et radeon HD2xxx en étaient déjà à dx10 avec gestion dynamique de la lumière. Et dans crysis en very high, elle était très bien intégrée.
Maintenant, personnellement, ça me gène vraiment de jouer en 720p, c’est une résolution ridicule. Mais si on voulait jouer façon console sur PC avec une cg bas de gamme, il n’y avait qu’à se mettre en 720p et libérer les ressources pour que tout soit fluide et beau…comme sur console " />
Le jour ou tu trouves une X850 avec 49 unité de traitement de shaders unifiés tu m’appelle…wait… la HD2900 a exactement cette configuration…est ce un hasard?
Comme je l’ai dit: la HD2900 est un xenos DX10 sans EDRAM. Je n’ai pas dit que les xenos était compatible DX10." />
Le
02/02/2013 à
15h
42
kail a écrit :
Justement, je suis quelqu’un qui se bat sur certaines choses qui semblent évidentes aux yeux de tous car on leur a tellement rabâché de fausses informations marketing énormissimes que leurs cerveaux sont forcément conditionnés.
J’admets que la xbox 360 était sortie avant la PS3 avec une puissance graphique grosso modo équivalente, mais le prix allait avec.
Allez, on va dire X1800GTO=puissance de la cg intégrée à la Xbox360 (je pense que je suis même trop gentil dans mon évaluation)
Justement li les caractéristiques d’une X1800/X1900 et compare les au Xenos
Tu verras que le Xenos intègre des technologies qui n’arrivent sur le marché qu’avec les geforce 8xxx et radeon HD2xxx.
La HD2900 est un xenos avec gestion de DX10 et sans les 10Mo de EDRAM( permettant de gérer l’antialiasing sans perte de framerate à la résolution de la Xbox, le PC laissant libre de la résolution choisie à la différence de la Xbox pensé pour le 720p ).
Elle est bien en avance technologiquement sur les X1800 et X1900." />
Avant d’affirmer au pifomètre il faut regarder les caractéristiques de ces chips." />
Ceci dit la Xbox a payé cette avance avec des RRoD par contre." />
Le
02/02/2013 à
13h
29
kail a écrit :
J’interviens parfois pour mettre la vérité en face. Évidement, chez ceux qui sont déjà con-vaincus du contraire, on ne pourra pas les changer.
Oui…en attendant j’aimerai bien savoir ce que tu as trouvé d’équivalent en termes de puissance au xenos en 2005." />
Aucun GPU PC n’était aussi en avance que le xenos à l’époque.
Les évidences il faut s’en méfier." />
Le
02/02/2013 à
13h
14
kail a écrit :
Au top de la technologie, j’en doute ( toutes les technologies apportées dans dx9.0c, dx10, dx11, ce n’est pas aux consoles qu’on le doit, mais bien aux PC ). Au top de la performance, certainement pas…
Si ça peut te rassurer." />
Le
02/02/2013 à
12h
15
kail a écrit :
Pas du tout. A la sortie de la PS3, je m’étais déjà acheté une carte graphique 2 fois plus puissante que celle qu’elle embarquait (8800 GTS 320 mo).
Il faut savoir que les résolutions utilisées sur les consoles ne sont pas les mêmes que sur PC. Du coup, une console demandera beaucoup moins de ressources qu’un PC car le niveau d’exigence n’est pas le même.
La PS3 est pas sortie en France en premier que je sache." />
Prenons le cas de la Xbox: trouve moi une carte graphique avec une architecture avec shader unifiés en 2005." />
En effet en 2006⁄2007 on avait les premières 8xxxx et HD2xxx qui s’en approchaient." />
Ce que je dis c’est que les consoles sont toujours au top de la technologie quand elles sortent d’habitude. D’après les premiers retour de dev ce ne sera pas le cas de la prochaine génération( mais il y a de bonnes raisons économiques pour ça…au hasard que ni Sony ni MS n’ont été rentables sur cette gen de console… ) c’est un changement important du marché de mon point de vue. On a pas fini d’entendre les joueurs pc se plaindre des consoles." />
Le
02/02/2013 à
11h
28
kail a écrit :
Et…Ça change quoi par rapport à avant ?
Depuis l’époque de la 3D, les consoles n’ont jamais été des monstres. Les PC ont toujours eu une très grande longueur d’avance, bien plus que ce que ce qu’on veut vous faire croire.
" />
Les Xbox 360 et PS3 était très en avance en termes de hardware au moment de leur sortie.
Pas vraiment sur le processeur( contrairement a été vendu ) qui était juste différent mais pas en avance sur l’époque, mais sur la partie GPU c’était des monstres.
Il a fallu 1 à 2 ans s avant que des GPU haut de gamme PC s’approchent de leur puissance." />
Au moment de leur sortie les consoles sont généralement en avance en terme de hardware sur les PC. Ce qui est tout à fait logique une console doit tenir 5 ans voir plus, il vaut mieux que se soit pas le bas de gamme si lle constructeur veut qu’elle suive." />
Le
01/02/2013 à
13h
04
yeagermach1 a écrit :
Des specs on en a plein qui ont leaké. Maintenant a voir les fausses des vrais bien sur.
edit mais bon Sony avait déjà annoncé un monstre avec la PS3 et on a tous vu le résultat.
+1
De plus les premiers retours des devs ne parlent pas de monstres. Epic disait que les consoles next gen avait pour le moment un hardware trop faible." />
Le
01/02/2013 à
12h
09
lincruste a écrit :
Ptête qu’ils vont annoncer un jeu sur PSVita. Enfin.
Peut être même qu’ils vont annoncer la sortie de The Last Guardian." />" />" />
Le
01/02/2013 à
11h
38
Twiz a écrit :
Il vont sortir la PS4 alors que la PS3 n’est même pas utilisée à fond…
Le magic Cell va permettre de faire tourner les derniers jeux en 4K avec des effets impossibles avec un I7 + Radeon HD 7970 X2 c’est sur." />
Le
01/02/2013 à
11h
11
yeagermach1 a écrit :
Ben il y a quand meme pas mal d’exclu console. Et puis une console, c’est la facilité d’usage, le jeu canape, …
Je suis joueur PC hardcore mais je vois quand même les avantages d’une console (et les inconvénients).
Moi je suis joueur principalement console.
Pourquoi? Parce que c’est pas prise de tête:
J’ai pas à me poser la question de savoir si mon PC va pouvoir faire tourner le jeu de manière fluide. J’ai pas besoin de faire évoluer mon matos( je paye 250 euros et zou )…ect…
De mon point de vue( purement subjectif ), je préfère des jeux un peu moins beaux mais jouables sans prise de tête que de me poser des questions existentielles pour savoir si je vais pouvoir faire tourner Witcher 2 Far Cry 3 ou Crysis 3 correctement( en 1080 p vu que j’ai le nez collé à mon écran de PC… )." />
Moi je dis chacun fait son choix." />
Le
01/02/2013 à
10h
38
zzzZZZzzz a écrit :
En même temps dans les jeux pc actuel j’ai du mal à en trouver des CPU limited comme tu dis…
Je viens de passer d’un i3 2100 à un i7 3770 et comment dire… la différence n’est pas flagrante dans les jeux sauf Far Cry 3.
Et pourtant l’i7 est plus de 2 fois plus performant…
Mais je ne doute pas que les jeux hyper optimiser multi-core vont arriver(ou pas).
Pas étonnant les CPU des consoles actuelles sont des grosses m*( les deux: PS3 et Xbox ). contrairement à ce que qu’on a voulu nous faire gober à coup de pics théoriques, de coeurs et de Mhz." />
Parce que mettre des puces de ouf dedans (genre CELL) c’est mignon mais si personne ne sait en tirer partie / que c’est trop complexe par rapport à la concurrence, eh bien c’est mal barré pour attirer les studios…
C’est bien parce que le Cell n’est pas une puce de ouf que justement les devs ont du mal à en tirer partie.
Mais c’est une autre affaire." />
Le
01/02/2013 à
12h
01
Blastm a écrit :
pensait déjà que la wiiu était faite pour accueillir des portages ps3/360 …
si même pour ca nintendo arrive pas a la rendre attractive :o
En fait je pense qu’elle est assez mauvaise de ce point de vue là à cause de son CPU.
La Wii U ne doit pas être programmée comme les xbox 360 et PS3 il faut plus utiliser le GPGPU.
Avec des portages bêtes et méchants le résultat est pas toujours brillant( CoD semble en être un bon exemple ) même si la console se défend on sent bien qu’il y a un truc qui cloche.
Je pense que Big N veut essayer de proposer des outils pour simplifier l’adaptation du code au hardware de la console qui vont dans ce sens.
3592 commentaires
Activision Blizzard enregistre un trimestre record
08/02/2013
Le 08/02/2013 à 10h 29
Call of c’est déjà pas top sur console de salon mais sur PSP vita ils ont battu des records." />
[MàJ] Une collection de 330 machines et 6850 jeux vidéo à vendre 550 000 $
08/02/2013
Le 08/02/2013 à 10h 25
Le 08/02/2013 à 09h 52
Il va pouvoir s’acheter une belle maison à Miami si ça se vend." />
Blue, une évolution générale de toute la plateforme Windows
08/02/2013
Le 08/02/2013 à 10h 19
Microsoft est entré sur le marché des consoles pour arrêter SONY
07/02/2013
Le 07/02/2013 à 22h 37
Je précise que je suis pas un fanboy apple j’ai jamais acheté un produit de la pomme et j’ai une xbox à la maison." />
Le 07/02/2013 à 22h 29
Le 07/02/2013 à 22h 18
Le 07/02/2013 à 21h 02
Le 07/02/2013 à 21h 00
Une nouvelle Ouya sortira chaque année
07/02/2013
Le 07/02/2013 à 10h 34
Le 07/02/2013 à 10h 07
1 an c’est trop court.
Le but d’une console c’est de ne pas avoir à investir tous les ans ou 2 ans dans du matos pour le particulier et avoir une plate forme de dev stable que l’on peut exploiter au max pour les devs.
Là je comprends pas trop ce qui leur prend.
Des cycle de 3 4 ans je veux bien, mais en dessous on retombe dans les travers du PC." />
La prochaine Xbox aurait bien elle aussi un verrou contre les jeux d’occasion
06/02/2013
Le 06/02/2013 à 18h 00
Le 06/02/2013 à 15h 23
Le 06/02/2013 à 15h 18
Blocage des jeux d’occasion pour moi ce sera rédhibitoire." />
Ils peuvent se gratter pour que j’en achète une." />
La ZBOX Nano XS AD13 de Zotac passe à l’APU E2-1800 d’AMD
06/02/2013
Le 06/02/2013 à 14h 04
Take-Two affiche de solides bénéfices
06/02/2013
Le 06/02/2013 à 13h 14
Je croyais que Max Payne avait pas marché." />
Une mise à jour de Kaspersky bloque Internet sur Windows XP
06/02/2013
Le 06/02/2013 à 13h 11
Le président de Nintendo ne croit pas au succès du cloud gaming
06/02/2013
Le 06/02/2013 à 12h 57
ARM dévoile des résultats records et vaut désormais 10 fois plus qu’AMD
05/02/2013
Le 06/02/2013 à 11h 03
Le 06/02/2013 à 10h 01
Le 05/02/2013 à 21h 19
Le 05/02/2013 à 21h 10
Le 05/02/2013 à 21h 02
Le 05/02/2013 à 20h 21
[MàJ] L’iPad 128 Go en vente : 814 euros en Wi-Fi, 944 euros en cellulaire
05/02/2013
Le 05/02/2013 à 17h 16
814 euros en Wi-Fi, 944 euros en cellulaire
Moi j’attends le modèles cellulaire plaqué Or: pas assez cher 944 euros." />
[MàJ] Le pack AMD avec Crysis 3, Bioshock Infinite ou Tomb Raider disponible
04/02/2013
Le 05/02/2013 à 16h 12
Le 04/02/2013 à 15h 20
[MàJ] Septième version bêta des Catalyst 13.2 d’AMD sous Linux et Windows
28/02/2013
Le 04/02/2013 à 21h 27
Le 01/02/2013 à 18h 46
Minecraft fait recette, son créateur fait fortune
04/02/2013
Le 04/02/2013 à 16h 57
Le 04/02/2013 à 15h 53
Le 04/02/2013 à 14h 58
Le 04/02/2013 à 14h 11
Buzz de SONY : la PlayStation 4 dévoilée le 20 février ?
01/02/2013
Le 04/02/2013 à 09h 15
Le 03/02/2013 à 15h 39
Le 03/02/2013 à 00h 47
Le 02/02/2013 à 19h 10
Le 02/02/2013 à 15h 42
Le 02/02/2013 à 13h 29
Le 02/02/2013 à 13h 14
Le 02/02/2013 à 12h 15
Le 02/02/2013 à 11h 28
Le 01/02/2013 à 13h 04
Le 01/02/2013 à 12h 09
Le 01/02/2013 à 11h 38
Le 01/02/2013 à 11h 11
Le 01/02/2013 à 10h 38
Le 01/02/2013 à 10h 12
[blague pourrie]
Nintendo veut attirer les développeurs d’autres plateformes
01/02/2013
Le 01/02/2013 à 12h 54
Parce que mettre des puces de ouf dedans (genre CELL) c’est mignon mais si personne ne sait en tirer partie / que c’est trop complexe par rapport à la concurrence, eh bien c’est mal barré pour attirer les studios…
C’est bien parce que le Cell n’est pas une puce de ouf que justement les devs ont du mal à en tirer partie.
Mais c’est une autre affaire." />
Le 01/02/2013 à 12h 01