votre avatar

Oryzon

est avec nous depuis le 21 septembre 2012 ❤️

794 commentaires

Le 28/05/2014 à 12h 47







raoudoudou a écrit :



Je te retourne le compliment, renseigne toi un peu sur l’utilisation par tout le monde (sauf toi?) et la presse informatique des mots “nomade”, “ultraportable”, “portable” et “transportable”…



Quand tu dis que ce produit n’est pas nomade, tu te plantes.





Moi je n’ai parlé que de jeu nomade, qui englobe bcp d’usages dans lesquels le LAN figure au mieux en étant ultraminoritaire dans les usages.

Le produit ne répond à aucun des autres usages, notamment ceux que j’ai listé, et tu continues de me dire que je suis je cite “flemmard” ce qui n’a rien à voir avec le sujet.



Donc je persiste et je signe, ce produit n’est pas nomade, il est destiné à être mis dans son salon, branché et ne plus bouger. Que l’on puisse le transporter pour des LAN en fait au mieux un produit semi nomade qui ne correspond qu’à UNE application pour une fraction des joueurs nomades.



Après libre à toi de persister à dire que c’est nomade si ça te chante. Perso j’en reste là dans la discussion. C’est ma position définitive sur le sujet.


Le 28/05/2014 à 12h 14







raoudoudou a écrit :



En français dans le texte, les nomades se déplacent avec leur maison.



C’est carrément un produit nomade. T’as deux fils en plus qu’un ordinateur portable et tu paniques, c’est pas sérieux. C’est pas parce que c’est moins pratique qu’un ordinateur portable que ce n’est pas nomade pour autant…



En prime, c’est un produit qu’on peut accrocher au cul d’un écran. Au final, ce n’est pas différent des ordinateurs transportables (plus grands et lourds que les portables). Faudra juste lui trouver une sacoche adaptée, pour y mettre écran+uc+clavier



Faut effectivement utiliser les bons mots de français pour se faire comprendre. <img data-src=" />





N’importe quoi. <img data-src=" /> <img data-src=" />

En français dans le texte, être nomade ne signifie pas se déplacer avec sa maison et quand bien même où est le rapport avec une LAN ? Quand tu fais une LAN tu déplaces ta maison ?

En français dans le langage courant joueur nomade n’est pas un synonyme de ne faire que des LAN.



Au lieu de sortir des excuses pourries, pour comprendre ce que disent réellement les autres il faut juste ne pas tout ramener à soit et penser qu’on est le centre du monde. <img data-src=" />


Le 28/05/2014 à 08h 59







raoudoudou a écrit :



T’ain, quand j’faisais des LAN au début des années 90, j’trimballais ma tour et l’écran cathodique. Aujourd’hui, on pourrait tout faire tenir dans un sac à dos avec l’écran plat LED super léger sous le bras, et ça fait le flemmard…



do you even lift?





Et moi quand j’avais 13 ans j’embarquais mon Atari ST à vélo pour aller chez des potes.

Et alors ? Je vois pas le rapport avec la choucroute.



Quand je prends les transports je vais pas me trimballer ce machin. Quand je passe du salon à la chambre je vais pas tout débrancher. Quand je veux jouer dans le canap rapidos pendant que qqun regarde la TV je vais pas me brancher ton moniteur, LED ou non, sur les genoux…

Quand je pars en we ou en vacances je pas me taper ce genre de bidules.



Non ce n’est pas nomade.

T’ain quand j’écris français et qu’on me répond portnawak….



do you even think ?


Le 28/05/2014 à 07h 56







Vachalay a écrit :



C’est plutôt pas mal pour une config joueur semi-nomade (comprendre partir en LAN ou ailleurs).

Disons que c’est un Transportable qui peut trouver son utilité.

Core I5 : pas mal pour jouer

2 slot DDR3 : 8 voire 16Go de RAM

Emplacement 2’5 : un p’tit SSD de 256

GeForce 860M : c’est bien suffisant dans la plupart des cas !



Bref pourquoi pas :)





Pour une toute petite partie des joueurs alors…


Le 27/05/2014 à 16h 02

Pour joueurs ?



Je vois pas trop pourquoi… si c’est le streaming je ne vois pas ce que ce modèle propose de plus que n’importe quel produit de la catégorie depuis des années.

Si c’est en local, c’est cher pour ce que c’est pour un produit certes compact mais non nomade. Ni suffisamment puissant ni passif (silencieux) c’est un produit qui à première vue est batard.

Le 28/05/2014 à 08h 46







goom a écrit :



Ôtez moi d’un doute, les hôteliers ont-ils été contraints ou forcer de signer un contrat avec Expedia ou Booking ? Car cette clause, si j’ai bien compris, est présente dans le contrat que les hôteliers ont signé et donc ils savaient à quoi ils s’engageaient. Aucun hôtelier ne s’est préoccupé de la validité de ladite clause ? Est-ce que des hôteliers ont vu leur contrat résilié parce qu’ils n’avaient pas respecté cette clause et ont-ils porté l’affaire devant la justice et quel fut le résultat ? Ce sont autant de questions qui mériteraient des réponses.







Ce qui est illégal est toujours illégal même si les différentes parties prenantes sont d’accord, du moins en apparence.

Exemple : un rapport sexuel entre un majeur et un mineur. Même s’il est consenti cela reste illégal. Autre exemple : la mafia qui vient te racquetter, même si tu dis ok je “signe” cela reste illégal. Un employeur qui impose des conditions abusives dans un contrat de travail, c’est illégal même si le salarié signe pour trouver/conserver son job.



En l’occurence, pour 90% (au doigt mouillé) des hôtels ne pas être présent sur des sites aussi gros c’est se retirer 10/20/30 % de leur clientèle et donc mettre la clé sous la porte.



Je le redis : ce qui est illégal reste toujours illégal, même avec un papelard signé. Ensuite une fois annulé les clauses/contrats tu sanctionnes celui qui est responsable ou en position de force.


Le 28/05/2014 à 07h 54







Sideroxylon a écrit :



C’est juste ce que les plus grosses sociétés de services nord américaines mettent le plus en avant en ce moment, MS en tête.



Ça commence par les entreprises pour avoir du cash régulier et ça suivra ensuite avec les particuliers.



Après, Google+, Facebook et autres, c’est déjà du cloud :-)



Je ne pense pas actuellement que Bull ou Atos puisse héberger un gros service type FB, Dailymotion ou autre façon Akamai, c’est bien ce côté là qu’il veulent attaquer à mon avis





On est d’accord.



Facebook & co c’est déjà du cloud, oui mais pas celui que certains ont en tête = tout est à disposition pour tous mes devices.



Le 27/05/2014 à 15h 02







yoda_testeur a écrit :



Montebourg dit au moins une connerie par semaine en ce moment !



Le cloud !! arr^tez !

Pour utiliser du clou il faut une bonne connection réseau et là, ce n’est pas le cas des usagers en france et même ailleurs. Les boîtes qui parlent cloud ne pensent pas au public mais uniquement aux professionnels qui peuvent avoir de gros moyen de bande passante.



Donc pas de upload pas de cloud, c’est simple, le réseau est trop lent pour utiliser le cloud.



Et puis si vous voulez du cloud autant avoir votre propre système auto herbergé,

(voir affaire NSA et les conditions des fournisseurs de ce genre de service !!!!)



Pour Bull c’est bien dommage que cette boîte va disparaître , une de plus.





Relis mon post stp et tu comprendras qu’il est question des services de l’état, administrations, défense, recherche, ministères… ainsi que des grandes entreprises ou des partenariats publics/privés. Tout cela est hautement stratégique.



Ensuite pour aller sur ton terrain, tu te gourres dans les grandes largeurs.

Le Cloud même au niveau du grand public a un grand avenir. Après soit on ne fait rien en disant “meuh non regardez les connexions, sert à rien…” et le jour où ça explose on a à nouveau 10 ans de retard soit on anticipe et on voit bien que le réseau va sans cesse évoluer, et ce qui est une contrainte aujourd’hui n’en sera plus dans quelques années. Avec ton raisonnement Youtube n’aurait été créé qu’il y a 2 ou 3 ans au plus tôt “parce que bon la bande passante c’est pas encore ça”. Vas y essaies de les concurrencer maintenant…


Le 27/05/2014 à 09h 04







Donk a écrit :



C’est pour préparer le système d’exploitation “made in France”

<img data-src=" />





L’idée est bonne. Montebourg ne dit pas que des conneries. Après c’est l’execution qui laisse à désirer.

Sur ce sujet il faudrait que cela soit au niveau européen avec un OS, un Cloud et des outils administratifs et de communication européens pour à minima l’ensemble des services de l’état.


Le 27/05/2014 à 15h 09

Bon c’est clairement pas à destination du grand public et les volumes seront faibles.

De plus dans ces tailles il y a des coûts incompressibles. Rien que le revêtement en verre doit coûter un bras, ensuite pour manipuler la bestiole pour le packaging ça doit être sport aussi, le stockage, le transport, la distribution… je me demande combien de kilos ça pèse d’ailleurs.

Le 27/05/2014 à 08h 43

Je trouve qu’aller comparer certains détails avec GTA qui a 4 fois plus de budgets et qui sort tous les 5 ans est délirant.

Non il n’est pas en compétition avec GTA à moins que vous vouliez dire que tous les open world bac à sable sont en compétitions avec un jeu qui sortira dans quoi 3 ans ? 4 ans ?

Wd est en compétition avec infamous par exemple pour un joueur PS4.

Le 27/05/2014 à 07h 48







Mithrill a écrit :



Ce qui serait tuant, c’est que Nintendo sorte une future console MAIS

avec le futur gros BEST Seller Zelda full 60 fps Ultra HD et… Occulus…



Oui je rêve je sais… <img data-src=" /> mais vu le peu d’éditeurs voulant se mouiller pour la WiiU

cette stratégie aurait du sens ! Perso Sony et MS ne me font pas rêver là…



…sur ce je retourne sur ma SNES <img data-src=" />





Nintendo va continuer à soutenir la WiiU pendant encore au moins deux ans. Cela ferait 4 ans au total ce qui est vraiment le minimum syndical.

S’ils ne le font pas le message envoyé pour leur prochaine console serait exécrable et ceux même qui réclament une console diraient “oui mais on va attendre de voir parce que vu la vitesse à laquelle ils ont lâché la WiiU…”.

Du coup tout le monde attend, personne n’achète, donc ça ne se vend pas, donc les éditeurs fuient, tout le monde attend ça ne se vend pas etc…

Donc le prochain Zelda il sera sur WiiU. Par contre ils feraient bien de prendre de la graine avec MS qui a lâché Kinect et proposer un pack WiiU sans Gamepad avec un prix d’appel super attractif.


Le 26/05/2014 à 16h 01







Alucard63 a écrit :



Sony ont commandé un proc à IBM. Ils voulaient que ce proc soit capable d’en mettre plein la vue niveau graphisme donc d’avoir une énorme capacité (au moins théorique) en matière de calcul à la virgule flottante.



C’était déjà la volonté de Sony avec l’EE et ça a fortement influencé les choix d’IBM dans son design du CELL, c’est une évidence.



Sortie de la PS3 l’utilisation du CELL est, si je ne m’abuse, anecdotique donc n’aurait pas permis de générer un bon ROI.<img data-src=" />





Attention MS et Sony ont établi un cahier des charges. De tête je crois que MS voulait la meilleur proposition en terme de perf/€ avec un design qui leur appartient et donc Sony probablement la meilleur proposition en terme de perf en calcul flottant tout court, peut-être même avec une petite * du genre et si possible avec une archi unique sur laquelle on va pouvoir communiquer et vendre du rêve.

Pour moi les deux ont fait une erreur. MS moins que Sony mais ils seraient quand même simplifié la vie en restant sur du x86 d’un point de vue commercial (la XBO pourrait surement lancer les jeux 360, et la 360 aurait été compatible Xbox) et d’un point de vue des dev.

Mais je crois me souvenir que MS voulait absolument être proprio du design pour éviter de se faire une nouvelle fois avoir comme avec la xbox où leurs contrats avec Nvidia et Intel les avaient flingués financièrement.


Le 26/05/2014 à 14h 38







Lafisk a écrit :



Et la R&D de la console tu en fais quoi ? Elle ce concoit elle meme peut etre ??? eh ouai, faut bien un peu de R&D pour specifier ta console quand meme, et ca a toujours ete comme ca, on a rarement invente un CPU expres pour une console, enfin peut etre dans l’ancien temps, mais ca fait un bail que les consoles ont des cpu non “dedie”







Ah mais je l’ai mis dans mon com : cahier des charge, intégrateur…

Mais dans la tête de bcp le Cell c’est Sony qui l’a conçu. C’est sur ça que je réagi.



On a rarement inventé un CPU pour une console … il y a eu la PC Engine et puis au-delà du CPU lui même bcp de consoles tiraient leur spécificités de l’implémentation dudit CPU qui était très important. Tu avais aussi souvent des copro spécifiques. Non franchement les consoliers avaient bien plus la tête dans leur hardware avec des choses très exotiques.



Aujourd’hui MS et Sony ont fait ce qu’ils pouvaient pour se différencier, Sony avec de la GDDR unifiée, et MS avec un custom chip embarquant de l’eDram et des modules spécifiques… mais grosso modo ça revient à dire à AMD “faites moi votre meilleur SoC possible en privilégiant la partie graphique”. Effectivement après il faut encore pondre une carte mère autour de ça….



Le 26/05/2014 à 14h 27







Kamalen a écrit :



Hah, comme si IBM avait fait la R&D gratis ! Ca a même du leur coûter une sacré petite fortune au final. Un coût réduit voir supprimé en passant a l’architecture PC.







ça dépend ce que l’on appelle R&D. Si c’est faire un contrat avec une boîte qui va tout faire oui. Si c’est avoir des équipe internes qui font le taf non.


Le 26/05/2014 à 14h 26







Alucard63 a écrit :



Pour le coup…je pense que le CELL n’aurait jamais vu le jour sans la PS3. Pour moi c’est la vision de Sony qui a inspiré le CELL, même si c’est IBM qui l’a implémenté.



Mais je suis d’accord, ce temps est révolu maintenant.<img data-src=" />





“La vision…” <img data-src=" />





Non sans rire je confirme c’est bien IBM qui a proposé les diverses solutions.

Le Cell est un dérivé des proc Power d’IBM, ni plus ni moins.

IBM a fait tout le design de A à Z et l’a vendu à Sony. Même chose pour le Xénon avec MS.


Le 26/05/2014 à 14h 00







Kamalen a écrit :



Et bien bien moins de R&D initiale aussi, étant simplement basé sur une architecture PC des plus classiques.



Que ça soit Sony ou Microsoft, ils ne peuvent plus faire vivre leur branche jeux à crédit, de toute façon.





R&D de quoi ?

Comme quoi la com fumeuse de Sony fonctionne quand même.



Le Cell c’est IBM qui a tout fait au niveau R&D, comme le Xénon d’ailleurs. Toshiba qui a mis en prod, et Sony qui a repris les usines quand Tosh s’est désengagé.



Que ce soit Sony ou MS ils ont surtout le rôle qui vise à établir le cahier des charges, d’intégrateur et de contrôle qualité. Autant de choses TRES importantes, mais niveau R&D dans les CPU/GPU c’est zéro.


Le 23/05/2014 à 09h 26

Le problème n’est pas vraiment la bonne foi ou non de telle ou telle entreprise.

Le problème c’est que les USA ont mis en place un système de surveillance unique en embrigadant de force via des lois adéquates toute l’industrie américaine du numérique.



Même si les USA faisaient réellement machine arrière toute en abrogeant ces lois (ce qu’ils ne font pas au passage), la crise de confiance est désormais majeure.



Pour les entreprises US c’est une trèèèèès mauvaise nouvelle car elles avaient réussies à être ultra dominantes et auraient pu espérer le demeurer encore très longtemps.



Désormais à moyen terme tous les gens censés ont compris que certains hardware et certains logiciels sont stratégiquement trop importants pour certaines libertés fondamentales, pour des raisons de sécurité, de secrets d’état ou industriel…



Donc ce qu’il va se passer à terme c’est que l’amérique du Nord fonctionnera avec du matos et des logiciels américains, les chinois avec du chinois, les indiens avec de l’indien…etc… Il n’y a éventuellement que les européens qui pourraient être trop cons pour continuer à faire comme s’il n’y a pas des secteurs stratégiques où le marché ne doit pas décider. Par contre si les européens se réveillent, cela peut être une TRES bonne nouvelle pour nous : programmes de développement massif à l’échelon européen dans toute l’industrie du web, relocalisation de la fabrication de beaucoup de composants… Et si on se paie le luxe d’être plus intelligents on peut même aller plus loin et faire une gigantesque fondation qui aura pour but de produire des logiciels/hardware non assujettis à aucune agence de sécurité même européenne, un cloud également hors du contrôle d’un état… et du coup proposer à la planète les seules solutions de confiance.



Qui veut monter un parti politique avec moi ?<img data-src=" />

Le 22/05/2014 à 16h 00

Allez avec un peu de chance en France aussi on va se réveiller et on va peut-être se dire qu’au niveau européen être dans les mains des américains aujourd’hui, des chinois demain, sur toutes l’économie numérique en étant pourtant la première puissance éco du monde c’est juste aberrant.

Si cela pouvait inciter nos gouvernements à comprendre que cela ne peut pas durer et qu’il faut rebooster le secteur en Europe avec pour objectifs la création d’OS desktop et mobile 100% européens, de browser, d’outils administratifs etc… Et pour le hardware relocaliser une pléthore d’usine de composants.

Et s’il le faut injecter des milliards dedans, obliger les administrations et les grandes entreprises à s’équiper … un peu comme pour Airbus quoi, où si l’on avait laisser faire le marché on aurait le choix entre Boing et McDonnell.

Le 22/05/2014 à 15h 13







stephano a écrit :



Je ne vois pas le rapport. Il existe des bons produits bon marché avec un os sous windows. Mais c en’est pas certainement pas la surface . Néanmoins cette surface malgré son prix a un certain intéret.





ça ne veut rien dire ce que tu dis. La Surface vaut son prix. Après si on n’est pas intéressé par ses prestations, on pourra trouver mieux pour moins cher comme disent ceux qui comparent une Tour à un portable, en disant “oui mais moi pour moins cher je fais tourner les derniers jeux en Ultra et en 4K”.


Le 22/05/2014 à 14h 56







stephano a écrit :



Et bon marché n’est pas forcément synonyme de mauvaise qualité; de même qu’une tablette chère n’est pas toujours de très bonne qualité. Android c’est plutot l’assurance d’avoir de laqualité à bon prix contrairement aux machines windows qui sont encore trop chère pour ce que c’est même si elles peuvent être utiles ou indispensables à certains usages.





Et bah on y arrive !

Allez retourne sur les news Android, tes posts ne servent qu’à essayer de te convaincre que tes choix sont les bons si ce sont des choix, ou que tes contraintes n’en sont pas si ce sont des contraintes.

Android est un OS de smartphone limité et limitant qui ne boxe pas dans la même catégorie.


Le 22/05/2014 à 13h 30







stephano a écrit :



Ben non c’est ce que tu as compris mais de travers. donc je te reexplique comme tu ne veux pas comprendre.

Proposer un touchcover pour un soit disant pc à ce prix soit disant haut de gamme c’etait une farce à l’époque mais si en plus il faut ajouter 250 euro pour avoir une tablette pc fonctionnelle avec son clavier. C’est prendre les gens pour des jambons.

Ce que tu es?









Tiens tu sais qui a écrit ça :



Déja je te demanderais d’être objectif et d’arreter de faire de la publicité pour ce produit qui coute un bras.

Le tactile c’est sympa mais le rendu d’écran n’est pas toujours terrible que ce soit au niveau de la luminosité, du contraste et du reflet. C’est comme cela. On ne peut pas tout avoir et pour le clavier, on devrait s’attendre à beaucoup mieux à ce tarif. Déja que le touch cover était une farce mais le type cover à 250 euro c’est juste ridicule et je comprends tout à fait ceux qui sont pas contents de payer plus d’un euro pour ce type de clavier.





C’est toi espèce de menteur !

Continues à t’enfoncer.

Ensuite si t’as pas les moyens de t’acheter une SP3, ça ne fait pas de ceux qui les ont des “jambons”. Encore qu’en matière de jambon je suis sûr que toi ton truc c’est le premier prix industriel tout dégueulasse bourré d’antibiotique. Moi en tout et pour tout je préfère me payer la qualité, moins souvent s’il le faut, et être vraiment satisfait. Les trucs bon marché c’est pas pour moi, mais pour autant chacun son truc, tu ne vois pas d’intérêt à la SP3, moi si. Inutile de t’arracher les cheveux et de sortir troll sur troll, mensonges sur mensonge pour essayer de t’auto convaincre. Moi je n’aime pas Android, ni toutes les tablettes en plastoc à bas prix : ça ne m’intéresse pas donc je ne post pas sur les news en question. Chacun ses envies, ses besoins, ses moyens et ses préférences.

Pour qqun qui trouve la SP3 inintéressante je trouve que tu te donne bcp de mal et que tu passes bcp de temps et d’energie à justifier qu’elle n’est pas une bonne machine. Frustré ?


Le 22/05/2014 à 07h 55







stephano a écrit :



C’est pas exactement ce que j’ai dit. J’ai juste expliqué que le touchcover était une blague mais c’est encore plus drole quand les gens ont compris qu’il fallait ajuter 250 euro de plus pour avoir une tablette fonctionnelle avec son clavier. Le probleme n’est pas de savoir si c’est mieux ou pas mieux, c’est juste que c’est trop cher et microsoft prend les utilisateurs pour des vaches à lait. Ils auraient tort de s’en priver quand certains fanboys se jettent dessus sans réfléchir





Si c’est exactement ce que t’as dis : que le clavier est à 250 €. Relis tes posts ou va les éditer pour avoir l’air moins c…

MS propose un produit. Tout le monde est libre d’acheter ou non.

Si cela se vend c’est qu’il auront trouver le bon positionnement prix/prestation/form factor/qualité perçue. Sinon c’est qu’ils auront échoué. Point.

Le reste c’est de l’enculage de mouche.


Le 21/05/2014 à 15h 41







stephano a écrit :



non c’était juste en référénce a cette histoire de stockage sur windows. Tu avais dans le catalogue la surface RT version 32go sans clavier avec un os qui prend a 489e puis la version 64go vendu avec clavier a 699e d’ou une différence de 211euro. On rencontre j’imagine le même probleme sur la version pro mais avec 64go! donc on doit prendre la version a 128go sauf que la facture monte à 999euro sans clavier. Si on ajoute un clavier c’est 130 euro, avec batterie c’est 200 euro de plus. On se retrouve donc avec une surface pro à 1130 alors qu’initialement c’est 799e





<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />



Le clavier est vendu 130€. Point.

Tu le veux tu le prends et c’est 130€.

Dans le genre la mauvaise foi ultime, ya pas mieux. T’es vraiment fortiche.

“Oui mais alors si je veux le clavier + la batterie + un meilleur CPU + plus de SDD + plus de RAM … bah tu vois bien que ça fait plus de 130 € !!!”

<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />


Le 19/05/2014 à 16h 19







atomusk a écrit :



J’ai pas vraiment dit le contraire non plus <img data-src=" />

Je fais juste remarquer qu’une personne qui veux remplacer sa vieille TV HD Ready, n’aura pas un gros “surplus” à se prendre une TV UHD d’ici 2 à 3 ans … et les premières personnes qui demanderont d’avoir un jeu “compatible 4K” ne tarderont sans doute pas tant que ça …





Pas d’accord, à l’heure actuelle même quelqu’un qui a les moyens n’achèterait pas de TV 4K. Pourquoi ? Le contenu. Tant que la TV et la SVOD sont pas en 4K c’est contreproductif d’avoir une TV 4K. Tu vas passer min 95% de ton temps à l’alimenter avec des flux au mieux 2K. Donc 95% (et je suis gentil) du temps tu aurais eu une meilleur image avec une bête TV FHD.

Une nouvelle génération de consoles sera lancée avant que la problématique ne se pose réellement.


Le 19/05/2014 à 15h 53







atomusk a écrit :



La Ram sur console est partagée … donc si on considère un PC avec une carte graphique “de bonne gamme” avec ses 4go de Ram inboard, ça donne un PC limité à 4Go de ram …



Pire, imagine que l’OS se “reserve” sur ces 4go de ram entre 3 et 3.5Go pour ses besoins <img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />







Une carte graphique avec 4 Go de Ram ??? C’est le standard ?

Moi je me souviens surtout d’étude comparative qui démontre que passer de 1Go à 2 Go sur une carte ne sert pas à grand chose.

On peut faire un vrai bon PC pour jouer avec 8GoRAM + 1 Go pour la CG. Et pourtant l’OS qui tourne dessus a certainement une empreinte mémoire plus lourde et il y a moins d’optimisations.



Quant aux 3Go de Ram ou plus alloués à l’OS qui ne peuvent pas être redistribués je suis curieux de voir quelque chose de factuel là dessus et non pas des “on dit”.

Nan parce que bon au niveau de l’OS entre une 360 (PS3) et une One (PS4) c’est pas le jour et la nuit non plus et pour la 360 on parle de 512 Mo de RAM pour TOUTE la console, CPU/GPU/OS.



Pour faire clair on est passé de 0.5 Go à 8 Go soit x16.

Après on aura peut-être besoin de plus dans quelques années sur PC, mais je demande à voir combien de jeux et dans combien de temps. Parce que demander + de 8Go de RAM c’est quand même se couper 95% du marché. Le PC évolue certes mais tout le monde ne s’amuse pas à upgrader à tout va et il dispose donc d’une grosse inertie de renouvellement. La dernière fois qu’un studio a sorti un jeu PC non adapté aux réalités du marché PC mais en pensant que les clients allaient acheter une CG dernier cri, ça n’a pas super bien marché… c’était qui déjà ?



Le 19/05/2014 à 15h 11







Lafisk a écrit :



Certain oublient juste la duree de vie des consoles, autant 8Go ca peut suffire aujourd’hui mais dans 5-6-7ans ? vu combien de temps la generation de console precedente a vecu, qui sait quels seront les besoin precis dans quelques annees. les xbox 360 et ps3 tourne avec genre 512mo de ram si je ne m’abuse la ou les PC sont deja vers les 2Go mini vois 4Go … donc la limite va vite etre atteinte a mon avis car ils vont surement vouloir charger plus de chose a un instant t etc…





On peut toujours vouloir plus mais pour la RAM 8Go j’ai été agréablement surpris car même sur PC plus cela ne sert actuellement pas à grand chose.

Il me semble que c’est plus la faiblesse relative des CPU/GPU qui sera limitante.

Ensuite pour les PC, ça évolue effectivement mais pas tant que cela si l’on met dans la balance les tablettes, hybrides et PC portables.

Le marché PC va se coller à celui de la One/PS4 avec des superior version, et l’évolution fera juste que se faire une config performante dans le temps coûtera moins cher et sera de + en + possible en version mobile.


Le 19/05/2014 à 13h 07

C’est plutôt intelligent de révéler au compte goutte des infos qui n’en sont pas : révéler Halo 5 cela n’est pas marquant. Donc de deux choses l’une, soit ils n’ont rien d’autre à en dire car pas assez avancé et dans ce cas il vaut mieux que ça fasse du buzz avant l’E3 plutôt que de décevoir pendant la conférence, soit ils peuvent en montrer plus et ils auront fait office de teasing sympa.



Au delà de cela je pense surtout que MS prend enfin conscience que sa position de premier dans l’ordre des conférences est un désavantage dans la mesure où cela permet notamment à Sony de s’ajuster par rapports à la conférence MS mais également un avantage car cela lui offre toute latitude pour contrôler le pré-E3.

Sony a un vrai problème, soit ils sortent aussi des annonces pour contrer MS mais ils perdent une grosse partie de leur capacité d’ajustement, soit ils laissent le champs libre à MS pendant un mois.



Je dirai que c’est bien vu de la part de MS.

Le 19/05/2014 à 09h 27







macin a écrit :



Parler et agresser physiquement, il y a un gap, tu fais dans l’exagération. Si demain j’écrit sur mon twitter Fuck France and Fuck Hollande, c’est libre a toi d’aller voir ma page twitter, on ne te force pas.





Si je fais écrire dans une pleine page d’un quotidien Fuck Macin ! What a shit forumer !” tu es aussi libre de ne pas aller la lire…

Ensuite elle ne s’est pas contentée de dire Fuck France. Elle a insulté DD nommément et directement.

Et donc je te confirme, si tu m’insulte directement et nommément sur ton compte twitter il y a de fortes chance que je porte plainte contre toi.







macin a écrit :



Oui, c’est son choix car il peut d’après la loi française. Ca va encore faire perdre du temps a la justice pour une affaire qui n’aurait même pas du être relevé mais on vie dans la news-entertainment de nos jours…





A partir du moment où c’est public et où cela a fait le tour des médias, DD ne peut plus l’ignorer et faire comme si de rien n’était. Je pense qu’il préférerai d’ailleurs, mais tu n’agis pas en fonction de ce que tu préférerais dans un monde imaginaire de bisounours mais de la réalité. Dans la réalité une pouffiasse qu’il ne connait ni d’Eve ni d’Adam peut l’insulter publiquement en 30 secondes et faire le tour des médias. Point. A une époque elle l’aurait insulté en hurlant dans sa chambre ou en appelant une copine WAG dans la même situation et tout le monde s’en serait cogné de ses états d’âmes, aujourd’hui non.


Le 19/05/2014 à 08h 58







macin a écrit :



Et alors? Est-ce que tu te rend compte qu’on muselle tes paroles car on a pas le droit de s’exprimer, place public ou pas? On a le droit de dire ce qu’on pense, on est pas en Corée du Nord.

Même si perso, c’est une qu’une conne cette Anara, si elle a envie de dire Fuck France, je ne vois pas ou est le problème, c’est son opinion et elle ne bosse pas pour la FFF.





Non elle n’a pas le droit.

L’insulte est un délit, l’agression verbale aussi.

Le côté public de la chose est une circonstance aggravante.

Comme je le disais, c’est fou comme il y a une véritable banalisation de cela… C’est quoi l’étape suivante ? L’humiliation, l’agression physique, le viol ?


Le 19/05/2014 à 08h 54







Munsh a écrit :



Il n’a pas à faire taire “sa pouffiasse” qui est adulte et responsable de ses dires…







Bah en tout cas je l’ai trouvé bien mou dans sa réaction Nasri.



Normalement le mec il voit ça, il lui répond en substance “arrêtes ton délire, oui je suis déçu et toi aussi mais retires tes insultes”.



DD peut penser que Nasri lui a demandé de balancer ça après tout.

Sans aller jusque là on peut surtout penser que Fuck France et Nation of racists est un reflet de ce que lui dit Nasri. S’il lui disait qu’il aime son pays, qu’il en est fier, qu’il a un profond respect pour DD et qu’il espère que malgré ses 41 sélections dans lesquelles ses prestations ont oscillées entre médiocre et nul, et une attitude nocive il sera quand même du voyage parce que l’EDF c’est un rêve de gosse pour lui … comment dire ? Tu vois je pense qu’elle aurait réagit différemment et lui aussi.



Pour le reste DD a parfaitement le droit de porter plainte, comme toute personne insultée publiquement. Et j’espère que ce genre de réactions va se multiplier, l’insulte et l’agression verbale tendent à se banaliser, c’est une vraie régression de notre société.



Sportivement, Nasri a eu sa chance à maintes reprises, 41 fois, il a été archi nul au match aller contre l’Ukraine alors que DD lui donné un rôle majeur et l’avait responsabilisé. En sortant du match après la défaite c’était le seul joueur hilare…

Pour le match retour il a eu un mauvais comportement dans le vestiaire parce que môssieur a été mis sur le banc. Il en avait plus rien à foutre vu qu’il pensait que la qualif était morte. On se qualifie et là boum Nasri a la révélation “si si je veux y être, siii”.

Sérieux…


Le 19/05/2014 à 08h 31







after_burner a écrit :



Le fond de l’affaire est que avec ou sans Nasri, nous n’irons pas loin.



Punaise, Giroud et Rémi pour suppléer Benzema à la pointe de l’attaque, nous somme finis à 100% de certitude.

Gomis et Gignac avaient plus leur place dans l’équipe sur cette saison voir suite aux 2 dernières saisons…





Oui, et son tweet j’en ai rien à foutre. <img data-src=" />







<img data-src=" />







Loin des yeux loin du cœur… Deux joueurs moyens plus de L1 valent mieux que deux bons joueurs qui jouent à l’étranger et qui lorsqu’ils étaient en L1 étaient des cadors ? <img data-src=" />


Le 15/05/2014 à 08h 16

Le problème de Sony c’est qu’ils se sont égarés et ont perdu leur client en route.

Ils avaient une image haut de gamme qui a largement été terni par des produits qui ne le sont pas, avec une mauvaise finition. Du coup ils ont le Q entre deux chaises et ne savent plus se positionner pour être attractif, moyen de gamme, milieu de gamme +, haut de gamme… c’est un fourre tout et on ne s’y retrouve pas. On a souvent l’impression de payer trop cher pour ce que c’est.

L’exemple type c’est les PC, il y avait vraiment mais alors vraiment la place d’être l’équivalent d’Apple version Windows/Linux. D’ailleurs à l’origine Apple s’était inspiré des Vaio. Mais ils sont parti dans tous les sens, sans ligne directrice claire, un coup j’essaie de faire du volume, un coup de la qualité, et qu’en plus je te refourgue plein de crapware… Franchement dommage.

A la longue c’est Microsoft qui va finir par prendre cette place si cela continue étant donné que tous les autres sont infoutus de le faire.

Le 15/05/2014 à 07h 58

@Nil

Heu 35M€ de résultat net c’est pas dinguo comme résultat. Encore une fois Numéricable est un nain dans les télécom, autant en terme de CA, d’Ebitda que de résultat. A un moment donné ça serait bien que ça apparaisse parce que là ça cause “grande performance”, “concurrents qui aimeraient en faire autant”.

+48% de résultat tu vas me dire lol. Quand tu as un résultat minuscule en valeur la moindre hausse en valeur devient gigantesque en %, cela ne veut pourtant pas dire que c’est extraordinaire.

Le 15/05/2014 à 07h 50







Cypus34 a écrit :



Ou Parisien… quand on vit dans 1.5m² ça fait du bien d’optimiser l’espace <img data-src=" />





Non non célibataire.

Même dans un petit logement, si tu es en couple, ou pire en famille, tu verras que le concept de l’OR ne peut être q’un complément et certainement pas ton dispositif principal.

Après l’article était intéressant.<img data-src=" />


Le 14/05/2014 à 14h 56







fred2vienne a écrit :



moi je vois pas de problèmes à lâcher 300 boules dans ce truc!!

Bye bye Home cinéma, bye bye le casse tête de l’implantation dans une piece, bye bye les meubles, l’ampli et la tele énorme pour avoir un bon rendu.



2 p’tis écrans en face des yeux et…



Bonjour le canap’ et une bonne biere!!



<img data-src=" />







Faut être célibataire pour penser comme ça.


Le 14/05/2014 à 15h 52







yvan a écrit :



Globalement d’accord avec ton analyse sauf sur ce point, numéricâble bénéficiait dès l’origine des investissements du plan câble en France.

C’était un nain en terme de parts de marché mais pas d’infrastructure.





Mais en terme de CA, Cash et résultat ils pesaient pas grand chose.


Le 14/05/2014 à 09h 16







carbier a écrit :



Il y a un truc que tu ne comprends pas dans le terme de marge ? (petit rappel: calculée en % et non en valeur absolue).



De plus comparer Iliad avec Bouygues dans son ensemble fait sens en effet <img data-src=" />





Je comprend parfaitement le terme de marge (elle est bonne celle là).

Et après ? Tu parles de capacité de financement. C’est une valeur brute. La Boulangerie en bas de chez moi a peut-être une marge incroyable mais je peux t’assurer qu’elle n’a pas les moyens d’entrer sur le marché des télécoms.

Si tu me parles de capacité d’autofinancement du Groupe Free Vs le Groupe Bouygues (c’est toi qui a pleuré sur ces pauvres gens de chez Bouygues qui n’ont pas eu la chance d’avoir autant de sous que Free pour se financer), mes chiffres sont parfaitement adéquats.

Si tu veux parler valorisation et perspectives de croissance, alors là effectivement on va regarder autre chose et notamment les marges.



La réalité c’est que Bouygues avait et a toujours une puissance financière sans commune mesure avec Free pour investir où il veut. Enfin ce serait encore plus vrai si Bouygues n’avait pas systématiquement distribué tous ses résultats. lol.



Enfin sauf si on est un acharné anti-Free et que l’on gobe à plein bouche tout le FUD de Martin. Le pauuuuuuuuvre Martin, il n’a pas eu les moyens que voulez-vous, il faut le comprendre. <img data-src=" />


Le 14/05/2014 à 08h 47







carbier a écrit :



Oui

Mais les marges dans l’ADSL c’est le bien tandis que celles dans le mobile c’est le mal…





Hihihihihi ! <img data-src=" />



Nanmého il faut arrêter là sérieux. Ils t’ont fait quoi chez Free ?



Si tu veux causer sioux voilà les résultats de Free depuis 2001 :



      années                    2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012   



Chiffre d’affaires 81 159 293 491 724 950 1212 1565 1955 2038 2122 3153

EBITDA / E.B.E. 16 44 54 109 224 332 444 525 661 798 833 921

Résultat net 4 29 33 60 68 123 150 100 175 313 251 186



Et voilà ceux de Bouygues :




            années              2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012   



Chiffre d’affaires 25.6 22.2 21.8 20.8 23.9 26.4 29.5 32.7 31.3 31.2 32.7 33.5

EBITDA / E.B.E. 1.6 2.2 2.4 2.6 3.5 3.2 3.6 3.8 3.6 3.3 3.2 2.8

Résultat net 0.3 0.6 0.4 0.9 0.8 1.2 1.3 1.5 1.3 1.1 1.1 0.6





Bon le “petit” truc à savoir, c’est que dans les tableaux les résultats de Free sont en millions et ceux de Bouygues en milliards <img data-src=" />



Donc depuis 2001 Free a dégagé moins de 5 milliards d’Ebitda, soit moins que Bouygues sur les deux dernières années. Même chose pour le résultat net 1.5 Mds en 12 ans vs 1.7 Mds en 2 ans. <img data-src=" />



En 12 ans il n’y a pas eu une seule année où Bouygues n’a pas dégagé au minimum un Ebitda 3x supérieur et un RN 5x supérieur, et encore, la ratio serait astronomique sans les dernières années. Par exemple en 2005 au hasard c’est x10 sur les deux postes.



Mais tu as raison, Bouygues n’a pas eu la chance d’avoir eu du Cash par ailleurs pour se développer contrairement à ces gros riches de Free….



Edit : désolé pour les tableaux ils ressortent mal une fois que je valide le message.


Le 13/05/2014 à 16h 15







carbier a écrit :



C’est bien ce que je dis: tu refais l’histoire… ou alors tu as la mémoire courte…







J’ai une très bonne mémoire. Niel avait annoncé que les offres étaient trop complexes, avec trop d’option et bcp trop chères.

Il a fait une offre simple, forfaitisée et bon marché. Enfin c’est pas comme s’ils n’avaient pas déjà fait la même chose sur le fixe….

Donc moi je veux bien faire semblant que “houlàlàlà c’est la méga ouf surprise, le méchant Free il a attaqué sur les prix, et qu’il l’avait même pas dit, qu’il avait dit qu’il allait faire tout pareil que les autres et gentiment se contenter de 3% de part de marché…” s’il n’y a que ça pour te faire plaisir.


Le 13/05/2014 à 16h 02







carbier a écrit :



Mais bien sur… BT aurait du virer 20% de son effectif en préventif par rapport à l’arrivée de FM…

BT aurait du aussi fermer toutes ses boutiques en préventif etc. etc.

<img data-src=" />



C’est tellement mieux de refaire l’histoire une fois qu’on la connait…







Refaire l’histoire une fois qu’on la connait ? Tu plaisantes ou quoi ?

On peut reprocher beaucoup de choses à Niel mais il a fait exactement ce qu’il avait dit. Il n’y a aucune surprise.



Restructurer cela ne veut pas nécessairement dire virer massivement. Cela veut dire faire une analyse stratégique, se positionner et prendre les mesures adéquates pour la mettre en oeuvre. Et s’il y a un problème de coûts, il est plus facile de lisser une réorganisation sur plusieurs années que d’attendre en serrant les fesses.



Le 13/05/2014 à 15h 56







carbier a écrit :



Le problème de BT c’est :

1- de ne pas avoir eu droit à l’itinérance pour faciliter son lancement

2- de pas avoir pu s’appuyer sur de juteux profits dans l’ADSL pour se financer au début…





1- Il y a 15 ans il n’y avait pas besoin d’itinérance pour se lancer, le marché était embryonnaire et tout restait à faire

2 - Tu veux dire que Bouygues était une start-up sans capitaux qui ne profitait pas par ailleurs de gros marché public juteux à l’attribution douteuse, et d’une licence sur la plus puissante chaîne de TV hertzienne attribuée à vil prix pour des raisons purement politiques et qui rapporte un max ? Mazette ! Au temps pour moi, quel parcours du combattant ils ont eu les pauvres… Toutes ces pertes, aucun bénéfices… Un seul mot : Bravo !


Le 13/05/2014 à 15h 47







coucou_lo_coucou_paloma a écrit :



C’est d’avoir céder 9 tél (je l’apprend grâce à l’article) et d’être reparti de rien (ou pas grand chose) pour recréer un parc d’abonnés adsl quand tous ses concurrents étaient installés.

De plus, contrairement à FreeMobile, il n’a pas eu de contrat d’itinérance lui permettant d’être concurrentiel point de vue couverture à son lancement (à qui la faute ? l’ARCEP, le gouvernement, BT ?).





Céder 9Tel fait justement parti d’un manque total de vision et de stratégie. Même après celà Bouygues aurait pu pendant des années se développer sur le fixe vu les milliards de bénéf issus du mobile. Au lieu de cela ils ont fait à minima et passé un accord avec Numéricable comme un vulgaire MVNO. Ils ne valaient pas grand chose, pourquoi ne pas les avoir racheté ? Mon dieu non, investir, quel gros mot… Signons un contrat et distribuons les dividendes, miam !

Sur le mobile quand Free arrive cela fait lonnnnnnngtemps que les investissements sont archi archi rentabilisés. Ils ont à ce moment là 3 ans pour décider : faut-il se positionner haut de gamme et investir pour enrichir le réseau ou préparer le terrain à un affrontement sur les prix et se restructurer ? Aucun des deux mon capitaine ! Gavons nous tant qu’on peut on verra plus tard, il sera toujours temps de faire jouer nos bons appuis politiques…



La famille Bouygues est une plaie. Ils doivent tout à l’Etat. La participation dans Alstom c’était un cadeau afin de s’assurer que le groupe ne puisse pas faire l’objet d’une OPA étrangère. Résultat des courses c’est Bouygues qui ORGANISE l’OPA pour en tirer le plus de fric possible…

Avec Bouygues les intérêts industriels sont bieeeeen préservés. Vivement que Bouygues soit dépecé bout par bout.


Le 13/05/2014 à 15h 06

Donc le problème de Bouygues c’est d’être arrivé APRES Orange et SFR mais AVANT Free ?? <img data-src=" /><img data-src=" />



Le problème de Bouygues c’est de ne jamais avoir su/voulu mettre en place une stratégie à long terme avec les investissements qui vont avec.

Orange a une stratégie claire, héritée de son passé, investir pour avoir le meilleur réseau que ce soit en fixe (FTTH) ou mobile, et pouvoir positionner ses offres qualitativement.

Free a une stratégie claire, se positionner avec le meilleur rapport qualité/prix en se focalisant sur le coeur de l’offre et en investissement de manière agile et opportuniste pour y parvenir.

SFR et Bouygues se sont contenter de naviguer à vue, entre deux eaux, en profitant de gros cash flow pendant des années sans rien entreprendre d’un tant soit peu risqué ou ambitieux.

Voilà comment deux nains (Numericable et Free) aux capacités financières à l’origine limités vont avec une bonne stratégie à long terme finir par gober deux gros (SFR et Bouygues) qui se sont contenter de s’asseoir sur une rente.

Le 13/05/2014 à 16h 47







ludo0851 a écrit :



ils auraient fait encore plus fort en baissant le prix et en ajoutant une 2eme manette et un jeu <img data-src=" />

Sérieusement, il faut bien conserver la rentabilité : baisse de prix=bundle allégé

Psychologiquement il était important de se mettre au niveau de la PS4, ce qui est difficile à faire en conservant le Kinect( que bcp jugent inutile)





Bah c’est surtout qu’ils font un premier pas pour voir comment le marché répond.

Il faut voir aussi les annonces de l’E3. S’ils font un gros E3 le risque était grand qu’ils ne puissent pas capitaliser dessus à cause de la différence de tarif. La mise à niveau était logique, mais vu les déclaration je pensais qu’ils allaient juste annoncer une baisse du package à l’E3.

Là ils font sans doute ce qui est le plus raisonnable financièrement et au vu des retours en période post Snowden mais je ne peux pas m’empêcher de me dire “bon tout ça pour ça quoi. Au final c’est une 360 upgradé, comme la PS4 est une PS3 upgradée, quelle perte de temps et quel gâchis.”


Le 13/05/2014 à 15h 19







caesar a écrit :



mouééé je suis d’accord <img data-src=" />



C’est peut être un peu dangereux pour microsoft non ?, leur store win 8 n’est pas tres fourni il me semble. Ne va t il pas y avoir mass portage de merde des applis WP 8. Je trouve qu’a l’heure actuel c’est le gros défaut des stores, y a pleïades d’appli de mouise et pour trouver l’appli que l’on veut c’est souvent difficile.

(tiens VLC par exemple j’ai du en installer 2 ou 3 avant de tomber sur la bonne appli)



Si je devais ouvrir un “store” aujourd’hui je pencherais plus pour la qualité que la quantité…



Mais a terme c’est certain que le portage aura plus d’attention et du fait du gain de temps surement de meilleur qualité qu’actuellement vu le nombre de portage non/mal maintenu.



edit : bon toutes les applis wp ne sont pas forcement fait avec VS non plus …







Moi aussi je suis d’accord sur ta priorité sur la qualité.

Mais comme dans l’inconscient collectif Store de qualité = nombre d’applis bah pour MS c’est tout bénéf. Il y aura plein d’applis, ce qui le rendra attractif, ce qui augmentera l’audience, ce qui attirera les devs de qualité etc…

Que dans le process il y ait un tas de saloperies n’a aucune importance, on le voit bien chez Apple et Google, ce qui compte c’est la taille et devenir incontournable.



Mais oui perso je rêverai d’avoir un store où je sais qu’il y a un gros contrôle qualité, et que quelque soit l’appli dessus elle soit un minimum bien foutu.

Faut pas désespérer, c’est l’histoire des consoles des années 80 qu’on revit, tout est un éternel recommencement.

Pour rappel : les consoles ont un succès énormes et ouvrent un nouveau marché qui au début laisse penser que c’est un eldorado gagnant à tous les coups =&gt; afflue des dév et course au jeu vite fait mal fait pour sait-on jamais sur un malentendu faire un gros jack pot =&gt; qualité qui s’effrondre =&gt; bons jeux noyés =&gt; faillites en cascades=&gt; arrivée de Nintendo qui impose un système autoritaire avec un contrôle qualité (le fameux “Seal of Quality” de Nintendo) =&gt; reprise de confiance des consommateurs =&gt; forte reprise du marché sur des bases saines.



Le 13/05/2014 à 14h 42







caesar a écrit :



&gt;&lt; j’ai testé dxe6, y a peu d’amélioration, leur éditeur de thèmes est tjrs complètement raté, on ne peut tjrs pas éditer les thèmes en firemonkey (qui est accessible d’un clic droit sur VCL) ou comment rendre un truc génial sur le papier le plus infect possible… <img data-src=" /> (et je parle même pas des bugs :p) il y a quand même quelques api de plus







Vu le nombre de plateformes de VLC tout moyen de mutualiser le code c’est du bonheur :)

Rien que pour le coté maintenance le gain est énorme







Je ne critique pas l’outil directement, je mets en garde le coup du “en 2 minutes ça compile pour win/wp. Vu que l’autre jour on m’a fait un procès parce que je parlais “d’ergonomie”, je pensais pas que c’était encore un concept inconnu de nombreux développeurs







Oula je ne suis pas certain que les API ai été fusionnées, mais au moins tu y a accès sous le même environnement.





^^ Pour le coup c’est obligatoire :p



C’est certain c’est une grande avancée pour les développeurs, et a condition que ceux ci ne bâclent pas le travail un gain pour l’utilisateur final, vu le gain de temps que cela dégage pour le développeur.







Verre à moitié plein… tout ça…

Tu vas FORCEMENT avoir des applis un peu (bcp ?) bâclés, quel que soit le sens de portage par facilité-flemme-moyen-ce que tu veux.

Mais si ces applis sont portés parce que c’est “facile” c’est que sans cette facilité elles ne l’auraient pas été du tout. Ensuite une fois portées si elles ont malgré tout un intérêt, elles seront critiquées et incitées à être optimisées. Et si elles n’en ont pas elles iront se perdre dans la masse des applis sans intérêt…



Le 12/05/2014 à 09h 13







Liam a écrit :



C’est ce qui compte aujourd’hui. La WiiU est peut-être super-performante sur le son je ne sais pas, mais aujourd’hui ce qui fait la différence c’est la capacité de calcul afin d’afficher des “beaux graphismes”. Tu vas me dire que “beau” est quelque chose d’infiniment subjectif et je te répondrai : certes. Mais qui peut le plus peut le moins.



A l’heure actuelle, qu’on le veuille ou non, pour porter un jeu de la XOne ou PS4 à la WiiU, il faut tailler à la hache dans le nombre de polys, la taille des textures, le nombre de sources de lumières, les effets etc. C’est du boulot et ça donne un résultat que le joueur juge généralement décevant.

Être super bon en antialiasing c’est bien, mais ça ne suffira pas à compenser.







Non, ça n’a rien de subjectif. La beauté des graphismes est subjectif, la capacité à afficher des rendus plus élaborés en temps réel est totalement objectif. Et de ce point de vue là, la WiiU est à la rue.



Or, qui peut le plus peut le moins. Wind Waker HD est certes, selon ma subjectivité, absolument magnifique (et je pèse mes mots), mais objectivement une Xbox One se balladerait pour l’afficher. Les devs feraient ça avec une main dans le dos et la console l’afficherait en se tournant les pouces.



Quoiqu’on pense subjectivement des derniers blockbusters à la mode, il demeure que la WiiU ne fera objectivement jamais tourner Uncharted 4 correctement. Jamais. Elle en est incapable.





Le problème est là : la PS4 et la XboxOne font et feront graphiquement des choses que la WiiU est incapable de faire. L’inverse n’est pas vrai, sauf sur des points de détail qui ont une influence minime sur le rendu final et l’impression laissée aux joueurs.









Super, et comme tu es le nombril du monde, les chiffres de vente montrent combien ton avis est universel. Oh, wait…







Pardon mais niveau innovation et gameplay, j’en ai justement gros contre Nintendo. On pense ce qu’on veut de Sony, mais ils se sont pas cantonnés à Gran Turismo. Et ils se sentent pas obligés de recycler les mêmes licences avec les mêmes mécaniques de gameplay génération après génération.



La dernière grosse innovation de Mario, c’était Mario 64. La dernière IP originale et majeure de Nintendo, c’était Pikmin sur NGC. Désolé si tu trouves que je trolle, mais pour moi aujourd’hui Nintendo, c’est remakes à gogo et party games et compagnie. Et c’est pas NES Remix 2 qui va améliorer cette image. (NES Remix DEUX putain, une SUITE à une série de MINI-GAMES qui recyclent des jeux d’il y a 25 ANS !! C’est une caricature !! Tu vas pas me dire qu’ils tendent pas le bâton pour se faire battre !)



J’ai aujourd’hui plus de respect pour Microsoft à qui on doit un énorme souffle indé qui a représenté un énorme bol d’air frais pour le monde du jeu vidéo, et pour Sony qui ont participé à l’émergence de jeux comme Flowers ou Journey ou ont créé LocoRoco, que pour Nintendo qui recycle à n’en plus finir des jeux dont l’ensemble des mécaniques ont été définies pendant l’ère SNES ou, au mieux, N64.



Et même niveau console… la mablette est un échec. Comme Kinect sera un échec. Ces “innovations” sont des impasses. “Innover” avec des tas de nouveaux accessoires c’est une chose, encore faut-il savoir pourquoi on le fait et ce que ça va apporter au jeu vidéo. Parce que là on est en train de nous rejouer l’épisode du Powerglove et du Sega Activator. Ca n’avait pas marché la première fois, pour l’instant les chiffres annoncent clairement que ça ne marchera pas mieux la deuxième fois.







Je suis d’accord avec toi sur plusieurs points. Pour les licences ils en ont créées aussi mais le pb avec Nintendo c’est qu’il sont toujours dans la retenue, il faut que ça reste orienté “enfant” plutôt qu’“adulte”.

Si j’étais eux je monterai un énorme studio interne parallèle et indépendant avec pour missions de faire tout et n’importe quoi sauf du Nintendo, hormis sur la Q&A.



Pour la mablette cela aurait du être une option, genre si tu veux jouer à ta console dans ton lit, ou pendant que quelqu’un regarde la TV.



Kinect, je me demande ce que MS va en faire, mais quant on voit les possibilités sociales + le fait que les derniers proto de casque VR réclament une caméra et pour l’Oculus et pour le Morpheus… tu te dis que c’est quand même plus facile de vendre juste un casque, plutôt que de dire il faut aussi acheter la caméra et la placer dans ton système alors que tu ne l’avais pas prévu. Là chez MS c’est de base.


Le 12/05/2014 à 09h 01







Citan666 a écrit :



Alors, il y a certes du vrai dans ce que tu dis, je ne partage cependant pas ton analyse pour les raisons suivantes.




  1. Je n’ai hélas pas plus de sources sérieuses que toi, il me semble néanmoins connu et reconnu que la Wii U est la première console à être vendu sans marges (et même à pertes) de l’histoire de Nintendo.





    Ah bon ? Pour moi c’est plutôt l’inverse : la Wii était la première console de salon de N à être réellement taillée pour ne pas être vendue à perte à sa sortie. Pour moi le modèle on sponsorise la console et on se rattrape en se gavant sur les jeux est même une pure invention de Nintendo qui a révolutionné le marché dans les années 80.

    A voir.



    Pour la WiiU je ne pense pas qu’elle était prévue pour être déficitaire. Le problème c’est que le niveau des ventes est tellement faible que les coûts en terme de stocks et/ou de ralentissement de la production la font passer dans le rouge. ça plus le fait que si tu veux vendre tu es obligé de dépenser plus (plus de rabais en jeux/accessoires/remises, plus de dépenses marketing) et le bel équilibre que tu avais planifié s’écroule.









    Citan666 a écrit :



  2. Quand tu évoques Microsoft, tu “oublies” de préciser que, bien que nouvel arrivant sur le marché, il a déployé des sommes COLOSSALES, complètement délirantes et déraisonnables pour investir le marché à coup d’exclusivités, de vente à perte à un taux suicidaire pour toute autre boîte, de campagnes de pub marteau…

    Microsoft n’a réussi QUE parce qu’ils pouvaient se permettre de PERDRE des MILLIARDS de dollars. Ca faisait d’ailleurs évidemment partie d’une stratégie long-termiste dont on a vu (ou plutôt aurait dû voir <img data-src=" />) les fruits avec la gen actuelle.





    Non je n’oublie pas. Mais ça ne change rien, au contraire. Le fait que MS perde autant sur la Xbox et que tout le monde le savait aurait du permettre à la GC de se faire une belle place. Le problème c’est que la GC n’était pas intéressante pour le grand public, que ce soit pour de bonne ou mauvaises raisons et elle a donc fait un bide incontestable.







    Citan666 a écrit :



  3. Quant à Sony, ils ont très très bien géré leur stratégie à tout point de vue (bon compromis puissance/prix, campagne marketing lourde, partenariats tiers), si on y ajoute la renommée acquise avec la PSOne leur assurant d’être généralement la plate-forme source de jeux multi, leur victoire était logique.





    Sony a joué son jeu, mais Nintendo, Sega et MS lui ont facilité la tâche. Sega est parti trop tôt avec la Dreamcast sans aucun éditeur tiers majeur, et MS est parti trop tard et … sans aucun éditeur tiers majeur.

    Nintendo avait une belle carte à jouer mais ils n’ont pas pris les bonnes décisions. Le format jouet de la GC est une erreur de même que son format propriétaire. Cela a tout de suite refroidi les grands éditeurs occidentaux. Sa vente de Rare était une très bonne affaire financière mais un message catastrophique pour les joueurs et les éditeurs. Il aurait fallu pour compenser que Nintendo utilise cette manne pour se rapprocher de EA, Konami et Square en plus de Capcom.







    Citan666 a écrit :



  4. Enfin, en quoi ne pas être premier des ventes consiste en un échec ? Sur la gen GC, Nintendo a globalement gagné des sous grâce aux consoles et aux jeux (et sans doute aussi sur les licences tiers). Ils ont fidélisé plusieurs millions de joueurs supplémentaires de tous âges, consolidé leur image de “safe entertainemnt provider” vis-à-vis des parents, ont évité les affres du piratage durant la majeure partie de la vie de la console, auront progressé en maîtrise technique, etc etc…





    Ne pas être premier est une chose, être dernier en faisant le plus petit score historique de ton entreprise dans un marché qui explose…

    J’ai franchement l’impression que tu confonds furieusement la GC et la N64 qui s’est mieux vendu (+50% quand même) et a enchaîné plusieurs gros hits, et qui malgré tout est déjà considérée comme un semi échec.







    Citan666 a écrit :



    Réellement, je persiste et signe sans animosité aucune, parler d’un échec critique vis-à-vis d’un produit dont l’impact aura été globalement bénéfique à tous points de vue, outre le plaisir de jeu octroyé à la communauté, est une aberration.





    Sans animosité aucune c’est un échec si cuisant qu’il en a modifié la position stratégique de Nintendo sur le marché par la suite. Tu mélanges tes sentiments personnels avec la réalité.







    Citan666 a écrit :



    La stratégie de Nintendo était-elle impropre à lui octroyer la première place ? Absolument : entre le poids des licences Nintendo sur les ventes globales de jeux, l’architecture spécifique, le format mini-DVD et la manette spéciale, il était difficile d’attirer les éditeurs tiers (surtout quand à côté MS ou Sony ouvre la malette). Et sans les éditeurs tiers, il est difficile de casser la baraque.





    La stratégie de Nintendo d’opter encore une fois pour un format propriétaire est une aberration, l’exemple type de celui qui ne veut pas tirer les leçons de son échec avec la cartouche N64.

    Les éditeurs attendaient un format standard et des signes de Nintendo pour montrer qu’il va leur lâcher du lest.

    C’est une erreur d’avoir cru que Nintendo pourrait encore faire cavalier seul, encore plus seul que sur N64 avec la vente de Rare. Là encore Nintendo refuse de tirer les leçons qui s’imposent et s’enferme en plus dans ses rancoeurs (Square notamment).







    Citan666 a écrit :



    D’ailleurs les jeux matures dont tu parles sont arrivés dans un deuxième temps, bien trop tard pour inverser la tendance globale de désintérêt du public pour la console. On le voit bien à chaque génération, ce sont les 1824 premiers mois qui dessinent les grandes tendances de marché. Il est extrêmement difficile ensuite de faire revenir les joueurs, du fait du porte-monnaie limité et de l’attraction sociale (acheter la même console que les potes pour jouer en multi).





    Nintendo avait compris qu’il fallait étoffer son offre, ça c’est le bon point. Par contre il a penser qu’il pourrait le faire en interne et avec un seul vrai partenaire tiers Capcom. Dès la sortie de la console Rogue Squadron est là pour ça. Les annonces de RE sont faites en début de gen et le partenariat est à l’origine exclusif. Ce n’est qu’à cause des ventes faibles que Capcom sort par la suite RE4 sur PS2 notamment.







    Citan666 a écrit :



    Etait-elle impropre à permettre son bon développement ? L’histoire aura montré que non.<img data-src=" />





    <img data-src=" /><img data-src=" />

    Je ne sais pas ce qu’il te faut….. Je pense que si Sega avait eu un peu de cash la Dreamcast lui serait même passé devant avec des jeux plus marquants.


Le 09/05/2014 à 08h 18







Citan666 a écrit :



+1 sur l’analyse Wii U, en revanche le coup de “Gamecube qui est un cuisant échec”, ça me fait bien marrer, concernant une console qui s’est vendue à peine 3 millions de moins que la Xbox pour un total &gt;20 millions, dont chaque jeu Nintendo s’est vendu à plusieurs millions d’exemplaires, et qui a accueilli en outre (au moins) une bonne vingtaine de titres tiers qui se démarquaient très nettement par leur qualité, allant parfois jusqu’à mettre une rouste graphiquement aux jeux des consoles concurrentes… <img data-src=" />



Oui la console a fini bonne dernière sur le podium (si l’on oublie la Dreamcast <img data-src=" />), et il s’agit de la console Nintendo la moins vendue (laissons une chance à la Wii U) et alors ? Qu’est-ce qu’on s’en branle ? Elle a offert plusieurs dizaines de jeux réellement dignes d’être joués et possédés, et Nintendo a gagné des sous sur CHAQUE console et CHAQUE jeu Nintendo vendu (je ne sais pas pour les jeux tiers).



Un échec dont l’issue consiste pour son auteur a avoir amassé des millions de dollars en bénéfices net sur le cycle de vie, perso je me mets à leur place quand ils veulent.<img data-src=" />





Pour la Gamecube, je ne parle pas d’échec au niveau ludique parce que ça de toutes façons c’est subjectif donc tout le monde aura toujours un avis qui ne se discute pas, ou peu.

La GC est un échec financier, commercial et stratégique cuisant oui.

Financier car jamais Nintendo n’avait autant investi pour faire une console aussi puissante pour aussi peu de vente. Il faudrait regarder les chiffres mais je ne pense pas que Nintendo ait gagné de l’argent avec la GC. Cela était couvert par les profits sans fin des consoles portables et des Pokémon de l’époque.

Commercial car c’est la moins vendu des consoles Nintendo, dernière de sa gen ce qui est historique et derrière un entrant MS qui est arrivé sans licences, sans marque, d’un monde différent, en se plantant sur son lancement, et qui n’était présent que sur un marché 12 (US + un peu d’Europe) à une époque où le japon pesait encore très lourd et sans le soutien des éditeurs majeurs japonais + US. Si ça ce n’est pas un échec de fou…

Stratégique car Nintendo a fait pour la GC TOUT ce que le microcosme gamer leur demandait :




  • une console puissante

  • un disque optique

  • une console facile à programmer

  • un prix grand public

  • un partenariat fort avec un gros éditeur pour amener des licences plus mature (Capcom)

  • des gros jeux maisons en veux-tu en voilà avec là encore un effort sur la diversité (Eternal Darkness, Metroid)

    Pour quel résultat à l’arrivée ? Une plantade record.



    De cet échec est né la certitude pour Nintendo que suivre la voie de Sony était une erreur et que Nintendo plutôt que de lutter frontalement face à des groupes comme Sony ou MS devait absolument se différencier et proposer autre chose qu’un upgrade par la puissance.