votre avatar

Alucard63

est avec nous depuis le 7 mars 2006 ❤️

3592 commentaires

Le 22/02/2013 à 13h 35







Mokona a écrit :



heu ….. ps2 c’est vraiment restreins par contre ….. meme la wii est mieux emulée





J’avoue PS2 j’ai pas trop testé mes PC sont pas assez puissant.<img data-src=" />



Mais le reste ça marche même sur netbook.<img data-src=" />


Le 22/02/2013 à 13h 31







Takaï a écrit :



Seulement pour les premiers modèles.



Les suivantes ne l’étaient plus “pour des raisons techniques”, mais ça ne les empêche pas de les ressortir via le PSN.



Et paradoxalement tout les jeux PS1 marchent nativement sur les PS3… <img data-src=" />



s’accroche comme une tique à sa PS3 60Go rétrocompatible. <img data-src=" />





Sinon les jeux PS1, SNES, Megadrive, Game Boy, Game Boy advance, NES, PC Engine, N64, Dreamcast voir PS2 marchent très bien sur émulateur PC.<img data-src=" />


Le 22/02/2013 à 13h 11







levhieu a écrit :



Et surtout, la plupart du temps peu d’intérêt à utiliser l’A7 une fois qu’on a fait appel à l’A15.

Cf.: Quand Jean Valjean arrive et aide Cosette à porter le seau d’eau des Thénardier, ya plus besoin que Cosette se fatigue.





Par contre dans notre cas c’est Jean Valjean qui suce pas Cosette.<img data-src=" /><img data-src=" /><img data-src=" />


Le 22/02/2013 à 12h 42







jaretlafoudre a écrit :



ok, 8 coeurs, masi si je comprends bien ici, en fait jamais il ne fonctionnent en même temps, on a soit le A7, soit le A15 mais pas les 2 en même temps c’est ça ?



Sinon pour le S4, il est en fait de plus en plus question que ca soit autre chose que ce SOC qui equiperais leur nouveau smartphone…





Si je ne m’abuse ils peuvent aussi fonctionner en même temps si besoin avec l’architecture big.LITTLE…par contre je donne pas cher de la batterie d’un smartphone dans ce cas de figure.<img data-src=" />


Le 22/02/2013 à 12h 40







BrainZERO a écrit :



Pour info, le switch de processeur est immédiat car les deux processeurs partagent les mêmes registres, caches, pipelines etc (la mention d’architectures ARM identiques est essentielle au concept de partage dans ce cas). Il est alors possible de partager tout ce qui fait un contexte d’exécution pour un processeur et, selon le besoin, faire en sorte que ce soit l’un ou l’autre qui fasse le boulot. Bef, vous pouvez voir cela comme une virtualisation du processeur ce qui permet de passer de l’un à l’autre de façon transparente.





Merci pour l’info.<img data-src=" />


Le 22/02/2013 à 11h 11







sylvere a écrit :



Pour les Tegra il y a 5 coeurs Cortex-A dans le système,

le switch c’est pas du custom, c’est du software, c’est géré par l’OS.

(d’ailleurs le switch du big-little c’est aussi pas mal software d’après les doc de ARMhttp://www.arm.com/files/downloads/big.LITTLE_Final.pdf)





J’étais convaincu que c’était du hardware. My bad.<img data-src=" />


Le 22/02/2013 à 10h 52







sylvere a écrit :



preuve ? la plupart des articles techniques s’accordent à dire que c’est un coeur cortex-a9





tu parlais de Tegra 4,

pour le Tegra 3 c’est le même principe 5 coeurs Cortex A9

le 5ème coeur étant juste synthétisé avec un technologie low-power (qui monte peut en fréquence), c’est de la technologie de fabrication, il n’y a pas de changement de design, aucun, le design vient d’ARM.



Je le répète: actuellement dans le commerce seuls les CPU Qualcomm ont vraiment un design perso.

Pour les autres la différence se fait dans les choix d’intégration: mémoire cache, GPU, coprocesseur, technologies de fabrication, optimisation du placement/routage, contrôleurs mémoire plus ou moins bien présenté par les marketeux.







J’ai du me tromper de touche parce que je voulais parler du A9. <img data-src=" />



De la même manière le A7 a des perfs entre le A8 et le A9 et pas entre le a7 et le A8… <img data-src=" />



Et je le répète le A9 n’a jamais été pensé pour le big.LITTLE donc pour gérer le switch d’un processeur à l’autre c’est du CUSTOM.



Quand à swift c’est bien du custom: merci de jeter un oeil aux différentes architectures avant d’avancer des choses fausses.<img data-src=" />


Le 22/02/2013 à 10h 17







sylvere a écrit :



Tu es tombé en plein dans le piège que t’on tendu les marketeux, Swift c’est du Cortex-A9 très légèrement modifié.

Tegra 4 c’est annoncé comme étant du Cortex A15. Le companion core est aussi un Cortex A15.





Swift est une amélioration on la qualifiera comme on veut reste que c’est une modification du design( et qui a des conséquences en termes de perfs )…que samsung n’a pas copié que je sache…



Quand au tegra 3 comme je l’ai dit le A9( pas A15 ) n’a jamais été pensé pour le concept du big.LITTLE donc pour gérer les switchs c’est forcément du custom.



Après on peut dire que c’est mineur reste que c’est des éléments que Samsung n’a jamais intégré dans son design qui est une simple transposition du design ARM.<img data-src=" />


Le 22/02/2013 à 10h 12







kwak-kwak a écrit :



La vache, le gros machin bouffe quand même jusqu’à 6W (Soit autant queles Intel Atom série N sur nos Netbooks) et ce sans inclure le GPU ou encore l’écran. Pour le coup j’ai quand même de sérieux doute sur le fait que l’on voie ce processeur ailleurs que sur une tablette.

Et même dans ces conditions, il ne risque de ne pouvoir fonctionner à plein régime uniquement la tablette branchée. De plus il va falloir réviser les chargeurs USB, les 5W de puissance (10 quand on a de la chance), risquent de faire un peu léger.





Les A15 ne sont pas fait pour les smartphones si on les utilisent seuls.



Ils sont plus puissants à fréquence égale qu’un Atom mais c’est au prix de la consommation.



Les A7 au contraire seront plus économes que n’importe quel A9 ou A8 pour des performances entre le A7 et le A8.



Donc 6W ça sera pas souvent AMHA.<img data-src=" />


Le 22/02/2013 à 10h 08







sylvere a écrit :



Non, Apple et NVidia implémentent aussi le design de ARM



Il n’y a que Qualcomm qui fait réellement du custom





Non Swift n’est pas le design ARM, le tegra 4 n’est pas non le design de base ARM( il n’y a pas de coeur compagnons avec le design A9 à la base ).<img data-src=" />


Le 22/02/2013 à 10h 00







illidanPowa a écrit :



Je parlais des clients tels que LG, Apple, etc…… pas des michus…. Samsung grâce à sa position espionne les autres mais se permet en plus de passer en priorité, d’où leur position actuelle….





Dans ce cas pourquoi à chaque génération ils se contentent simplement d’implémenter le design de ARM alors que Apple, Qualcomm ou Nvidia fait du custom par exemple?<img data-src=" />


Le 22/02/2013 à 09h 49







Gilbert_Gosseyn a écrit :



L’idée me parait bonne (du moins sur le papier).





Pour info Samsung n’a rien inventé ils vont juste être les premiers à implémenter le concept proposé par ARM.<img data-src=" />


Le 22/02/2013 à 09h 45







wawa91 a écrit :



Galaxy S 2: 2 coeurs

Galaxy S3: 4 coeurs

Galaxy S4: 8 coeurs

Gaalaxy S5: 16 coeurs et ainsi de suite…c’est vraiment du n’importe quoi!



Même les PC se sont arrêté à 4 coeurs.





Galaxy S 20: http://1.bp.blogspot.com/-nKhMxZEMPD4/TbXdnzgzIjI/AAAAAAAABZ0/3PcoBU76V8E/s1600/800px-IBM_Blue_Gene_P_supercomputer.jpg.<img data-src=" />


Le 22/02/2013 à 09h 30

Ca semble beaucoup plus INtéressant que le Tegra 4 sur le papier…à voir en pratique.<img data-src=" />

Le 21/02/2013 à 19h 45







Punkenjoy a écrit :



Le point de l’HDMI est une autre raison comme quoi le 4K n’est pas une technologie mature. Ça et le fait qu’il n’y en a pas encore de disponible <img data-src=" />



Donc ce n’est pas un mal qu’un produit grand publique fasse l’impasse la dessus. Les PC pourront la supporté et rendu la, les cartes graphiques auront la puissance et la mémoire nécessaire pour tout faire tourner.



Ensuite, le choix des CPU Jaguar, c’est lier à la consomation c’est certain. Ces petits CPU ont cependant de bonne performances si on leur donne une fréquence raisonnable.



Ils sont Out of order contrairement au Atom (enfin je ne sais plus si les dernier sont toujours In Order)





L’atom est in order jusqu’à ce que Silvermont arrive fin 2013…on verra le résultat en fin d’année…



Je pense que le Jaguar n’est pas une foudre de guerre: on parle de 10% à 15% de plus que le bobcat à fréquence égale( pour un seul coeur ), par contre il devrait monter plus haut en fréquence car son pipeline est plus long.


Le 21/02/2013 à 19h 33







bneben a écrit :



Faut voir les choses autrement ! Intel à fait de bons proco qui ne demande pas spécialement d’optimisation dans les jeux pour être devant. Par contre AMD à développé des CPU avec une très bonne capacité/puissance, mais dont il faut connaitre les optimisations à apporter à son jeu, et a partir de là ca devient de véritable bombe pour pas cher !

Le dernier jeu qui le prouve est Crysis 3, les test montre bien qu’un AMD à 120-130€ fait mieux que les Intel à 300€ !



Alors les dev qui ne feront des jeux que sur CPU AMD pour consoles vont connaitre les moindres optimisations possible à faire (surtout en Thread), et cela donnera des jeux fluide, avec un dev pas cher, une plateforme pas cher, et un portage sur PC très facile :)





Surtout dire que le Cell est puissant est débile. C’est juste un processeur qui propose une architecture différente de celle habituelle( 1 coeur in order et des DSP ).



Le PPE du Cell( comme le 3 coeurs du xenon ) est une grosse merde même en comparaison d’un vieux Pentium 4 de 2005, quand aux SPE ils ne sont utiles que dans des cas très particuliers…



Les chiffre théoriques en Glops c’est de la com, si on regardait que les Gflops le Cell serait plus puissant que n’importe quel i7 ( et de très loin ).



Sauf que l’on parle de calcul théorique( uniquement à la virgule flottante étrangement on oublie les entiers…) et que la théorie et la pratique…



On parlera pas du manque de mémoire cache du PPE et pire encore des SPE qui est un vrai cauchemars pour les programmeurs…



Si Sony n’a pas choisi le Cell pour la PS4 il y a de bonnes raisons.



Mais c’est vrai que c’est dur à faire avaler aux fanboy de base après 7 ans de com sur le cell…<img data-src=" />



Le 21/02/2013 à 19h 06







rinac9 a écrit :



Un peu déçu, par rapport à une PS3 (certes un gouffre financier) qui a je pense un cpu plus puissant que la ps4…





<img data-src=" />


Le 21/02/2013 à 13h 53







Youka a écrit :



Avec des Specs pareilles, s’ils la vendent encore à perte comme la précédente, les constructeurs de Laptops et de PC vont pouvoir commencer à gueuler à la concurrence déloyale ^^’



Sinon, rien de très surprenant dans les annonces sinon que Sony revient sur terre et semble renoncer à ses architectures non-conventionnelles “révolutionnaires” sur lesquelles personne n’est foutu de programmer correctement.



Je suppose que comme pour le marché des téléphones les prochaines batailles entre console se feront moins sur les chiffres et le matos et d’avantage sur les univers logiciels et les accords d’exclusivité pour garder les clients “captifs”.





Bof d’ici la sortie les PC auront des specs supérieurs.



C’est surtout la partie GPU( à checker quand même: le “next generation” on est sur que c’est pas pour Graphic core next c’est à dire la génération actuelle? ) et la GDDR5 qui envoit du lourd. Le reste ne semble pas si impressionnant que ça AMHA.


Le 21/02/2013 à 13h 24







DarKCallistO a écrit :



N’empêche que Sony a fait carrament marche arrière sur le hardware,on passe d’un IBM Cell (qui est un vrai cauchemar pour les devellopeurs se jeux) avec un GPU NVIDIA à ceci,c’est plus un grand écart, c’est un high kick rotatif transversal non-linéaire.





Ils ont surtout compris que les Cell avait été une grosse erreur, après, AMD vs Nvidia…avec AMD ils avaient un prix pour le couple CPU/GPU avec Nvidia surement pas( sauf ARM mais pas assez puissant AMHA ).<img data-src=" />



Les choix technologiques de Sony pour cette génération de console sont les plus rationnels depuis la PS1 AMHA.<img data-src=" />


Le 21/02/2013 à 12h 54

Par contre je me demande combien le 8 coeurs jaguar a de mémoire cache L2.



4Mo, le double des 4 coeurs jaguar sur la roadmap AMD?<img data-src=" />

Le 21/02/2013 à 10h 20

Yes j’avais juste sur les Jaguar: Piledriver chauffe trop.<img data-src=" />



Bon par contre la PS3 a l’équivalent de deux processeurs de netbook de la fin de cette année quoi.<img data-src=" /><img data-src=" /><img data-src=" />



Ceci dit je suis content que la stratégie d’AMD ait enfin payé. Depuis les Athlon 64 on avait l’impression qu’ils allaient de défaite en défaite.<img data-src=" />

Le 21/02/2013 à 13h 08







tazvld a écrit :



Classiquement l’anti-crénelage est inexistant sur les jeux console.





N’importe quoi.<img data-src=" />



Sur le reste par contre je suis d’accord mais pas sur antialiasing.<img data-src=" />


Le 21/02/2013 à 12h 37







yvan a écrit :



Deezer ne me permet pas l’accès il verrouille sur une page pour dl l’appli… donc ils en sont conscients <img data-src=" />





Ah ça a changé depuis que j’ai testé alors.<img data-src=" />



Ceci dit c’est pas pour ça qu’il verrouillent c’est surtout pour que tu payes avec l’appli. <img data-src=" />


Le 21/02/2013 à 11h 23







yvan a écrit :



Heu oui mais quel site réel est limité par les perfs mesurées par sunspider?

Ca me semble un test plus représentatif qu’un bench.

Et sinon je ne vois pas bien de quoi tu parles quand tu dis eye candy, c’est les transitions animées entre fenêtres?





N’importe quel Script avec du JS si il y a du flash ça pique encore plus.



Un tour sur deezer avec un smartphone ça fait mal( testé et désapprouvé :-p ).<img data-src=" />


Le 21/02/2013 à 10h 16







yvan a écrit :



Ben de ce que je vois l’exynos dual est loin d’être grotesque même si clairement en dessous, et au départ je parlais d’un exynos quad core (celui présent sur les galaxy note 2) par rapport à un bon “vieux” core 2.

Ceci sur du rendu multimédia, surf vidéo etc. là où les benchs de phoronix sont… des benchs justement mais pas de l’usage courant. Perso je me surprens régulièrement à rester sur le smartphone pour surfer ou mailer là où il y a encore quelques années j’eusse sans même me poser de question posé le glowfish et allumé le PC…

Je pense que intel est encore devant ARM pour des années niveau perfs mais je questionnais juste l’affirmation que dans 5 ans les ARM haut de gamme se feront “exploser” par les i7 d’aujourd’hui. Si on prend des calculs en virgule flottante probablement mais pour un usage courant je ne suis pas du tout certain vu la vitesse à laquelle l’archi ARM progresse. J’immagine parfaitement un dodécacoeurs ou plus encore un isocacoeurs ARM au niveau d’un I7 dans cinq ans perso, même pour certains usages serveurs d’ailleurs.





Puisque tu parle du web: lance sunspider sur ton smartphone et lance le sur ton PC: tu verras que c’est surtout la fluidité de l’interface qui te plaît plus que la vraie rapidité de calcul.



Les effets de transition eye candy sont très agréables ça aide beaucoup. C’est quelque chose que l’on a pas sur PC( en tout cas sur Windows sous linux c’est autre chose ).<img data-src=" />


Le 20/02/2013 à 21h 47

D’ailleurs pour s’en convaincre on peut aussi regarder le comparatif de Phoronix is ont laissé un tegra 3( pas sur tous les résultats mais bon… ), donc, un Quad A9. Il est complètement largué face à un i3, tout comme le Cortex A15…même face à l’atom il semble à la peine sur certains tests…<img data-src=" />



J’aurai du sortir ce lien en premier.<img data-src=" />

Le 20/02/2013 à 21h 30







ldesnogu a écrit :



Ton lien c’est un dual A15 pas un quad A9.





Oui le A15 poutre l’atom c’est d’ailleurs une bonne chose ça prouve que ARM commence à être INtéressant pour une utilisation bureautique( parce que sinon il a l’air de sucer le A15 j’attends plus le A7 étrangement )…



Le A9 fait mieux ou moins bien en fonction des tests et du nombre de coeurs…mais a déjà de bons résultats.



Ceci dit je te parle depuis un PC AMD E-1800 qui a une partie CPU a peine supérieure aux derniers Atoms et ça me va très bien.<img data-src=" />



Bref tout ça pour dire que comparer un ARM avec un Core 2 c’est une blague. Avec un Atom ou un APU low cost AMD ok mais un core 2…<img data-src=" />


Le 20/02/2013 à 20h 14







yvan a écrit :



Tout dépend de l’outil de mesure de performances en fait, dans un usage consultation multimédia/web pour la partie appréciable par le grand public (latences, capacité aux graphismes évolués dans les jeux etc.) je ne suis pas certain du tout de ce que tu affirmes.

Mon smartphone en quad core je je trouve plus aussi rapide qu’un core 2 d’il y a cinq ans à l’usage. Certes la mémoire flash joue mais quand même.





C’est surtout que ça ne fait pas tourner la même chose et que les effets de transitions aident pas mal.<img data-src=" />



Parce qu’un quad arm A9 c’est pas super brillant en termes de perfs quand même.


Le 21/02/2013 à 00h 35







Kiroha a écrit :



Mouais Mouais c’est trop beau pour être vrai toussa ^^





+1<img data-src=" />


Le 21/02/2013 à 00h 22







Zyami a écrit :



Ca par contre, je le crois tout à fait possible sur une PS4, en tout cas on en est pas loin sur PC moyen de gamme.





Oui ce n’est pas si loin de ce qui tourne déjà sur PC avec le cry engine 3.<img data-src=" />


Le 21/02/2013 à 00h 11







kalimergo a écrit :



non, ils nous font le coup à chaque fois.





Sauf que là…ils se sont pas trop attardé sur les caractéristiques techniques…



Quand on va savoir vraiment ce qu’il y a dedans je pense qu’on va vite déchanter.<img data-src=" />


Le 21/02/2013 à 00h 00

La modélisation des bagnoles.:bave:

Le 20/02/2013 à 23h 50

Putain Killzone 4 est moins beau que la vidéo de killzone 2 de l’E3 2005..<img data-src=" /><img data-src=" /><img data-src=" />

Le 20/02/2013 à 23h 48

Par contre Knack c’est moi, les lags du streaming ou ça pue le CGI à plein nez?<img data-src=" />

Le 20/02/2013 à 23h 41







Zyami a écrit :



Oui et non, il y a pas vraiment d’OS dessus, 8 giga suffira la plupart du temps et permet déjà d’avoir des textures d’excellentes qualités, par contre vu le prix de la RAM, c’est un peu dommage de passer à côté.





Suffira pour le moment…le problème de chaque génération de console c’est qu’elles doivent tenir 5 ans et à chaque fois elles sont short en ram…<img data-src=" />


Le 20/02/2013 à 23h 35







animehq a écrit :



8 go de gddr5…



Rarement vu une présentation aussi dégueulasse, ça sent le bricolage d’amateur…





Moi je dis ça sent le processeur jaguar adapté et la radeon milieu de gamme…la GDDR5 c’était prévisible par contre 8Go c’est peu…


Le 20/02/2013 à 22h 59







jamesdu75 a écrit :



Et dire qu’en 2011 le big boss de Sony indiqué que la PS3 avait une durée de vie de 10 ans au min.



<img data-src=" />





La PS1 et la PS2 ont eu une durée de vie de 10 ans donc ce qu’il disait à l’époque était pas faux…il a juste pas tout dit.<img data-src=" />


Le 20/02/2013 à 22h 36







kalimergo a écrit :



N’oublions pas que sony connait bien l’art de mentir aux joueurs, ils sont devenus maître dans ce domaine. Ils sont capables de dire qu’ils les autorisent puis non en fait à la fin. Je me souviendrais toujours de la video d’intro de tekken 2 marqué “ingame” dessus ou alors du fameux aliasing de la ps2 qui était dû à un problème de fréquence et qu’ils allaient régler ce problème dans les nouvelles versions ps2, ou encore de la ps3 qui fera tourner les jeux en full hd 1080p.



Je déteste ce genre de comportement.<img data-src=" />





N’importe quoi le Cell il est trop puissant de la mort, tellement puissant qu’il tue un i7 + Radeon 7990. Même que la vidéo de killzone 2 en 2005 c’était du ingame…on l’a tous vu à la sortie du jeu…ou pas.<img data-src=" />



Ils c’étaient bien foutu de notregueule quand même.<img data-src=" />


Le 20/02/2013 à 19h 57

Run before they findus.<img data-src=" />

Le 20/02/2013 à 19h 41

Ca plante tout le temps sur mon hp dm1.<img data-src=" />

Le 20/02/2013 à 17h 20







ldesnogu a écrit :



Tu me dois une biere, c’etait chiant a faire <img data-src=" />





<img data-src=" />


Le 20/02/2013 à 12h 17











ldesnogu a écrit :



Et toi tu peux prouver que cette branche est rentable sur la duree ? <img data-src=" />

Operating income:

2012: \(381M lien

2011: \)
1257M lien

2010: \(618M

2009: \)
108M

2008: \(497M

2007: -\)
1969M

2006: -\(1284M

A partir de la on passe sur Home and Entertainment:

2005: -\)
485M

2004: -\(391M

2003: -\)
1215M



Bien sur on va me dire qu’il n’y a pas que la XBox la-dedans, c’est vrai. Mais clairement le total n’est pas positif, loin de la :-)



PS - J’ai pas mis tous les liens, les 2 premiers suffisent a comprendre comment trouver les autres.





Merci ça m’a évité de chercher. <img data-src=" />







StackHeap a écrit :



Ce n’est pas moi qui affirme que la branche E&D n’a pas réussi à compenser, j’attends toujours tes sources (ou tes calculs).

D’ailleurs ton message à la base était “on en reparlera quand la branche JV sera rentable”, tu as juste changé de sujet quand tu as vu t’être trompé <img data-src=" />





Non je savais qu’elle l’était ces derniers temps.<img data-src=" />


Le 20/02/2013 à 08h 58



J’ai regardé, ça doit faire depuis 3 ans (ou plus, je ne suis pas allé plus loin que Q1 2010) que la branche E&D est dans le vert (sauf quelques exceptions).

Tu as des sources pour affirmer que ça n’a pas suffit à compenser ?





Fait les comptes depuis le début de la xbox normalement tu comprendra.



C’est pas pour rien qu’on a eu pas mal d’articles critiquant la stratégie de MS sur la xbox ces derniers temps.



Ceci dit je pense comme toi que ces personnes ont tort. C’est juste le business model de Sony est MS qui est à revoir. Le temps des consoles surpuissantes vendues à perte est AMHA révolu.





Son message n’affirmait pas qu’avoir du fric suffisait à conquérir un marché, ou alors j’ai pas bien saisi ?





Ah bon? Alors pourquoi était il si confiant sur la réussite de MS?





Justement, le fait de pouvoir s’y maintenir en cumulant pertes sur pertes pendant une longue période est un énorme avantage par rapport à une entreprise avec des fonds limités, ça leur donne beaucoup plus de temps pour s’imposer.





Merci captain obvious.<img data-src=" />

Le 19/02/2013 à 22h 41







StackHeap a écrit :



Elle l’est si mes souvenirs sont bons.

.





Pas sur une longue période, comme pour Sony avec la PS3, les bénéfices ne compensent pas les mauvaises années.<img data-src=" />





Et le marché des OS n’a rien à voir avec celui des moteurs de recherche, autrement dit la comparaison était également foireuse.





Non la comparaison n’est pas foireuse au contraire elle souligne l’erreur de l’affirmation initiale: avoir du fric ne suffit pas à conquérir un marché.





Après jinge a raison dans le sens où avoir un trésor de guerre bien fourni aide énormément à (re-)rentrer dans un marché ultra concurrentiel. Si ça avait été une entreprise avec des moyens limités à la place de MS, elle se serait retirée depuis longtemps ou aurait déposé le bilan.



Ca aide à entrer et à se maintenir si on y voit un avantage stratégique mais ça ne permet pas de conquérir un marché systématiquement.



Si c’est desservi par une stratégie foireuse( comme vient de l’avouer Bill Gates ) ça ne marche pas.



Au final la politique de MS sur WP a été un non sens depuis le début. Une aberration marketing ou MS s’est cru supérieur à ses clients( les constructeurs, toi tu n’es pas le client: tu n’achètes pas le l’OS WP à MS que je sache… ) et a mal jaugé les autres concurrents( surtout Google ).



Au final Google n’a rien inventé ils ont sortie un OS à l’arrache comme MS avec DOS. Mais un OS qui, comme DOS/windows, donnait des opportunités stratégiques à ses clients( les constructeurs ). Au fil du temps l’OS fait à l’arrache a bouffé les PDM de tout le monde et finira( pour ne pas dire que c’est le cas depuis la 4.1 ) tout aussi fonctionnel que la concurrence…comme DOS/windows…<img data-src=" />



Avec WP MS semble schizophrène: on dirait qu’ils n’ont rien compris à ce qui a fait leur succès initial.<img data-src=" />


Le 19/02/2013 à 22h 05







StackHeap a écrit :



<img data-src=" />





On en reparle quand la branche JV sera rentable.<img data-src=" />



Je rajouterai que le marché des OS smartphone n’est pas un marché cyclique comme celui des consoles: à chaque génération de consoles les cartes sont redistribuées, les OS…le dernier précédent…bah c’est MS qui a gagné en laissant les constructeurs faire leur business( exactement le contraire de ce qui a été fait sur le mobile quoi… ).<img data-src=" />


Le 19/02/2013 à 21h 46







jinge a écrit :



$$$ power, ça aide pas mal à surmonter la plupart des difficultés pour en tirer des opportunités!

Quand l’argent n’est pas un soucis, on a d’autres priorités que le buzz à tout prix :)





C’est une stratégie payante on l’a vu avec Bing…ou pas.<img data-src=" />


Le 19/02/2013 à 20h 49







jinge a écrit :



<img data-src=" />

Là je suis complètement de l’avis opposé. WP7 n’avait pas besoin pour MS d’être un succès commercial, ils n’en avaient rien à faire (bien entendu ils auraient préféré..).

WP7 était une transition vers WP8/W8 et ne devait donc pas être un boulet mais une plateforme de lancement stable.

Le truc c’est que au point où ils en étaient ils n’en avaient rien à faire de ne pas faire un boom dès le début, ce qui est visé c’est le moyen/long terme, quand les écosystèmes seront vraiment stables.

Du coté dev, c’est simple, demande à un développeur android comment il gère les différents appareils, et demande la même chose à un développeur WP.



Laisser accès à du hardware trop varié aurait nécessité du développement (perdu) supplémentaire sans pour autant assurer une meilleure vente…

Au passage, le succès commercial de WP8 n’a pas l’air de les déranger plus que ça non plus, ils tablent plus sur la construction de l’écosystème pour l’instant…





Un optimiste voit une opportunité dans chaque difficulté.<img data-src=" />


Le 19/02/2013 à 18h 47







kamuisuki a écrit :



Ça aura évité le “bouh WP7capucaram”, j’ai un android avec un quadcore et 2go de ram ça reste loin d’être totalement fluide, beaucoup moins qu’un WP7 1ere génération avec un Monocore 1ghz..





OSEF de ça c’est de la branlette de geek. La on parle PDM pas fluidité.<img data-src=" />





Ou pas, ca permet de ne pas avoir une jungle de configuration différentes, faisant que là tu as 50 résolutions différents a gérer en fonction du smartphone que telle appli t’interesse mais tu ne sais pas pourquoi n’est pas compatible avec ton smartphone.



C’est un choix logique pour éviter ces problèmes et ainsi ne pas repousser les devs





Encore une fois, on parle de percer un marché là pas de problèmes de geeks.<img data-src=" />


Le 19/02/2013 à 17h 41

Il a parfaitement raison.



C’était déjà prévisible avant même le lancement de WP7: en voulant limiter le hardware susceptible d’accueillir Windows phone ils se sont tiré une balle dans le pied.<img data-src=" />



You reap what you sow.<img data-src=" />

Le 19/02/2013 à 17h 12







js2082 a écrit :



Mediatek, la “petite” entreprise chinoise qui monte et qui commence sérieusement à se poser comme un concurrent coriace.



Pourtant, ils n’ont rien de plus (ni de moins) que qualcomm, samsung ou nvidia. Juste un positionnement tarifaire plus intelligent.



Je sens que certains vont morfler cette année.(notamment les petits malins qui croient encore pouvoir vendre des smartphones à plus de 500 euros)





Tout à fait d’accord. Les quads A7 vont faire très mal: des perfs entre un double coeur A9 et un quad A9 couplé à un bon PowerVR pour un prix rikiki.<img data-src=" />