votre avatar

brokensoul

est avec nous depuis le 16 mai 2006 ❤️

239 commentaires

Le 06/11/2012 à 13h 32







misterB a écrit :



Faut chercher Darwin<img data-src=" />



en.wikipedia.org Wikipediathanks !


Le 06/11/2012 à 13h 26







misterB a écrit :



Le Kernel Mach d’os X est libre





possible, c’est pas trop mon point en fait <img data-src=" />

pas trouvé suropensource.apple.com Applepar contre, tout est libre où seulement des bricoles ? De mémoire il n”y en avait qu’une sous partie, je me trompe ?



edit : l’ensemble est làapple.com Applepas trouvé Mach ou kernel (?)


Le 06/11/2012 à 12h 51







spidermoon a écrit :



MacOs = Linux + Apple, et pourtant ce n’est compté comme du Linux non plus <img data-src=" />





Euuhhhh… Non.

MacOS = kernel UNIX propriétaire, rien à voir avec Linux, à part les lettres en commun…


Le 06/11/2012 à 09h 52







canard_jaune a écrit :





  1. C’est pas PCi qui a fait le graphique mais IDC.





    Et alors, on peut être plusieurs à faire des erreurs.. On peut répéter dix fois un truc faux, il reste faux.. (sauf cas particulier <img data-src=" /> genre “C’est silencieux ici”)





  2. IDC juge pertinent d’isoler Android des autres “OS Linux”.



    Je ne remets pas en cause la pertinence de la différentiation (bien sûr que c’est une bonne idée), juste le choix des mots, qui est en soit faux. Il suffit de marquer “Other Linux-based OS” et c’est juste.





  3. Tu pourrais aussi te plaindre du fait qu’il aient mis Windows mobile et Windows Phone 7 dans le même panier alors qu’ils utilisent des kernels différents.



    Certes. Mais ce sont tous les deux des “Microsoft OS”, pas d’erreur logique à les regrouper (alors qu’il y en a une à dissocier des trucs qui ne le sont pas, sous l’intitulé choisi en tout cas)





  4. De toute manière OSEF



    Indeed, même si c’est dommage de continuer à voir passer des erreurs grossières.


Le 06/11/2012 à 09h 46







ngcubeur a écrit :



Et donc pour iOS, on marque BSD ?





Quel est le rapport ?




  • Si tu veux qu’on parle de noyau, iOS est apparemment basé de loin sur FreeBSD, mais le noyau est propriétaire et sans doute différent de FreeBSD en tant que tel (ce qui n’est pas le cas d’Android, qui utilise Linux tel quel ou presque depuis la phase de merge d’il y a quelques générations)

  • Comme dans le domaine de la mobilité il y a double inclusion ( Apple iTruc iOS kernel), décrire par l’un ou l’autre aurait le même effet, ce qui n’est pas le cas d’Android/Bada/Meego/FirefoxOS par exemple, tous sur un noyau Linux. Mais si ça peut t’amuser..


Le 06/11/2012 à 09h 14







seb2411 a écrit :



Pour résumer :

Android = OS Android

Linux = le reste des OS base sur Linux

On parle d’OS ici pas de noyau.





Gné ?

les mots ne sont pas bons. Linux n’est pas un OS, que tu le veuilles ou non, c’est un noyau, c’est tout. Et Linux est inclus dans Android, que tu le veuilles ou non aussi.



Ensuite c’est juste de la logique (même pour des malcomprenants) :




  • si tu décides de parler de noyaux, android et linux vont ensemble, factuellement.

  • si tu décides de parler d’OS, il faut rajouter quelques mots en plus, là ça n’a aucun sens. (par exemple : “Autres OS basés sur Linux” dans la seconde catégorie).



    Tu peux refaire les maths, là ça ne veux rien dire (ce qui n’empêche pas ce classement d’être repris sur lemonde.fr par exemple).



    Par exemple, je suis sous Android 4.1.2 et j’ai un noyau Linux 3.0.5 (noyau linux = TOUT linux, je n’ai pas seulement sélectionné le noyau..). Où est-ce que tu me classes avec ton brillant résumé ?


Le 06/11/2012 à 09h 02







seb2411 a écrit :



Ca tout son sens au contraire. Le but est de différencier ce qui est possible et d’avoir des données pertinentes. Mettre tout le monde dans le même sac parce qu’ils fonctionnent sur un noyau Linux n’a aucun sens.





Tu peux m’expliquer le sens de




  • Android

  • Linux

    ?





  • Android

  • autres Linux

    si tu veux, mais Android = Linux, contre-sens sinon. Tu trouverais du sens à écrire ?

  • iPhone N%

  • iOS M% (avec implicitement, iOS autres que iPhone, mais pas précisé)



    Pour être encore plus précis, définir l’OS par “Linux” n’a pas trop de sens non plus, mais bon… (Linux est un Noyau, pas un OS au sens moderne du terme, avec notamment une interface graphique)


Le 06/11/2012 à 08h 23







the true mask a écrit :



Sans oublier qu’android est loin d’être rentable pour le moment, il n’y a que Samsung qui y tire son épingle du jeu. Tout le reste ( y compris Google) n’y gagne que dalle





Cette blague… Heureusement que Google est philantrope alors. <img data-src=" />


Le 06/11/2012 à 08h 19

@Nil Toujours pas compris le pourquoi du classement Android/Linux… Android = Linux + Java, je pensais que c’était quand même connu sur PCI, tel quel la dissociation des deux n’a aucun sens. Ou alors “Autres Linux” ?

Le 05/11/2012 à 14h 49







misterB a écrit :



Tu es au max là ?? <img data-src=" /><img data-src=" />



http://www.adobe.com/uk/products/photoshop-touch.html





une phrase de drôle : “.. apply professional effects, and share on facebook”. Comment tuer le look professionnel en deux secondes <img data-src=" />



Mais sur le fond je suis bien d’accord, pour le traitement d’images, les éditeurs vidéos et sonores, la puissance des dernières trablettes n’est pas de trop


Le 05/11/2012 à 14h 23







Awax a écrit :



En fait non. Perso j’ai été très surpris par les benchs du Nexus 10 qui est un Cortex A15. Je pensais au vu des résultats du Chromebook (Exynos 5 lui aussi) qu’il allait poutrer l’A6X, genre +50%, mais en fait ils sont dans un mouchoir de poche (genre +/- 5%). Et en GPU, le Mali T604 ne tient pas la route derrière un PowerVR 554MP4.



Et le A6 n’est pas un “simple Cortex A9” : c’est un A9 avec le FPU d’un A15 et un pipeline plus profond et une prediction de branchment custom Apple. Bref, c’est presque un A15, avec quelques mois d’avance. Apple et Qualcom sont les seuls avec une licence ARM qui leur permet de dessiner leur propre CPU plutot que de se “contenter” d’utiliser les CPUs standard ARM (A9, A15, etc …).





très loin d’un A15 quand même, ça reste in-order… Il faut le comparer aux S4 Pros à mon sens. Les benchs sont encore un peu en vrac avec le javascript, mais pas trop de doutes sur le fait qu’à terme il se fait pas mal poutrer par le Exynos 5 (dispo tout de suite). Sur le test Anandtech, sunspider n’était guère que le seul test dans lequel le A6 était devant (hors browsermark qui tire sur l’écran en 2560..). Test du Chromebook sur Arstechnica, 700ms pour sunspider sur ChromeOS, fin de l’histoire. Google doit sans doute bosser sur la partie logicielle, mais pas trop de doute sur le fait que le CPU est devant (et le GPU derrière).





Perso, je pense qu’il va falloir encore 6 mois pour que les A15 soient courant chez Android et d’ici là, Apple aura gardé la couronne (ou partagé) de CPU le plus puissant. Et pour le GPU, ils risquent de la garder 1 an.



Je me répète, mais pas d’accord, A15 (Samsung Exynos 5) déjà devant côté CPU. Ce qui n’enlève rien au mérite d’Apple, et à son GPU qui met les moyens…


Le 05/11/2012 à 14h 15







hokkos a écrit :



C’est dur d’avoir une idée pour les CPU avec des benchs Javascript genre Sunspider (fait par Apple ou Apple est en 1er) et le Octane (de Google ou Google est en 1er), et BrowserMak et Kraken ou chacun est 1er.





Certes, il faut feinter un peu, mais l’ordre que j’ai décrit se retrouve normalement (notamment les A15 au dessus de Swift), et n’est d’ailleurs pas très surprenant (les A9 et dérivés restent “in order”, comme les Atom, alors que les A15 sont out-of-order, tout le reste des specs étant au minimum &gt;=..).

Possible par exemple de se faire une idée via les tests de phoronix, sur du A9 TI OMAP comparés aux Atom sur des tâches autres que sunspider, puis en considérant le bonus de Swift et des A15 sur les A9 classiques. A mon sens, pas possible que le Swift soit devant, il a beau être un A9 bien remanié il reste quand même une classe en dessous. Mais Apple a préféré mettre un très gros GPU, pas forcément idiot..



@Alkore : on peut dire grand chose justement, on parle de SoC réalisés, pas de designs théoriques vendus sur étagère. Pour ma part en tout cas, je compare volontiers le Exynos 5 Dual aux Apple A6 et A6X et autres Atom.


Le 05/11/2012 à 13h 21



Reste maintenant à savoir quel fabricant de SoC pourra reprendre le flambeau des performances à Apple entre Qualcomm, Samsung avec un éventuel Exynos 5 à quatre coeurs ainsi que NVIDIA et son Wayne, qui ne devrait plus tarder à se montrer.



Bah, on a déjà un bon début de réponse avec quelques tests déjà présents.. (Anandtech par exemple). Pour résumer, Apple est devant en GPU, mais derrière en CPU, par rapport au dernier SoC Samsung présent sur la Nexus 10.

Le 05/11/2012 à 13h 02







levhieu a écrit :



La complexité dont je parle, c’est celle du format des instructions x86.

Avant même de commencer à exécuter une instructions, le CPU doit:




  • Chercher les préfixes

  • Trouver la taille de l’instruction.

    Tout ça pour en pratique tomber le plus souvent sur les mêmes cas.



    Après, en 32 bits le peu de registres entrainait des aller-retrour avec le cache en plus grand nombre que sur un ARM (à condition que le compilateur pour ce dernier ne soit pas à la ramasse, ce qui n’est pas toujours évident).

    Normalement ça c’est du passé en x86-64 (toujours la même réserve sur le compilateur).



    Donc de la consommation en plus, mais comme c’est sur un CPU fabriqué dans les meilleures fonderies, on ne connait pas le résultat final tant qu’on n’a pas mesuré.





    D’accord sur le début, pas sur la fin : je ne vois pas pourquoi plus d’insctructions = forcément plus de consommation, pas de lien logique (sinon on aurait dû rester à un microproc à 10 instructions, tu remarqueras que personne ne le fait…).

    Plus d’instructions, ça peut aussi vouloir dire moins de consommation si le compilateur sait taper sur les bonnes, il faut ensuite choisir le curseur. Rajouter un bloc qui traite en natif certaines opérations typiques de cryptographie pour un processeur qui en fera des caisses, plutôt que de les casser en plein de sous-unités (=cycles d’horloges en plus pour faire la même chose), ça peut facilement être rentable énergétiquement, pour prendre un contre-exemple facile à ton commentaire.



    Les architectures RISC (dont fait partie ARM) ont initalement parié sur un nombre réduit d’instructions (le R de Risc…), en considérant que le x86 en avait trop pour un usage courant, ce qui ne les empêche pas d’en rajouter à chaque nouvelle itération, à la Intel (donc plus d’instructions != plus de consommation.., ou en tous les cas pas pour tout le monde)


Le 05/11/2012 à 10h 19







Pr. Thibault a écrit :



Beaucoup d’affirmations qui ne reposent visiblement sur pas grand chose : personne n’a encore pu faire de bench objectif sur l’Atom Clover Trail puisque aucune machine équipée de ce CPU n’est actuellement en vente…



D’après les benchs d’Intel (pas ce qu’il y a de plus objectif donc) l’Atom Clover Trail dual-core est légèrement plus puissant que les CPU ARM quad-core les plus puissants. En ce qui concerne l’autonomie là encore il faudra vérifier, mais l’autonomie annoncée par les constructeurs pour les tablettes Atom est similaire à l’autonomie des tablettes ARM, pour des tablettes d’épaisseur et de poids très similaires. Reste à voir les prix, sur ce point les tablettes Atom sont globalement plus chères que les tablettes ARM, mais les prix de lancement de W8 ne sont pas très significatifs, attendons que tout cela se tasse, et on peut noter que Acer propose déjà une tablette Atom à 499€, soit le prix des tablettes Windows 8 ARM les moins chères.



On verra comment évolue Windows, mais à l’heure actuelle je pense que les logiciels desktop x86 ne sont pas là de disparaître au profit des apps Metro, donc pour l’instant Intel conserve un argument de poids avec son Atom compte tenu du nombre important de logiciels Windows qui ne peuvent pas tourner sur ARM.





pas mal de benchs disponibles maintenant, notamment chez phoronix ou anandtech.

En gros,

dual core A9 &lt; quad core A9 =&lt; dual core A9’ (Apple A6,..) &lt; Atom dual Core &lt; dual core A15

je fais vite :-)

Dans le bas de gamme, Intel n’a plus d’avantage de performance, consommation ou prix, c’est un peu la rançon d’avoir une architecture qui n’a pas évolué depuis 4-5 ans.. (Atom)


Le 05/11/2012 à 10h 15







levhieu a écrit :



Quand je vois que pour certaines applications sur téléphone (Android), il y a des soucis de performance avec comme facteur limitant: la RAM de 2Go …





il ne doit pas y en avoir beaucoup.. Tu as des sources ?

ou alors sur tablette, avec les nouvelles résolutions en 2560, ça prend forcément de la place.


Le 05/11/2012 à 10h 13







levhieu a écrit :



Personne n’a les arguments pour répondre:




  • L’architecture x86 est désavantagée par sa complexité intrinsèque qui nécessite plus de blocs hardware pour interpreter le flux d’instructions





    argument à double tranchant, et formulation bizarre.. en x86 plus d’instructions sont géres nativement par le processeur qu’avec ARM. Ca c’est objectif. Ensuite ARM dit qu’Intel perd le plus souvent de l’énergie à faire tourner des blocs inutiles (décodage d’instructions pas souvent utilisées), tandis qu’Intel dit que ça leur permet de gagner en perf. Les deux affirmations sont commerciales, on peut trouver des contre-exemples (Medfield qui ne consomme pas plus que les ARM équivalents, le nouveau Samsung A15 est plus rapide que les dual-core Atom équivalents par exemple)


Le 02/11/2012 à 10h 10







Jesustutor a écrit :



La 3.X était réservée aux tablettes…





le mystère est donc résolu… (Pas très compliqué)


Le 02/11/2012 à 10h 10

Vivent les ROMs alternatives du coup, et dommage que leur installation ne soit pas plus grand public. Ceci dit, ça a le mérite d’exister, par rapport notamment aux heureux possesseurs de Windows Phone 7.5…

Le 02/11/2012 à 09h 11







brazomyna a écrit :



Certes, c’est ce que je disais quand je parlais de résultats ‘forcément parcellaires’.

Néanmoins d’une autre côté, faire tourner des tests javascript implique de faire tourner derrière un interpréteur, ce me paraît relativement étendu comme bench puisque l’interpéteur va mettre en oeuvre quand même un panel assez varié d’usages du CPU (à mon sens).





Pas spécialiste javascript, mais je ne suis pas sûr que les tests “classiques” (kraken et sunspider, pour en citer quelques uns) puissent stresser toutes les unités critiques du cpu (contrôleur mémoire, calcul entiers, calculs flottants) comme d’autres pourront le faire, ça dépend sans doute pas mal des perfs de la machine virtuelle (on le voit notamment avec les tests de smartphones, qui avec le même matériel mais des couches logicielles différentes rendent des résultats très différents sur les tests JS - exemple)

Ceci dit, et pour contrer ce que je viens de dire, l’architecture de l’A15 ne semble pas aussi “fragile” que celle des A9 (contrôleur mémoire très très léger, processeur “in-order”), je ne m’attends pas à une mauvaise surprise dans les confrontations avec le monde x86.

Pour ajouter de l’eau au moulin, des comparaisons complètes avaient été faites sous linux entre des A9 et des Atom, et les A9 n’étaient pas si loin le plus souvent, il n’y a pas de “pénalité cachée” à être basé sur ARM (phoronix, entre autres (on peut aussi trouver des tests contre des Core2 par exemple, et tu peux faire tourner les mêmes tests sur ton pc actuel très simplement))





Oui, c’est ce que j’attends. Mais si effectivement on se retrouve avec une solution de l’ampleur d’un Core2 Duo pour une consommation faible et surtout du vrai fanless intégrable dans un chassis ridicule, le linuxien que je suis (et qui se fout donc d’être en x86) y voit là une belle opportunité de faire de l’ultra book qui déchire et parfaitement confortable pour mes utilisations (bureautique, développement, … mais pas de jeu).



idem, je trouve la formule vraiment pas mal, et beaucoup plus polyvalente qu’une tablette. Pas de soucis pour programmer dessus par exemple, contrairement à une tablette. Le truc casse pieds, c’est le stockage à mon sens, vu le prix de la mémoire j’aurais bien aimé pouvoir rajouter quelques Gigs


Le 02/11/2012 à 07h 02

Attends peut être que le A15 soit testé sur autre chose que du javascript (sûrement sur phoronix dans pas longtemps, ou alors sur openbenchmarking.org, vu qu’ubuntu peut tourner sur le chromebook), mais je pense que la comparaison avec un Core2 un peu ancien est bonne, ce nouveau proc n’a pas grand chose à voir avec les ARM9 précédents. La consommation en charge n’est pas si extraordinaire par contre, par rapport aux dernières offres de chez Intel, mais le prix est assez imbattable (pas invraisemblable, nuance) :-)



edit : pour le invraisemblable, prends en compte le fait que la finesse de gravure n’a rien à voir (ton ancien laptop doit être en 65nm, celui-ci en 28 ou 32, la même puce serait 4x plus petite)

Le 31/10/2012 à 11h 05







dump a écrit :



pour moi c’est avec win32 que surface se démarque ne se démarque pas de ses concurents (iOS etc …).

Mettre ses appli Pc sur tablette c’est le rêve. (vlc, émulateur etc)





Euh, justement, avec Surface tu ne peux pas utiliser Win32, c’est le point de la remarque de Vincent. Win32 &lt;&gt; Processeur x86 (souvent Atom pour une tablette, ou APU AMD)


Le 23/10/2012 à 12h 56







Tkop a écrit :



Pour le fait de ne pas utiliser les nouvelles instruction je suis tout a fait d’accord avec toi. Je n’ai jamais compris l’interet de faire des comparaison entre des architecture sans utiliser un exécutable capable de les utiliser vraiment.



Par contre pour le choix du compilo il semblerait que quelque soit l’architcture utilisée, c’est avec ICC qu’on obtient toujours les meilleures perfs



Par exemple j’avais programmé un mandelbrot en C, en passant de GCC à ICC j’ai divisé le temps de calcul par deux, sur une machine AMD. Que ce soit avec ICC et avec GCC j’avais utilisé les meme option d’optimisation.





Toujours la même histoire, les tests sont faits avec les logiciels disponibles, qui seront accessoirement ceux que les gens utiliseront en grande partie. Il existe pas mal de tests sur le sujet sur Phoronix, l’architecture bulldozer profite effectivement bien d’instructions de compilation spécifiques (intégrées dans les derniers GCC par exemple), mais hors monde libre / linux point de salut, AMD doit faire avec ce qui est sur le marché. Dans le même ordre d’idée et pour équilibrer le débat, le problème se pose aussi avec Intel, les SSE supportés par leurs processeurs sont très rarement intégrés dans les logiciels utilisés pour les tester lors de leur sortie..



edit : exemple de test sur HFR sur l’impact des compilateurs


Le 23/10/2012 à 09h 02

Pour les linuxiens, et ceux qui veulent des résultats sur des workloads parfois un peu différentes, le test de phoronix est INtéressant. L’architecture est parfois très à son avantage (C-Ray par exemple), et complètement à l’ouest dans d’autres cas, AMD semble complètement délaisser les perfs en virgule flottante, peut être dans la perspective d’une utilisation (lointaine encore) généralisée d’OpenCL et du GPU. Vraiment dommage que leur process soit autant à la masse en tout cas..

Le 23/10/2012 à 08h 25







Gerophil a écrit :



EDIT : Bref les gens qui attendent que AMD passe devant Intel rêvent un peu avec 18 mois de retard niveau fonderie. Ou alors leur architecture est révolutionnaire.





l’architecture est vraiment pas mal du coup, puisque parfois devant celle d’Intel (3770K) sur les entiers. Par contre la différence de process et les flottants qui ne sont pas au niveau leur joue des tours. Dommage quand même, la même architecture sur le process d’Intel serait assez impressionnante par certains points.


Le 22/10/2012 à 14h 20







Anikam a écrit :



Les heures silencieuses de CyanogenMod n’agissent pas sur les appels entrants, et ne permettent pas de recevoir uniquement les notifications d’appel de personnes mises sur une liste blanche.





je n’ai pas dit que ce n’était pas un peu différent, juste pas complètement révolutionnaire.. ensuite avec CM tu peux aussi paramétrer des profils (work, home, sleeping, ..), mais c’est une autre histoire


Le 22/10/2012 à 11h 43







darkey a écrit :



ça ne me dis rien CM9-10



edit :grilled





tu peux activer des “quiet hours” dans settings-&gt; sound sur CM depuis la 9 au moins. Vérifié aussi sur la 10, la “nouveauté” de iOS6 m’avait un peu fait rigoler..


Le 19/10/2012 à 09h 15







Zulgrib a écrit :



Une fois que tu installes les gapps, c’est pas vraiment inclut donc.





oui, mais tu auras remarqué que le calendrier (par exemple) n’était jusqu’ici pas présent sur le store. Donc quasi obligation d’installer les gapps. Donc problème ensuite si tu veux installer le calendrier du store pour être à jour, tu te retrouves avec deux calendriers (CQFD). Maintenant si toutes les gapps sont présentes sur le store, effectivement il n’y a plus de soucis (question ouverte)


Le 18/10/2012 à 15h 34







Zulgrib a écrit :



L’app “agenda” que certains ont par défaut est inclut par le constructeur et n’es pas inclut avec le système.





elle est sur cyanogen une fois que tu installes les gapps, du coup avec celle du playstore ça en fait deux quand même.. un peu bizarre à gérer, pas encore pu voir si les alertes arrivaient en double par exemple


Le 18/10/2012 à 15h 00

Pour l’instant, pas trop de différences avec la version installée de base sur JB. Du coup les deux applications sont présentes, un peu curieux, je ne comprends pas très bien comment est-ce que ça se gère..

Le 28/09/2012 à 11h 16

j’achète L4D2 dès qu’il sort… Curieux de voir les retours de Steam là dessus, je suis près à parier qu’ils vont récupérer des clients (ou s’apercevoir qu’un bon nombre de leurs clients actuels étaient preneurs d’un accès linux pour leurs jeux). Bien content de leur boulot en tout cas.. Sur torchlight tout de suite, mais un bon fps ne ferait pas de mal :-)

Le 24/09/2012 à 15h 58

Un peu stupide ces histoires de records battus à chaque nouvelle itération : le nombre de propriétaires d’iPhone (ou autre smartphone) augmente pour l’instant chaque année. Il y a donc plus de candidats au renouvellement à chaque itération, mécaniquement, le fait de battre le record précédent est tout sauf une surprise..



‘fin bon, ça permet à Apple de dire “We are astonished by this new record blabla..” et à certains journalistes de faire leur article de la journée <img data-src=" />

Le 10/09/2012 à 11h 58

Un peu hallucinant qu’ils demandent ça maintenant, ça veut dire que win 7.8 est à peine entamé.. L’exécution de MS sur Windows Phone est quand même à la ramasse, entre un système prometteur introduit il y a deux ans et maintenant, on ne dirait pas qu’un géant du software pousse derrière. A côté de ça windows phone 8 semble loin d’être prêt (ArsTechnica), microsoft pourrait apprendre de ses rivaux quant à la cadence d’éxécution..

Le 30/08/2012 à 16h 26







Enyths a écrit :



Qui sait… Mais c’est dommage pour les néophytes n’ayant pas l’idée de passer par ce moyen là ou ceux dont la manipulation fait peur.



En tout cas HTC aurait pu assurer un meilleur suivi à ce sujet, ou sinon donner clairement leurs raisons. L’argument du manque de performance me semble pas suffisant, surtout quand on voit les modèles de l’actualité.





samsung a fait la même chose sur le galaxy S / nexus S, HTC n’est pas tout seul sur le ratage. Mais c’est sûr que c’est mal géré quand même, un peu une plaie sous android si on n’est pas sur un nexus, ou qu’on ne passe pas sur cyanogen.


Le 30/08/2012 à 14h 31







Enyths a écrit :



La ressemblance en terme de spécification entre le Desire HD et le Desire X.



Il ne faut pas oublier non plus que le Snapdragon S4 (MSM8225) en question fait partie des deux modèles qui ne bénéficie pas de la gravure en 28nm. Donc on reste sur quelque chose de très similaire avec les Snapdragon S2 (MSM8255) du Desire HD (avec certes une remise à niveau).



Le reste : résolution, mémoire vive reste similaire.



Pour quelle raison HTC n’a pas voulu mettre à jour le Desire HD vers ICE ?





pour donner des clients à Cyanogen ?


Le 30/08/2012 à 14h 31







CaribouX a écrit :



C’est moi ou il faut un Bac +5 HTC pour comprendre la gamme ?

Ne suivant pas particulièrement l’actualité Smartphone, je trouve que les gammes des constructeurs sont vraiment illisibles… 36 modèles renouvellés tous les 6 mois, ca fait mal à la tête <img data-src=" />





One -&gt; Haut et moyenne gamme

Desire -&gt; Entrée de gamme



ensuite dans une gamme ça s’améliore avec des lettres qui vont vers la fin de l’alphabet



enfin, c’est ce que j’ai compris..


Le 30/08/2012 à 14h 29

Pas précisé mais super important pour les curieux : les S4 seraient des “S4 play”, pas du tout les mêmes performances (coeurs “A5” que je ne connaissais pas, pas très puissants). Bref, pas du tout du moyenne gamme (ce sont les “One”), mais haut de l’entrée de gamme avec un petit dual core.



source : Anandtech



edit : un peu grilled :-) Les A15 ne sont pas sortis au fait, et seront plus pour les tablettes que pour les téléphones normalement, grosse consommation (relativement) à prévoir.

Krait (S4, S4 Pro)-&gt; A9.

S4 Play -&gt; A5

Le 30/08/2012 à 16h 24

google corrige aussi le bug qui faisait rebooter les HTC Cyanogenmod, apprécié <img data-src=" />

Le 16/05/2012 à 13h 54

quelqu’un a testé nsight/eclipse ? ça vaut le coup ?