pas trouvé sur Applepar contre, tout est libre où seulement des bricoles ? De mémoire il n”y en avait qu’une sous partie, je me trompe ?
edit : l’ensemble est là Applepas trouvé Mach ou kernel (?)
Le
06/11/2012 à
12h
51
spidermoon a écrit :
MacOs = Linux + Apple, et pourtant ce n’est compté comme du Linux non plus " />
Euuhhhh… Non.
MacOS = kernel UNIX propriétaire, rien à voir avec Linux, à part les lettres en commun…
Le
06/11/2012 à
09h
52
canard_jaune a écrit :
C’est pas PCi qui a fait le graphique mais IDC.
Et alors, on peut être plusieurs à faire des erreurs.. On peut répéter dix fois un truc faux, il reste faux.. (sauf cas particulier " /> genre “C’est silencieux ici”)
IDC juge pertinent d’isoler Android des autres “OS Linux”.
Je ne remets pas en cause la pertinence de la différentiation (bien sûr que c’est une bonne idée), juste le choix des mots, qui est en soit faux. Il suffit de marquer “Other Linux-based OS” et c’est juste.
Tu pourrais aussi te plaindre du fait qu’il aient mis Windows mobile et Windows Phone 7 dans le même panier alors qu’ils utilisent des kernels différents.
Certes. Mais ce sont tous les deux des “Microsoft OS”, pas d’erreur logique à les regrouper (alors qu’il y en a une à dissocier des trucs qui ne le sont pas, sous l’intitulé choisi en tout cas)
De toute manière OSEF
Indeed, même si c’est dommage de continuer à voir passer des erreurs grossières.
Le
06/11/2012 à
09h
46
ngcubeur a écrit :
Et donc pour iOS, on marque BSD ?
Quel est le rapport ?
Si tu veux qu’on parle de noyau, iOS est apparemment basé de loin sur FreeBSD, mais le noyau est propriétaire et sans doute différent de FreeBSD en tant que tel (ce qui n’est pas le cas d’Android, qui utilise Linux tel quel ou presque depuis la phase de merge d’il y a quelques générations)
Comme dans le domaine de la mobilité il y a double inclusion ( Apple iTruc iOS kernel), décrire par l’un ou l’autre aurait le même effet, ce qui n’est pas le cas d’Android/Bada/Meego/FirefoxOS par exemple, tous sur un noyau Linux. Mais si ça peut t’amuser..
Le
06/11/2012 à
09h
14
seb2411 a écrit :
Pour résumer :
Android = OS Android
Linux = le reste des OS base sur Linux
On parle d’OS ici pas de noyau.
Gné ?
les mots ne sont pas bons. Linux n’est pas un OS, que tu le veuilles ou non, c’est un noyau, c’est tout. Et Linux est inclus dans Android, que tu le veuilles ou non aussi.
Ensuite c’est juste de la logique (même pour des malcomprenants) :
si tu décides de parler de noyaux, android et linux vont ensemble, factuellement.
si tu décides de parler d’OS, il faut rajouter quelques mots en plus, là ça n’a aucun sens. (par exemple : “Autres OS basés sur Linux” dans la seconde catégorie).
Tu peux refaire les maths, là ça ne veux rien dire (ce qui n’empêche pas ce classement d’être repris sur lemonde.fr par exemple).
Par exemple, je suis sous Android 4.1.2 et j’ai un noyau Linux 3.0.5 (noyau linux = TOUT linux, je n’ai pas seulement sélectionné le noyau..). Où est-ce que tu me classes avec ton brillant résumé ?
Le
06/11/2012 à
09h
02
seb2411 a écrit :
Ca tout son sens au contraire. Le but est de différencier ce qui est possible et d’avoir des données pertinentes. Mettre tout le monde dans le même sac parce qu’ils fonctionnent sur un noyau Linux n’a aucun sens.
Tu peux m’expliquer le sens de
Android
Linux
?
Android
autres Linux
si tu veux, mais Android = Linux, contre-sens sinon. Tu trouverais du sens à écrire ?
iPhone N%
iOS M% (avec implicitement, iOS autres que iPhone, mais pas précisé)
Pour être encore plus précis, définir l’OS par “Linux” n’a pas trop de sens non plus, mais bon… (Linux est un Noyau, pas un OS au sens moderne du terme, avec notamment une interface graphique)
Le
06/11/2012 à
08h
23
the true mask a écrit :
Sans oublier qu’android est loin d’être rentable pour le moment, il n’y a que Samsung qui y tire son épingle du jeu. Tout le reste ( y compris Google) n’y gagne que dalle
Cette blague… Heureusement que Google est philantrope alors. " />
Le
06/11/2012 à
08h
19
@Nil Toujours pas compris le pourquoi du classement Android/Linux… Android = Linux + Java, je pensais que c’était quand même connu sur PCI, tel quel la dissociation des deux n’a aucun sens. Ou alors “Autres Linux” ?
une phrase de drôle : “.. apply professional effects, and share on facebook”. Comment tuer le look professionnel en deux secondes " />
Mais sur le fond je suis bien d’accord, pour le traitement d’images, les éditeurs vidéos et sonores, la puissance des dernières trablettes n’est pas de trop
Le
05/11/2012 à
14h
23
Awax a écrit :
En fait non. Perso j’ai été très surpris par les benchs du Nexus 10 qui est un Cortex A15. Je pensais au vu des résultats du Chromebook (Exynos 5 lui aussi) qu’il allait poutrer l’A6X, genre +50%, mais en fait ils sont dans un mouchoir de poche (genre +/- 5%). Et en GPU, le Mali T604 ne tient pas la route derrière un PowerVR 554MP4.
Et le A6 n’est pas un “simple Cortex A9” : c’est un A9 avec le FPU d’un A15 et un pipeline plus profond et une prediction de branchment custom Apple. Bref, c’est presque un A15, avec quelques mois d’avance. Apple et Qualcom sont les seuls avec une licence ARM qui leur permet de dessiner leur propre CPU plutot que de se “contenter” d’utiliser les CPUs standard ARM (A9, A15, etc …).
très loin d’un A15 quand même, ça reste in-order… Il faut le comparer aux S4 Pros à mon sens. Les benchs sont encore un peu en vrac avec le javascript, mais pas trop de doutes sur le fait qu’à terme il se fait pas mal poutrer par le Exynos 5 (dispo tout de suite). Sur le test Anandtech, sunspider n’était guère que le seul test dans lequel le A6 était devant (hors browsermark qui tire sur l’écran en 2560..). Test du Chromebook sur Arstechnica, 700ms pour sunspider sur ChromeOS, fin de l’histoire. Google doit sans doute bosser sur la partie logicielle, mais pas trop de doute sur le fait que le CPU est devant (et le GPU derrière).
Perso, je pense qu’il va falloir encore 6 mois pour que les A15 soient courant chez Android et d’ici là, Apple aura gardé la couronne (ou partagé) de CPU le plus puissant. Et pour le GPU, ils risquent de la garder 1 an.
Je me répète, mais pas d’accord, A15 (Samsung Exynos 5) déjà devant côté CPU. Ce qui n’enlève rien au mérite d’Apple, et à son GPU qui met les moyens…
Le
05/11/2012 à
14h
15
hokkos a écrit :
C’est dur d’avoir une idée pour les CPU avec des benchs Javascript genre Sunspider (fait par Apple ou Apple est en 1er) et le Octane (de Google ou Google est en 1er), et BrowserMak et Kraken ou chacun est 1er.
Certes, il faut feinter un peu, mais l’ordre que j’ai décrit se retrouve normalement (notamment les A15 au dessus de Swift), et n’est d’ailleurs pas très surprenant (les A9 et dérivés restent “in order”, comme les Atom, alors que les A15 sont out-of-order, tout le reste des specs étant au minimum >=..).
Possible par exemple de se faire une idée via les tests de phoronix, sur du A9 TI OMAP comparés aux Atom sur des tâches autres que sunspider, puis en considérant le bonus de Swift et des A15 sur les A9 classiques. A mon sens, pas possible que le Swift soit devant, il a beau être un A9 bien remanié il reste quand même une classe en dessous. Mais Apple a préféré mettre un très gros GPU, pas forcément idiot..
@Alkore : on peut dire grand chose justement, on parle de SoC réalisés, pas de designs théoriques vendus sur étagère. Pour ma part en tout cas, je compare volontiers le Exynos 5 Dual aux Apple A6 et A6X et autres Atom.
Le
05/11/2012 à
13h
21
Reste maintenant à savoir quel fabricant de SoC pourra reprendre le flambeau des performances à Apple entre Qualcomm, Samsung avec un éventuel Exynos 5 à quatre coeurs ainsi que NVIDIA et son Wayne, qui ne devrait plus tarder à se montrer.
Bah, on a déjà un bon début de réponse avec quelques tests déjà présents.. (Anandtech par exemple). Pour résumer, Apple est devant en GPU, mais derrière en CPU, par rapport au dernier SoC Samsung présent sur la Nexus 10.
La complexité dont je parle, c’est celle du format des instructions x86.
Avant même de commencer à exécuter une instructions, le CPU doit:
Chercher les préfixes
Trouver la taille de l’instruction.
Tout ça pour en pratique tomber le plus souvent sur les mêmes cas.
Après, en 32 bits le peu de registres entrainait des aller-retrour avec le cache en plus grand nombre que sur un ARM (à condition que le compilateur pour ce dernier ne soit pas à la ramasse, ce qui n’est pas toujours évident).
Normalement ça c’est du passé en x86-64 (toujours la même réserve sur le compilateur).
Donc de la consommation en plus, mais comme c’est sur un CPU fabriqué dans les meilleures fonderies, on ne connait pas le résultat final tant qu’on n’a pas mesuré.
D’accord sur le début, pas sur la fin : je ne vois pas pourquoi plus d’insctructions = forcément plus de consommation, pas de lien logique (sinon on aurait dû rester à un microproc à 10 instructions, tu remarqueras que personne ne le fait…).
Plus d’instructions, ça peut aussi vouloir dire moins de consommation si le compilateur sait taper sur les bonnes, il faut ensuite choisir le curseur. Rajouter un bloc qui traite en natif certaines opérations typiques de cryptographie pour un processeur qui en fera des caisses, plutôt que de les casser en plein de sous-unités (=cycles d’horloges en plus pour faire la même chose), ça peut facilement être rentable énergétiquement, pour prendre un contre-exemple facile à ton commentaire.
Les architectures RISC (dont fait partie ARM) ont initalement parié sur un nombre réduit d’instructions (le R de Risc…), en considérant que le x86 en avait trop pour un usage courant, ce qui ne les empêche pas d’en rajouter à chaque nouvelle itération, à la Intel (donc plus d’instructions != plus de consommation.., ou en tous les cas pas pour tout le monde)
Le
05/11/2012 à
10h
19
Pr. Thibault a écrit :
Beaucoup d’affirmations qui ne reposent visiblement sur pas grand chose : personne n’a encore pu faire de bench objectif sur l’Atom Clover Trail puisque aucune machine équipée de ce CPU n’est actuellement en vente…
D’après les benchs d’Intel (pas ce qu’il y a de plus objectif donc) l’Atom Clover Trail dual-core est légèrement plus puissant que les CPU ARM quad-core les plus puissants. En ce qui concerne l’autonomie là encore il faudra vérifier, mais l’autonomie annoncée par les constructeurs pour les tablettes Atom est similaire à l’autonomie des tablettes ARM, pour des tablettes d’épaisseur et de poids très similaires. Reste à voir les prix, sur ce point les tablettes Atom sont globalement plus chères que les tablettes ARM, mais les prix de lancement de W8 ne sont pas très significatifs, attendons que tout cela se tasse, et on peut noter que Acer propose déjà une tablette Atom à 499€, soit le prix des tablettes Windows 8 ARM les moins chères.
On verra comment évolue Windows, mais à l’heure actuelle je pense que les logiciels desktop x86 ne sont pas là de disparaître au profit des apps Metro, donc pour l’instant Intel conserve un argument de poids avec son Atom compte tenu du nombre important de logiciels Windows qui ne peuvent pas tourner sur ARM.
pas mal de benchs disponibles maintenant, notamment chez phoronix ou anandtech.
Dans le bas de gamme, Intel n’a plus d’avantage de performance, consommation ou prix, c’est un peu la rançon d’avoir une architecture qui n’a pas évolué depuis 4-5 ans.. (Atom)
Le
05/11/2012 à
10h
15
levhieu a écrit :
Quand je vois que pour certaines applications sur téléphone (Android), il y a des soucis de performance avec comme facteur limitant: la RAM de 2Go …
il ne doit pas y en avoir beaucoup.. Tu as des sources ?
ou alors sur tablette, avec les nouvelles résolutions en 2560, ça prend forcément de la place.
Le
05/11/2012 à
10h
13
levhieu a écrit :
Personne n’a les arguments pour répondre:
L’architecture x86 est désavantagée par sa complexité intrinsèque qui nécessite plus de blocs hardware pour interpreter le flux d’instructions
argument à double tranchant, et formulation bizarre.. en x86 plus d’instructions sont géres nativement par le processeur qu’avec ARM. Ca c’est objectif. Ensuite ARM dit qu’Intel perd le plus souvent de l’énergie à faire tourner des blocs inutiles (décodage d’instructions pas souvent utilisées), tandis qu’Intel dit que ça leur permet de gagner en perf. Les deux affirmations sont commerciales, on peut trouver des contre-exemples (Medfield qui ne consomme pas plus que les ARM équivalents, le nouveau Samsung A15 est plus rapide que les dual-core Atom équivalents par exemple)
Vivent les ROMs alternatives du coup, et dommage que leur installation ne soit pas plus grand public. Ceci dit, ça a le mérite d’exister, par rapport notamment aux heureux possesseurs de Windows Phone 7.5…
Certes, c’est ce que je disais quand je parlais de résultats ‘forcément parcellaires’.
Néanmoins d’une autre côté, faire tourner des tests javascript implique de faire tourner derrière un interpréteur, ce me paraît relativement étendu comme bench puisque l’interpéteur va mettre en oeuvre quand même un panel assez varié d’usages du CPU (à mon sens).
Pas spécialiste javascript, mais je ne suis pas sûr que les tests “classiques” (kraken et sunspider, pour en citer quelques uns) puissent stresser toutes les unités critiques du cpu (contrôleur mémoire, calcul entiers, calculs flottants) comme d’autres pourront le faire, ça dépend sans doute pas mal des perfs de la machine virtuelle (on le voit notamment avec les tests de smartphones, qui avec le même matériel mais des couches logicielles différentes rendent des résultats très différents sur les tests JS - exemple)
Ceci dit, et pour contrer ce que je viens de dire, l’architecture de l’A15 ne semble pas aussi “fragile” que celle des A9 (contrôleur mémoire très très léger, processeur “in-order”), je ne m’attends pas à une mauvaise surprise dans les confrontations avec le monde x86.
Pour ajouter de l’eau au moulin, des comparaisons complètes avaient été faites sous linux entre des A9 et des Atom, et les A9 n’étaient pas si loin le plus souvent, il n’y a pas de “pénalité cachée” à être basé sur ARM (phoronix, entre autres (on peut aussi trouver des tests contre des Core2 par exemple, et tu peux faire tourner les mêmes tests sur ton pc actuel très simplement))
Oui, c’est ce que j’attends. Mais si effectivement on se retrouve avec une solution de l’ampleur d’un Core2 Duo pour une consommation faible et surtout du vrai fanless intégrable dans un chassis ridicule, le linuxien que je suis (et qui se fout donc d’être en x86) y voit là une belle opportunité de faire de l’ultra book qui déchire et parfaitement confortable pour mes utilisations (bureautique, développement, … mais pas de jeu).
idem, je trouve la formule vraiment pas mal, et beaucoup plus polyvalente qu’une tablette. Pas de soucis pour programmer dessus par exemple, contrairement à une tablette. Le truc casse pieds, c’est le stockage à mon sens, vu le prix de la mémoire j’aurais bien aimé pouvoir rajouter quelques Gigs
Le
02/11/2012 à
07h
02
Attends peut être que le A15 soit testé sur autre chose que du javascript (sûrement sur phoronix dans pas longtemps, ou alors sur openbenchmarking.org, vu qu’ubuntu peut tourner sur le chromebook), mais je pense que la comparaison avec un Core2 un peu ancien est bonne, ce nouveau proc n’a pas grand chose à voir avec les ARM9 précédents. La consommation en charge n’est pas si extraordinaire par contre, par rapport aux dernières offres de chez Intel, mais le prix est assez imbattable (pas invraisemblable, nuance) :-)
edit : pour le invraisemblable, prends en compte le fait que la finesse de gravure n’a rien à voir (ton ancien laptop doit être en 65nm, celui-ci en 28 ou 32, la même puce serait 4x plus petite)
pour moi c’est avec win32 que surface se démarque ne se démarque pas de ses concurents (iOS etc …).
Mettre ses appli Pc sur tablette c’est le rêve. (vlc, émulateur etc)
Euh, justement, avec Surface tu ne peux pas utiliser Win32, c’est le point de la remarque de Vincent. Win32 <> Processeur x86 (souvent Atom pour une tablette, ou APU AMD)
Pour le fait de ne pas utiliser les nouvelles instruction je suis tout a fait d’accord avec toi. Je n’ai jamais compris l’interet de faire des comparaison entre des architecture sans utiliser un exécutable capable de les utiliser vraiment.
Par contre pour le choix du compilo il semblerait que quelque soit l’architcture utilisée, c’est avec ICC qu’on obtient toujours les meilleures perfs
Par exemple j’avais programmé un mandelbrot en C, en passant de GCC à ICC j’ai divisé le temps de calcul par deux, sur une machine AMD. Que ce soit avec ICC et avec GCC j’avais utilisé les meme option d’optimisation.
Toujours la même histoire, les tests sont faits avec les logiciels disponibles, qui seront accessoirement ceux que les gens utiliseront en grande partie. Il existe pas mal de tests sur le sujet sur Phoronix, l’architecture bulldozer profite effectivement bien d’instructions de compilation spécifiques (intégrées dans les derniers GCC par exemple), mais hors monde libre / linux point de salut, AMD doit faire avec ce qui est sur le marché. Dans le même ordre d’idée et pour équilibrer le débat, le problème se pose aussi avec Intel, les SSE supportés par leurs processeurs sont très rarement intégrés dans les logiciels utilisés pour les tester lors de leur sortie..
edit : exemple de test sur HFR sur l’impact des compilateurs
Le
23/10/2012 à
09h
02
Pour les linuxiens, et ceux qui veulent des résultats sur des workloads parfois un peu différentes, le test de phoronix est INtéressant. L’architecture est parfois très à son avantage (C-Ray par exemple), et complètement à l’ouest dans d’autres cas, AMD semble complètement délaisser les perfs en virgule flottante, peut être dans la perspective d’une utilisation (lointaine encore) généralisée d’OpenCL et du GPU. Vraiment dommage que leur process soit autant à la masse en tout cas..
Le
23/10/2012 à
08h
25
Gerophil a écrit :
EDIT : Bref les gens qui attendent que AMD passe devant Intel rêvent un peu avec 18 mois de retard niveau fonderie. Ou alors leur architecture est révolutionnaire.
l’architecture est vraiment pas mal du coup, puisque parfois devant celle d’Intel (3770K) sur les entiers. Par contre la différence de process et les flottants qui ne sont pas au niveau leur joue des tours. Dommage quand même, la même architecture sur le process d’Intel serait assez impressionnante par certains points.
Les heures silencieuses de CyanogenMod n’agissent pas sur les appels entrants, et ne permettent pas de recevoir uniquement les notifications d’appel de personnes mises sur une liste blanche.
je n’ai pas dit que ce n’était pas un peu différent, juste pas complètement révolutionnaire.. ensuite avec CM tu peux aussi paramétrer des profils (work, home, sleeping, ..), mais c’est une autre histoire
Le
22/10/2012 à
11h
43
darkey a écrit :
ça ne me dis rien CM9-10
edit :grilled
tu peux activer des “quiet hours” dans settings-> sound sur CM depuis la 9 au moins. Vérifié aussi sur la 10, la “nouveauté” de iOS6 m’avait un peu fait rigoler..
Une fois que tu installes les gapps, c’est pas vraiment inclut donc.
oui, mais tu auras remarqué que le calendrier (par exemple) n’était jusqu’ici pas présent sur le store. Donc quasi obligation d’installer les gapps. Donc problème ensuite si tu veux installer le calendrier du store pour être à jour, tu te retrouves avec deux calendriers (CQFD). Maintenant si toutes les gapps sont présentes sur le store, effectivement il n’y a plus de soucis (question ouverte)
Le
18/10/2012 à
15h
34
Zulgrib a écrit :
L’app “agenda” que certains ont par défaut est inclut par le constructeur et n’es pas inclut avec le système.
elle est sur cyanogen une fois que tu installes les gapps, du coup avec celle du playstore ça en fait deux quand même.. un peu bizarre à gérer, pas encore pu voir si les alertes arrivaient en double par exemple
Le
18/10/2012 à
15h
00
Pour l’instant, pas trop de différences avec la version installée de base sur JB. Du coup les deux applications sont présentes, un peu curieux, je ne comprends pas très bien comment est-ce que ça se gère..
j’achète L4D2 dès qu’il sort… Curieux de voir les retours de Steam là dessus, je suis près à parier qu’ils vont récupérer des clients (ou s’apercevoir qu’un bon nombre de leurs clients actuels étaient preneurs d’un accès linux pour leurs jeux). Bien content de leur boulot en tout cas.. Sur torchlight tout de suite, mais un bon fps ne ferait pas de mal :-)
Un peu stupide ces histoires de records battus à chaque nouvelle itération : le nombre de propriétaires d’iPhone (ou autre smartphone) augmente pour l’instant chaque année. Il y a donc plus de candidats au renouvellement à chaque itération, mécaniquement, le fait de battre le record précédent est tout sauf une surprise..
‘fin bon, ça permet à Apple de dire “We are astonished by this new record blabla..” et à certains journalistes de faire leur article de la journée " />
Un peu hallucinant qu’ils demandent ça maintenant, ça veut dire que win 7.8 est à peine entamé.. L’exécution de MS sur Windows Phone est quand même à la ramasse, entre un système prometteur introduit il y a deux ans et maintenant, on ne dirait pas qu’un géant du software pousse derrière. A côté de ça windows phone 8 semble loin d’être prêt (ArsTechnica), microsoft pourrait apprendre de ses rivaux quant à la cadence d’éxécution..
Qui sait… Mais c’est dommage pour les néophytes n’ayant pas l’idée de passer par ce moyen là ou ceux dont la manipulation fait peur.
En tout cas HTC aurait pu assurer un meilleur suivi à ce sujet, ou sinon donner clairement leurs raisons. L’argument du manque de performance me semble pas suffisant, surtout quand on voit les modèles de l’actualité.
samsung a fait la même chose sur le galaxy S / nexus S, HTC n’est pas tout seul sur le ratage. Mais c’est sûr que c’est mal géré quand même, un peu une plaie sous android si on n’est pas sur un nexus, ou qu’on ne passe pas sur cyanogen.
Le
30/08/2012 à
14h
31
Enyths a écrit :
La ressemblance en terme de spécification entre le Desire HD et le Desire X.
Il ne faut pas oublier non plus que le Snapdragon S4 (MSM8225) en question fait partie des deux modèles qui ne bénéficie pas de la gravure en 28nm. Donc on reste sur quelque chose de très similaire avec les Snapdragon S2 (MSM8255) du Desire HD (avec certes une remise à niveau).
Le reste : résolution, mémoire vive reste similaire.
Pour quelle raison HTC n’a pas voulu mettre à jour le Desire HD vers ICE ?
pour donner des clients à Cyanogen ?
Le
30/08/2012 à
14h
31
CaribouX a écrit :
C’est moi ou il faut un Bac +5 HTC pour comprendre la gamme ?
Ne suivant pas particulièrement l’actualité Smartphone, je trouve que les gammes des constructeurs sont vraiment illisibles… 36 modèles renouvellés tous les 6 mois, ca fait mal à la tête " />
One -> Haut et moyenne gamme
Desire -> Entrée de gamme
ensuite dans une gamme ça s’améliore avec des lettres qui vont vers la fin de l’alphabet
enfin, c’est ce que j’ai compris..
Le
30/08/2012 à
14h
29
Pas précisé mais super important pour les curieux : les S4 seraient des “S4 play”, pas du tout les mêmes performances (coeurs “A5” que je ne connaissais pas, pas très puissants). Bref, pas du tout du moyenne gamme (ce sont les “One”), mais haut de l’entrée de gamme avec un petit dual core.
edit : un peu grilled :-) Les A15 ne sont pas sortis au fait, et seront plus pour les tablettes que pour les téléphones normalement, grosse consommation (relativement) à prévoir.
239 commentaires
Android écrase le marché des smartphones et progresse sur les tablettes
06/11/2012
Le 06/11/2012 à 13h 32
Le 06/11/2012 à 13h 26
Le 06/11/2012 à 12h 51
Le 06/11/2012 à 09h 52
Le 06/11/2012 à 09h 46
Le 06/11/2012 à 09h 14
Le 06/11/2012 à 09h 02
Le 06/11/2012 à 08h 23
Le 06/11/2012 à 08h 19
@Nil Toujours pas compris le pourquoi du classement Android/Linux… Android = Linux + Java, je pensais que c’était quand même connu sur PCI, tel quel la dissociation des deux n’a aucun sens. Ou alors “Autres Linux” ?
A6X : le coeur de l’iPad avec écran Retina d’Apple renferme quatre GPU
05/11/2012
Le 05/11/2012 à 14h 49
Le 05/11/2012 à 14h 23
Le 05/11/2012 à 14h 15
Le 05/11/2012 à 13h 21
Reste maintenant à savoir quel fabricant de SoC pourra reprendre le flambeau des performances à Apple entre Qualcomm, Samsung avec un éventuel Exynos 5 à quatre coeurs ainsi que NVIDIA et son Wayne, qui ne devrait plus tarder à se montrer.
Bah, on a déjà un bon début de réponse avec quelques tests déjà présents.. (Anandtech par exemple). Pour résumer, Apple est devant en GPU, mais derrière en CPU, par rapport au dernier SoC Samsung présent sur la Nexus 10.
ARM et Microsoft travaillent sur un Windows RT 64 bits
05/11/2012
Le 05/11/2012 à 13h 02
Le 05/11/2012 à 10h 19
Le 05/11/2012 à 10h 15
Le 05/11/2012 à 10h 13
Android : Ice Cream Sandwich et Jelly Bean progressent, mais doucement
02/11/2012
Le 02/11/2012 à 10h 10
Le 02/11/2012 à 10h 10
Vivent les ROMs alternatives du coup, et dommage que leur installation ne soit pas plus grand public. Ceci dit, ça a le mérite d’exister, par rapport notamment aux heureux possesseurs de Windows Phone 7.5…
Quelles performances pour le Chromebook ARM de Google
31/10/2012
Le 02/11/2012 à 09h 11
Le 02/11/2012 à 07h 02
Attends peut être que le A15 soit testé sur autre chose que du javascript (sûrement sur phoronix dans pas longtemps, ou alors sur openbenchmarking.org, vu qu’ubuntu peut tourner sur le chromebook), mais je pense que la comparaison avec un Core2 un peu ancien est bonne, ce nouveau proc n’a pas grand chose à voir avec les ARM9 précédents. La consommation en charge n’est pas si extraordinaire par contre, par rapport aux dernières offres de chez Intel, mais le prix est assez imbattable (pas invraisemblable, nuance) :-)
edit : pour le invraisemblable, prends en compte le fait que la finesse de gravure n’a rien à voir (ton ancien laptop doit être en 65nm, celui-ci en 28 ou 32, la même puce serait 4x plus petite)
BUILD 2012 : les développeurs repartent avec une Surface et un Lumia 920
31/10/2012
Le 31/10/2012 à 11h 05
[Revue de presse] AMD lance de nouveaux processeur FX : la revanche ?
23/10/2012
Le 23/10/2012 à 12h 56
Le 23/10/2012 à 09h 02
Pour les linuxiens, et ceux qui veulent des résultats sur des workloads parfois un peu différentes, le test de phoronix est INtéressant. L’architecture est parfois très à son avantage (C-Ray par exemple), et complètement à l’ouest dans d’autres cas, AMD semble complètement délaisser les perfs en virgule flottante, peut être dans la perspective d’une utilisation (lointaine encore) généralisée d’OpenCL et du GPU. Vraiment dommage que leur process soit autant à la masse en tout cas..
Le 23/10/2012 à 08h 25
Galaxy SIII et Android 4.1 (Jelly Bean) : le déploiement a débuté en France
22/10/2012
Le 22/10/2012 à 14h 20
Le 22/10/2012 à 11h 43
L’application Google Agenda sur les terminaux Android, ICS au minimum
18/10/2012
Le 19/10/2012 à 09h 15
Le 18/10/2012 à 15h 34
Le 18/10/2012 à 15h 00
Pour l’instant, pas trop de différences avec la version installée de base sur JB. Du coup les deux applications sont présentes, un peu curieux, je ne comprends pas très bien comment est-ce que ça se gère..
[MàJ] Steam pour Linux : les inscriptions pour la bêta sont ouvertes
27/10/2012
Le 28/09/2012 à 11h 16
j’achète L4D2 dès qu’il sort… Curieux de voir les retours de Steam là dessus, je suis près à parier qu’ils vont récupérer des clients (ou s’apercevoir qu’un bon nombre de leurs clients actuels étaient preneurs d’un accès linux pour leurs jeux). Bien content de leur boulot en tout cas.. Sur torchlight tout de suite, mais un bon fps ne ferait pas de mal :-)
L’iPhone 5 trouve 5 millions d’acheteurs en 72 h et signe un nouveau record
24/09/2012
Le 24/09/2012 à 15h 58
Un peu stupide ces histoires de records battus à chaque nouvelle itération : le nombre de propriétaires d’iPhone (ou autre smartphone) augmente pour l’instant chaque année. Il y a donc plus de candidats au renouvellement à chaque itération, mécaniquement, le fait de battre le record précédent est tout sauf une surprise..
‘fin bon, ça permet à Apple de dire “We are astonished by this new record blabla..” et à certains journalistes de faire leur article de la journée " />
Microsoft : que doit-on ajouter en priorité dans Windows Phone 7.8 ?
10/09/2012
Le 10/09/2012 à 11h 58
Un peu hallucinant qu’ils demandent ça maintenant, ça veut dire que win 7.8 est à peine entamé.. L’exécution de MS sur Windows Phone est quand même à la ramasse, entre un système prometteur introduit il y a deux ans et maintenant, on ne dirait pas qu’un géant du software pousse derrière. A côté de ça windows phone 8 semble loin d’être prêt (ArsTechnica), microsoft pourrait apprendre de ses rivaux quant à la cadence d’éxécution..
[IFA 2012] HTC Desire X : 4 pouces et Snapdragon S4… mais pas d’Android 4.1
30/08/2012
Le 30/08/2012 à 16h 26
Le 30/08/2012 à 14h 31
Le 30/08/2012 à 14h 31
Le 30/08/2012 à 14h 29
Pas précisé mais super important pour les curieux : les S4 seraient des “S4 play”, pas du tout les mêmes performances (coeurs “A5” que je ne connaissais pas, pas très puissants). Bref, pas du tout du moyenne gamme (ce sont les “One”), mais haut de l’entrée de gamme avec un petit dual core.
source : Anandtech
edit : un peu grilled :-) Les A15 ne sont pas sortis au fait, et seront plus pour les tablettes que pour les téléphones normalement, grosse consommation (relativement) à prévoir.
Krait (S4, S4 Pro)-> A9.
S4 Play -> A5
Google Maps se met à jour sur Android et propose la navigation à vélo
30/08/2012
Le 30/08/2012 à 16h 24
google corrige aussi le bug qui faisait rebooter les HTC Cyanogenmod, apprécié " />
[MàJ] NVIDIA publie CUDA 5.0 et son centre de documentation
15/10/2012
Le 16/05/2012 à 13h 54
quelqu’un a testé nsight/eclipse ? ça vaut le coup ?