votre avatar

ldesnogu

est avec nous depuis le 24 décembre 2004 ❤️

1487 commentaires

Le 18/09/2012 à 19h 08

C’est vrai qu’on va pouvoir un peu comparer. Mais il va falloir que les benchmarks soient bien faits : la frequence boost n’est utilisee que si le tel est suffisamment froid ; donc si un bench est court ca va aller vite (exemple : sunspider). Mais pour ceux qui jouent longtemps (plus de quelques minutes), pour eux ce sera la frequence de base, donc nettement moins bon.



Bref, on peut predire un excellent score sur Sunspider, moyen sur les autres bench, et moins que moyen en graphique par rapport a la version Krait.



En revanche sur la batterie, je ne sais pas, on verra bien, mais Medfield est correct.

Le 18/09/2012 à 18h 04

Forcement le prix est bas : quel utlisateur avise va acheter un telephone non compatible a 100% avec les applis natives ARM ? Ou bien un telephone dont le GPU ne peut rivaliser avec ce qu’on trouve actuellement sur le marche ? A part les naifs qui voient Intel et attendent un miracle je ne vois pas bien.



Ptet a la generation suivante fin 2013, ils deviendront competitifs, pour l’instant c’est du moyen de gamme avec le prix qui va avec.



Ha et vous emballez pas sur la 4g: Intel n’est pas pret et c’est bien pour ca qu’aucun telephone Intel n’est dispo aux US, a la place y’a du Krait en general <img data-src=" />

Le 18/09/2012 à 18h 10

Mon tel est un Note, et j’ai une Nexus 7 et des iPad. Je trouve que tous ont leur utilite, mais va quand meme falloir que je pense a me faire soigner <img data-src=" />

Le 18/09/2012 à 15h 45







Ideal a écrit :



Même le slip kangourou te posséde <img data-src=" /> surtout si tu trolls en sa faveur sur un quelconque forum internet …

Après cette petite phrase de maître Yoda s’appliquait surtout à un type qui possède chaque iphone et voit samsung comme le grand satan <img data-src=" />



“Possèdé, tu es par ce qui te possède jeune anakin”<img data-src=" />





Je ne porte que des slips kangourou jaune devant, marron derriere de toute facon, et comme c’est agree par le ministere de l’homme, j’ai tout bon ! <img data-src=" />



Fin de la parenthese. On peut retourner au troll anti-Apple.


Le 18/09/2012 à 14h 36







Ideal a écrit :



Dernier truc médite sur cette phrase bien connu qu’on devrait imprimer sur le front des gens qui ont possédés chaque release de l’iphone “ Ce que tu possèdes, te possède ( Et fais de toi un troll quand tu t’exprimes )” <img data-src=" />





C’est cool, tu ne possedes donc rien, sinon tu es un troll quand tu t’exprimes, c’est ca la logique, j’ai bien compris ? Et t’arrives a te balader a poil sans te faire choper par les flics ? Ou alors tu veux ptet troller sur le slip kangourou vs le boxer que tu possedes ? <img data-src=" />



C’est pas un peu leger comme raisonnement de traiter les gens de troll parce qu’ils donnent leur avis partisan (ce qui par ailleurs est un pleonasme) ?



En parlant de P/E, Intel est dans les 10 et ARMH dans les 57, ca fait peur <img data-src=" />


Le 17/09/2012 à 12h 44







Lafisk a écrit :



non, mais après le buzz du 920, je me suis dis que j’aurais ptêt mieux fait d’en acheter <img data-src=" />





Prends plutot du Nokia, on ne sait pas encore si MS ne va pas se planter avec Windows 8… <img data-src=" />


Le 17/09/2012 à 12h 35







Lafisk a écrit :



M’enfin bref, résultat à voir plus tard, moi de toute façon tant que windows phone arrive à prendre des pdm ça me va.





Ha t’as des actions MSFT ? <img data-src=" />



J’espere qu’ils vont prendre 20% de PdM d’ici quelques annees, faut secouer le marche et trois acteurs majeurs c’est ideal a mon humble avis. Si en plus, cerise sur le gateau, ca permet a Nokia de redevenir un acteur majeur sur le haut de gamme, c’est encore mieux.


Le 17/09/2012 à 10h 06







Lafisk a écrit :



vu le buzz autour du nokia 920, et la déception Iphone 5 cela pourrait arriver assez rapidement.





L’iPhone 4S etait aussi une deception d’apres tout le monde a l’epoque, pourtant il s’est tres bien vendu, non ?



Quant au 920, j’espere pour Nokia que ce sera vraiment un succes. Dommage que le buzz autour du lancement ait plus ete sur les ratages de leur comm que sur les qualites de leur produit <img data-src=" />


Le 15/09/2012 à 15h 15

Le pauvre HD4000 a quand meme du mal sur D3 :http://www.anandtech.com/show/5865/laptop-graphics-face-off-diablo-iii-performan…

D’ailleurs presque tous les GPU de ce test ont du mal.

Le 14/09/2012 à 14h 31







trevisev a écrit :



Intel devrait rajouter dans son argumentaire : pour vos clients sous Linux, ils pourront bénéficier des même perfs sous Linux que sous Windows avec un Ubuntu “out of the box”.





C’est pas tout à fait exact hélas : les drivers Windows marchent beaucoup mieux que les drivers Linux sur certains jeux; cfhttp://www.phoronix.com/scan.php?page=article&item=intel_sandy_threesome


Le 14/09/2012 à 12h 57







sirius35 a écrit :



Mettre un ventilo ? l’avantage des ultrabook c’est l’autonomie, rajouter un solution de refroidissement aussi gourmande en électron qu’un ventilo c’est pas envisageable….





Il me semble que la quasi totalité des Ultrabook ont un ventilo.



Enfin bon, comme beaucoup d’autres je ne vois pas l’intérêt d’un GPU dédié dans un tel format. Si on veut jouer, on n’achète pas un Ultrabook.


Le 14/09/2012 à 17h 46







levhieu a écrit :



Mais c’est quand même plus facile d’émuler de l’ARM que du x86:




  • Pas besoin de se taper d’abord un décodage des prefixes

  • Moins de variantes de modes d’adressage.





    Tout ca est parfaitement trivial. En plus sur un JIT tu payes le cout une seule fois.



    Enfin bref, au mieux t’as un facteur 2 de ralentissement, mais vraiment au mieux. Donc si c’est lourd en CPU, Medfield n’y arrivera pas.


Le 14/09/2012 à 07h 50







brazomyna a écrit :



Ou pas si le CPU hôte est largement plus puissant que celui qu’il émule.



Emuler une SNES n’est pas un problème pour un Core i7. Emuler une PS3 un peu plus.





On parle de téléphone. Medfield n’étant pas plus performant que ce qu’il veut émuler, ça ne peut pas bien fonctionner s’il y a trop de code natif.


Le 14/09/2012 à 07h 36







levhieu a écrit :



Et l’émulateur ARM sur l’androphone x86, il marche bien ou pas ?





J’avoue que j’aimerais bien savoir, enfin tester moi-même je veux dire. J’ai quand même lu à droite et à gauche que certaines apps ne fonctionnaient pas du tout, et d’autres étaient trop lentes. Et bien entendu beaucoup marcheraient bien.



De toute façon techniquement y’a pas de miracle possible : si une app dépend fortement du CPU, hors librairie de l’OS, l’émulateur aura de gros soucis de performance. La question est combien de telles applis existent ? :)


Le 13/09/2012 à 16h 45







methos1435 a écrit :



Bref, à mon avis actuellement, ils dépensent du temps et de l’argent mais pas sur le bon problème.





C’est quoi le bon probleme du coup, j’ai perdu le fil on dirait <img data-src=" /> C’est la portabilite et l’inter-operabilite ?


Le 13/09/2012 à 15h 02



Un choix d’autant plus intéressant (et ironique) que celui qui vante le x86 et ses instructions dédiées, nous explique donc que les applications doivent s’éloigner du code machine pour fonctionner partout de la même manière, même sur ARM.



Justement, le but n’est-il pas pour Intel que les app dev passent sur HTML5 pour rendre portable les app mobiles majoritairement sous ARM ?



Tout ca bien sur en proposant des outils specifiques a Intel comme River Trail.



Faut ptet que j’arrete de regarder X-Files, je me mulderise et en plus je pense avoir raison <img data-src=" />

Le 14/09/2012 à 12h 32

A mon humble avis, les procs Intel avancent bien avec de nouvelles choses à chaque génération et un gain de performance pas mauvais (j’exclus évidemment d’office cette sombre merde d’Atom). Au niveau où ils sont arrivés, un saut significatif serait extrêmement coûteux et en taille et en power, il est donc normal qu’on puisse avoir l’impression que ça ralentit. J’ai beau ne pas être un fan d’Intel, je suis admiratif de ce qu’ils arrivent à faire génération après génération <img data-src=" />

Le 14/09/2012 à 10h 52







canard_jaune a écrit :



Oui le POWER4 (PowerPC) précède l’Opteron (x86) mais je ne citait que les innovations du x86.



Pour moi APU c’est le nom marketing bing-bling des SoC x86 pour ordinateur.





Tu changes les règles du jeu alors ? Dans ton précédent message tu disais que la mémoire transactionnelle n’était pas une innovation car IBM l’avait déjà. Révisionniste ! <img data-src=" />


Le 14/09/2012 à 09h 40







canard_jaune a écrit :





  • Opteron (AMD) en 2004 : premier processeur x86 multi cœurs.

    Il marque la fin de la course à la puissance brute (Athlon, Pentium - NetBrust) et le début de celle du nombre de cœurs.





    Désolé mais le POWER4 prédate ça et de loin.





  • Sandy Bridge (Intel) en 2009 : virage du muti coeurs vers les SoC (ou APU si vous préférez).

    Sady Bridge est le premier “processeur” x86 à rassembler sur son die un processeur graphique, un cache partagé CPU/GPU, un contrôleur mémoire, un contrôleur PCI et évidement des unités de calcul.



    SoC != APU et des SoC ça existe depuis bien longtemps dans le monde de l’embarqué.



    Donc non ce que tu cites ne sont pas des “innovations” non plus.


Le 14/09/2012 à 07h 06







canard_jaune a écrit :



Il y a bien des nouveautés mais malheureusement pas d’innovation :





  • La mémoire transactionnelle : concept intéressant (je connaissais pas), mais IBM l’implémente déjà sur ses processeurs depuis 2 ans.



  • une gestion de l’énergie jamais atteint : facile lorsque le gestionnaire d’énergie est couplé au processeur.



  • un nouveau système de cache : les rumeurs parlaient d’un cache L4, mais bon fallait pas rêver.



  • DDR4 pour serveurs : évolution normale, surtout que les RAM DDR4 pour serveur sont produites (à petite échelle bien sur) depuis mai dernier.



  • des nouvelles instructions SIMD : un update des instructions AVX de Sandy Bridge.



  • 8 instructions par cycle : oui 2 instructions de plus qu’Ivy, c’est une révolution !





    A ce compte-la peux-tu dire quelle fut la derniere innovation sur un x86 ?


Le 14/09/2012 à 08h 31

D’après ce site les \(400 c'est pour 4 Go de RAM et 40 Go de SSD. Disons qu'avec un processeur qui coûte plus de \)200 c’est sûr que le reste ne peut pas aller bien loin <img data-src=" />

Le 13/09/2012 à 12h 36







Burn2 a écrit :



Et quand je comparais avec les atoms ou autre, ben au final je suis à peine à 50€ de plus pour un truc beaucoup plus puissant. Donc avec un cpu pentium un peu plus abordable, il n’est pas sûr que ça ne soit pas intéressant niveau tarif. Tout en étant plus petit que ce que j’ai.





Le probleme est que les CPU Intel a 17W il n’y en a pas beaucoup et ils sont tous tres chers. Apres on passe au 35W et du coup, il faut refaire le systeme de refroidissement et probablement avoir au final un truc plus gros. Donc pas si facile je pense <img data-src=" />


Le 12/09/2012 à 18h 57

C’est affolant, je vais arreter de lire je pense. Certains ont de toute evidence le cerveau debranche pour repondre aux news Apple <img data-src=" /> Ca marche dans les 2 sens d’ailleurs, fanboys comme hateboys, quelle tristesse.

Le 12/09/2012 à 18h 43







atomusk a écrit :



Source ? <img data-src=" />





c’est dand la news mais je parie que c’est faux.


Le 12/09/2012 à 18h 41

x2 en CPU et x2 en GPU et certains ont le toupet de dire que ca avance pas ? Faudrait etre plus subtil que ca les gars, la vous avez l’air juste ridicules (et non j’ai pas d’iPhone et je ne compte pas en acheter, j’aime bien mon Android).



Pour revenir sur la news ce n’est surement pas un Cortex-A15 dedans mais plutot un quad core A9, ou bien un dual avec une grosse frequence. En tout cas c’est ce que je parie <img data-src=" />

Le 12/09/2012 à 14h 00

EDIT : pfff

Le 12/09/2012 à 12h 44







brazomyna a écrit :



Non, ce qui est ridicule, c’est de penser qu’on vit dans un monde infini, celui où les développeurs auront un temps infini pour faires toutes les optimisations possibles et ne s’arrêteront que lorsqu’ils seront sûrs d’avoir mis en oeuvre l’ensemblre des optimisations possibles et ne seront plus limités que par la nature du langage choisi qui ne leur permettra plus d’aller plus loin.





Et pour ça, un lange bas niveau est PARFAIT pour ça. Et (sauf ton postulat dichotomique qui t’amène à croire que si j’argumente en faveur des langages plus haut niveau, je suis forcément contre le bas niveau partout) je n’ai jamais remis en question cet état de fait.

Et OMG, combien de développeurs développent des codecs ? 1% ?





Comme plein d’autres concepts où pour certains la différence sera nettement moins flagrante





Je ne passe par rien du tout, je dis juste que les perfs intrinsèques dépendent très souvent moins de la qualité de l’implémentation que du langage utilisé, que ça se réduit encore comme peau de chagrin avec le temps et qu’à partir de là, dire que le managé est une connerie universelle est un non sens ridicule.





On est d’accord sur quasiment tout alors <img data-src=" /> Tout ce qui compte a l’arrivee c’est le bon langage avec le bon developpeur pour un truc particulier.



Le point de depart quand meme etait ton affirmation laminaire :





brazomyna a écrit :



Pour du langage style Java/.net, la différence de perf est de l’ordre de 1% à 5% au pire, hors cas extrêmement spécifiques.





Et la tu pourras tourner autant que tu veux autour du pot, c’est juste faux dit comme tu l’as ecrit <img data-src=" />





On a même du VB6 <img data-src=" /> (mais pas pour tout, heureusement <img data-src=" />). Mais d’une façon un peu plus sérieuse, le .net managé est très représenté dans l’IT orientée finance



Ca reste hors salle de marche, j’imagine ? Je pense a tous ces ecrans avec plein de courbes, aux transactions effectuees avec une garantie de 10ms (ou un truc du genre).


Le 12/09/2012 à 12h 23

Bon brazomyna, visiblement tu ne veux lire que ce que tu as envie pour taper sur les gens on dirait. Je vais quand meme repondre.









brazomyna a écrit :



Parce que ton ordi à la maison passe ses journées à faire du super PI ?

Parce que 95% des besoins en développement, c’est pour implémenter des codecs ?

<img data-src=" />





Alors que je repondais a :



Commence par me déterminer ce que doit être ton test et de définir un usage ‘moyen’ d’un utilisateur ‘moyen’ et on en reparle. Parce que si c’est pour me comparer un superPI en Javascript vs. assembleur, c’est juste ridicule.



Donc oui desole on se tape du temps passe par les dev, ce qui compte c’est ce que les utilisateurs utilisent, ben ouai ca fait ridicule en l’ecrivant hein ? Et OMG les utilisateurs utilisent des CODEC. Dingue hein ? <img data-src=" />



Ensuite tu reponds :





brazomyna a écrit :



J’ai jamais dit ça. <img data-src=" />





dans un contexte ou tu disais qu’une difference de temps d’execution sur un algo d’arbre binaire n’etait pas representatif. Oui j’extrapole, mais des arbres binaires, y’en a partout.



Et ensuite tu embrayes en disant :



C’est justement le contraire: ce type de besoin est ultra minoritaire dans la globalité du code qui est écrit chaque jour dans le monde.



C’est la que tu passes du mode temps de CPU effectue dans le monde a temps de dev, ce qui AMHA n’est pas le sujet de la discussion.



Maintenant ce que tu dis sur la finance m’interpelle. Vous utilisez vraiment du Java en salle de marche ? Je pensais qu’il y avait des contraintes tres fortes de temps reel la-dedans. Java et .net sont bons en temps reel ?


Le 12/09/2012 à 10h 44







brazomyna a écrit :



Et donc ce test est représentatif de ce que fait un ordi en moyenne dans une journée ?





Je suis d’accord que le shootout ne montre pas grand-chose, mais de la a dire qu’il n’y a pas de structures de donnees plus ou moins complexes dans les softs que tu utilises tous les jours, la tu t’egares <img data-src=" /> Regarde un peu la complexite des briques de base necessaires a un browser…


Le 12/09/2012 à 10h 42







brazomyna a écrit :



Commence par me déterminer ce que doit être ton test et de définir un usage ‘moyen’ d’un utilisateur ‘moyen’ et on en reparle. Parce que si c’est pour me comparer un superPI en Javascript vs. assembleur, c’est juste ridicule.





Je suis en partie d’accord avec toi. Je te laisse choisir un truc qui te semble raisonnable et plutot calculatoire bien sur. Un codec ? <img data-src=" />





Le fait est que contrairement à ce que disait HarmattanBlow avant, le surcoût n’est par une facteur, mais est proche d’une valeur absolue, qui fait que la proportion diminue au fur et à mesure que les perfs d’un CPU moyen augmente.



Je ne suis pas d’accord ! Chaque langage impose des contraintes qui font que certaines choses ne pourront jamais etre efficaces et donc le surcout deviendra un facteur, pas un cout fixe. L’absence de pointeurs peut etre un tel obstacle.





Ce sont deux réalités indéniables (il y en a d’autres: portabilité, …), et dans le domaine pro une barette de RAM ou un serveur supplémentaire est très souvent beaucoup plus rentable que quelques hommes.jour passés à optimiser où à être moins productif avec un langage moins ‘efficient’.



Completement d’accord. Mais a un moment il va falloir se poser la question de l’efficacite energetique qui est liee a l’efficacite d’execution.





Depuis l’avènement de la compilation ‘just in time’ (qui date pas d’hier), la différence de perf est pourtant très faible (bien sûr quand on parle d’un langage fortement typé, sinon on compare des choux et des carottes).



D’accord la aussi. On peut meme voir des cas ou grace au JIT un programme Java est plus rapide qu’un programme C++ ecrit a la va-vite. Apres C/C++ etant ce qu’ils sont rien n’empeche de generer du code a la volee, ca va juste prendre un temps enorme en dev <img data-src=" />





Et on reparle du couteau mal utilisé. <img data-src=" />



C’est helas une realite.


Le 12/09/2012 à 09h 43







brazomyna a écrit :



Pour du langage style Java/.net, la différence de perf est de l’ordre de 1% à 5% au pire, hors cas extrêmement spécifiques. Autant dire rien.



Ce n’est pas parce qu’une génération entière de troll est passée par là à propos à l’époque du Java que ça reste vrai aujourd’hui. Mais ça évidemment il faut avoir un certain recul et une certaine pratique pour le comprendre, ce qui est le plus souvent incompatible avec les “je sais tout sur tout mais j’ai jamais rien fait de concret” qui traînent le plus souvent sur les espaces de discussion ‘mainstream’ du net.





Mouai mais quand tu veux on fait une comparaison de vitesse entre C et Java/.net.



Java et les bidules .net sont surement plus safe et on developpe bien plus rapidement avec eux. Mais dire que la difference de perf est de 1% a 5% la c’est n’importe quoi sauf cas particulier <img data-src=" />



Le principal probleme est que l’immense majorite des developpeurs n’ont strictement plus aucune notion d’architecture CPU et ne savent meme plus ce qu’est un cache ou un pipeline. Du coup ils font n’importe quoi et ce quel que soit le langage.



Y’a quelques annees j’ai fait un cours d’archi CPU a des maitrises d’infos, et la plupart ne comprenait pas l’interet de ce que j’enseignais. J’avais fait un cours similaire quelques annes auparavant et la c’etait la majorite qui voyait l’interet. Java et les weberies etaient passes par la.


Le 12/09/2012 à 09h 34







Lafisk a écrit :



L’Ipad a pas un mini ventilo de quelque millimètre ?





Non, aucun des 3 modeles n’en a et encore heureux, j’aurais fait un lancer d’iPad sinon <img data-src=" />


Le 12/09/2012 à 09h 26

D’un cote tu dis que l’ecran est gros consommateur, de l’autre tu exclus l’ecran retina, ca manque de coherence, non ? <img data-src=" />



Je voudrais bien voir une vraie etude poussee (et non sponsorisee par Intel ou un fabricant ARM) de la consommation des differents elements d’un telephone et d’une tablette, ca permettrait d’y voir un peu plus clair.



Il y a un truc qu’il ne faut pas oublier : le “form factor” joue enormement. Sur les telephones et les tablettes, tu ne veux pas avoir de refroidissement actif et tu n’as pas beaucoup de place pour dissiper la chaleur degagee. Dans ces conditions meme 10W c’est beaucoup, et je ne suis pas certain qu’on sache faire une tablette sans refroidissement actif utilisant un tel CPU. Perso, je ne veux pas d’une tablette avec ventilo…



En tout cas chapeau bas a Intel <img data-src=" />

Le 11/09/2012 à 20h 44

Ils parlent de 500mW pour le coeur et les 2w c’est pour Tegra2, donc dual core plus GPU, bref on est d’accord <img data-src=" />

Le 11/09/2012 à 20h 15







Scorp14 a écrit :



Le cortex A9 de ARM a un TDP de 2W max. Sur les nouveaux A15 par contre la aucune idée.





Un coeur A9 c’est moins que ca. A 2w tu es plutot sur un SoC dual core avec un GPU moyen de gamme.



Pour entrer dans un telephone, les integrateurs demandent des CPU vers les 3-400 mW/MHz.


Le 11/09/2012 à 20h 29

Ben ecoute c’est marrant je connais le type qui s’occupe de ca chez TI. Je n’ai jamais parle de diffusion des sources : juste d’etre capable de recompiler pour fournir le bon driver, ce qu’il,fait pour pas mal de distros et ce qu’Intel n’a jamais fait. Donc j’insiste le pire pb dans les drivers PowerVR sur Atom, c’est Intel, pas ImgTech.



Bien sur dans un monde ideal on aurait et des specs et des assez de monde pour implementer des drivers open source. Meme les drivers open source faits par Intel sont bien plus lents que les equivalents Windows (cf Phoronix). Donc ouai on poura toujours avoir des drivers qui marchent, mais on ne pourra pas profiter du chip comme il faut. Moi je signe des deux mains pour un blob binaire qui marche vite et bien (nVidia en l’occurrence, mais on sort de l’IGP).



Bref on est globalement d’accord, sauf que je soutiens qu’Intel a merde grave parce qu’ils ont fait le minimum syndical.

Le 11/09/2012 à 11h 13







the_mei a écrit :



C’est surtout qu’ImgTech est en partie propriété d’Intel de mémoire. ;)





Intel a mis du cash dedans, mais moins qu’Apple il me semble.



On va finir par croire que je ne pense qu’à Apple, c’est juste une coïncidence, promis <img data-src=" />


Le 11/09/2012 à 10h 11







-Stephane- a écrit :



Intel était quand même un gros client, il n’y a pas qu’Apple dans la vie…





Intel a vendu 100M d’Atom en 3 ans (ref). Bien peu sont équipés de PowerVR. Je te laisse mettre ça en rapport avec ce qu’Apple vend. Et je n’ai pris Apple que comme exemple hein. Donc oui Intel est un bon client, mais certainement pas le plus gros.



H2 2012 ImgTech a vendu 202M de chips (ref).





Très peu le sont en réalité, et elles nécessitent des versions du noyaux bien spécifiques avec lesquels les pilotes sont compatibles.



Certes, mais c’est moins la merde que ce qu’Intel en a fait.





l’IP appartient à ImgTech, c’est eux qui fournissent les pilotes pour leur chip, donc le fiasco sur atom c’est bien de LEUR faute…



Sans vouloir te vexer, je crois que tu ne sais pas de quoi tu parles :) Les contrats entre ImgTech et leurs clients contiennent des clauses concernant la diffusion des drivers ; par exemple TI est capable de délivrer des drivers, qu’ils compilent eux-mêmes pour une cible donnée. Et Intel ne saurait pas faire ? Ouai, disons plutôt qu’ils ont fait preuve d’incompétence comme bien souvent pour tout ce qui concerne le graphique.





Intel ne peut pas ouvrir les pilotes d’un matériel qui ne leur appartient pas.

Parce qu’ouvrir un pilote signifie qualité ? Oui oui bien sûr <img data-src=" />


Le 11/09/2012 à 07h 28







-Stephane- a écrit :



Je suis parfaitement au courant de ça, et je n’ai pas apprécié non plus cette décision.

Mais justement avec Haswell, Intel revient sur cette décision et va intégrer sa propre technologie supportée par des pilotes libres. Imagination Technology va donc perdre un gros client.





Intel un gros client d’ImgTech ?!? <img data-src=" /> Regarde plutot du cote d’Apple si tu veux voir un gros client.



Par ailleurs, il existe pas mal de plateformes a base d’ARM ou les chips PowerVR sont bien supportes y compris sous Linux. Ce n’est pas ImgTecg qui est responsable du fiasco sur Atom, mais bien Intel <img data-src=" />


Le 10/09/2012 à 20h 06

Doublon…

Le 10/09/2012 à 20h 06







risoto a écrit :



L’arrivée d’Haswell marque surtout la fin des Atom type Cedarview. Il devient en effet difficile de trouver un intérêt à ces puces.





C’est encore bien au-dessus de la conso des Atom. Surtout qu’il est probable qu’avec un TDP de 10w le chip doit passer son temps a jongler sur les frequences de CPU vs celles du GPU ; c’est deja le cas sur les IVB 17W et la ca ca etre pire.


Le 10/09/2012 à 18h 11

Je ne vois pas trop en quoi ca gene la concurrence : qui fait des chipsets pour Intel ? Ben oui Intel seulement, depuis qu’ils ont bloque nVidia.

Le 10/09/2012 à 14h 57







FacePlouc a écrit :



Mais c’est quand même un peu une régression … et puis bonjour la gamme de puce différentes pour sattisfaire tout le monde, entre les bureautiques, les NAS, les gamers, les pros, …





C’est deja un peu le cas : tu t’es amuse a regarder le nombre de CPU differents qu’Intel propose ? Entre la conso, les frequences, les IGP, les fonctionnalites qu’Intel reserve pour certains modeles, tu as des dizaines de modeles en production.



ark.intel.com Intel


Le 10/09/2012 à 14h 31

Je trouve ca plutot bien : Intel va enfin faire ce que les fabricants de chips pour telephone font depuis 15 ans <img data-src=" /> C’est du tout bon niveau consommation et niveau performance, j’applaudis !

Le 11/09/2012 à 15h 10

J’aime bien ce délire steampunk. Mais j’aurais préféré du bon cyberpunk bien glauque, sauf que ça aurait été moins vendeur <img data-src=" />

Le 11/09/2012 à 14h 30

“Tomorrow” :)

Le 11/09/2012 à 12h 27







OlivierJ a écrit :



Je ne suis pas sûr de comprendre les nuances non plus :) . La version JB Intel, c’est bien du code pour x86 ? Et ça ne marche pas dans un VirtualBox ?



En tous cas, un ami fait joujou avec ICS x86 dans un VirtualBox et ça a l’air de fonctionner normalement, qu’appelles-tu “pas pleinement” fonctionnelles” ?





Je pense qu’il veut dire qu’il ne faut pas confondre android-x86 et les Android distribués par Intel <img data-src=" />


Le 11/09/2012 à 11h 54







Obidoub a écrit :



De ce que j’ai lu des tests de leur dernier smartphone android, il est à la hauteur des arm autant en conso qu’en performances. Disons qu’il se noie dans la masses des autres modèles plus ou moins bons.

Par contre il n’est pas meilleur.





En conso, il est vraiment médiocre quand même, voire pire. Et en perf graphique pareil. Y’a que sur Sunspider qu’il vaut quelque chose. Ajoute à ça des problèmes de compatibilité avec certaines app natives, un truc pas rootable, et d’un coup on se demande à quoi ça sert d’acheter ce téléphone sauf si on est un fan d’Intel <img data-src=" />



Ref : regarder le Lava XOLO X900 sur Anandtech (c’est le même design de base tel que livré par Intel aux fabricants)

http://www.anandtech.com/show/6098/lg-optimus-4x-hd-international-quadcore-love


Le 11/09/2012 à 09h 57

Ha les téléphones Intel… De la merde, ma bonne dame, de la merde (lancer de jambon, toussa).

Le 10/09/2012 à 14h 42







Antwan a écrit :



Ca sent l’annonce d’une nouvelle gamme de core, la dernère datant de 2008 quand meme <img data-src=" />





Hein ? IvyBridge est la 3eme gen et Haswell la 4eme. Donc des annonces de gamme depuis 2008 y’en a eu pas mal :)