Connexion
Abonnez-vous

Haswell : vers la disparition du chipset au sein des cartes mères ?

Et la disparition des fabricants de cartes mères, c'est pour quand ?

Haswell : vers la disparition du chipset au sein des cartes mères ?

Le 10 septembre 2012 à 14h05

Depuis quelques jours, plusieurs pages d'une présentation concernant Haswell ont été publiées par certains de nos confrères. On y apprend assez peu de choses qui n'avaient pas été dévoilées lors du précédent IDF, mais un détail concernant le chipset est néanmoins à noter.

Intel Haswell Leak

 

Car si Haswell reprend la finesse de gravure en 22 nm des Ivy Bridge, cette nouvelle architecture devrait être pleine de nouveautés, et de mauvaises nouvelles pour les fabricants de cartes mères (qui s'en plaignent déjà dans les coulisses).

 

En effet, comme cela a déjà été évoqué l'année dernière, le VRM sera directement intégré au sein du packaging du CPU. Avec cette nouvelle génération, Intel vise plus qu'une efficacité accrue : le géant de Santa Clara veut faire un bond important vers un design de type SoC et proposer une consommation fortement réduite.

 

Intel Ultrabook TDP sub 10 watts

 

L'année dernière, la société avait ainsi livré sa vision des prochains Ultrabook, et annoncé qu'un nouveau segment sera ouvert : celui des puces qui n'iront pas au-delà de 10 watts de TDP. Cela sera bien le cas pour Haswell même si c'est surtout sa consommation au repos qui devrait être en chute.

 

Concernant la plateforme, trois solutions devraient être proposées, dont une qui sera limitée aux Ultrabook. Celle-ci est particulièrement intéressante puisqu'Intel annonce qu'elle sera monopuce : le CPU ne sera ainsi plus accompagné d'un chipset de la génération Lynxpoint, puisque celui-ci sera directement intégré au CPU (ou à son packaging).

 

Intel Haswell Leak Intel Haswell Leak

 

Le TDP de l'ensemble sera alors de seulement 15 watts, il n'y aura que deux coeurs physiques, mais la puce graphique intégrée pourra être une GT3 au maximum. C'est sans doute là une révolution plus intéressante que la simple question du TDP, et il faudra voir si dans les générations à venir Intel n'intègrera pas directement ses puces Wi-Fi au sein de ses CPU, par exemple.

 

La réaction des constructeurs de cartes mères sera aussi à surveiler car, si de telles modifications arrivent sur leur terrain (notamment pour le Mini ITX par exemple, ceux-ci n'auront alors quasiment plus aucun moyen de se démarquer de leurs concurrents, si ce n'est par le look de l'UEFI et le bundle logiciel fourni...

Commentaires (50)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Je sens qu’il y en a chez Asus qui sont contents d’avoir pris le chemin de la diversification <img data-src=" />

votre avatar







TBirdTheYuri a écrit :



MOSFET <img data-src=" />





C’est plus difficile à prononcer <img data-src=" />


votre avatar







ngcubeur a écrit :



Oui… Sauf que le newser parle aussi (beaucoup ?) du monde du dekstop avec les fabricants de carte mère. Et là, c’est carrément pas le même domaine ;)



Pour les ultrabook : ok. Mais pour les notebook et le desktop : non. Sur ton notebook actuel, si ta carte WiFi crame, c’est en général 2 vis à enlever, et une petite carte trouvable facilement à changer. Ca prend 5min et ça remarche. Alors l’INtégrer au CPU, je vois pas l’intérêt quand tu as la place de mettre ça. Et c’est pas l’épaisseur de la carte qui fera chier tant qu’on aura les “bêtes” RAM en SO-DIMM ;)



J’ai rarement vu un CPU soudé sur un notebook. Peut être parce que j’ai ouvert pas mal de Dell ? Mais il me semble que même HP ne se soumet pas à une bassesse pareille sur ses notebook <img data-src=" />





De toutes façons, on aura beau le tourner dans tous les sens, on ira forcément sur de plus en plus d’intégration, surtout au fil de l’affinement et de la miniaturisation. Ce sera compliqué de vouloir des machines de moins de 15mm ou tu peux aller bidouiller avec tes grosses pattes et ton tournevis.



Surtout que les puces ayant de plus en plus tendance à être multi usage, ce qui se fait déjà communément sur ls smartphones / tablettes ira forcément avoir des impacts sur les CPU. Les intérêts sont nombreux, du côté du coût, de la facilité d’intégration (et donc du coût), de la conso / autonomie… après effectivement, la capacité de changer les composants devra perdurer au moins dans une certaine limité, mais demain le thin client qu’on te refourguera pour utiliser tes services qui seront tous dans le cloud ne coutera pas plus cher qu’un smartphone au sein duquel tu ne peux rien changer #Pessimisme <img data-src=" />


votre avatar

Si ca permet d’éviter de se prendre le choux sur des sockets jamais compatible avec des nouvelles générations de CPU, ca évitera bien des problèmes.



Mais c’est quand même un peu une régression … et puis bonjour la gamme de puce différentes pour sattisfaire tout le monde, entre les bureautiques, les NAS, les gamers, les pros, …



M’enfin, on fait des suppositions sur des rumeurs, faut arréter de délirer <img data-src=" />

votre avatar







FacePlouc a écrit :



Mais c’est quand même un peu une régression … et puis bonjour la gamme de puce différentes pour sattisfaire tout le monde, entre les bureautiques, les NAS, les gamers, les pros, …





C’est deja un peu le cas : tu t’es amuse a regarder le nombre de CPU differents qu’Intel propose ? Entre la conso, les frequences, les IGP, les fonctionnalites qu’Intel reserve pour certains modeles, tu as des dizaines de modeles en production.



ark.intel.com Intel


votre avatar







David_L a écrit :



De toutes façons, on aura beau le tourner dans tous les sens, on ira forcément sur de plus en plus d’intégration, surtout au fil de l’affinement et de la miniaturisation. Ce sera compliqué de vouloir des machines de moins de 15mm ou tu peux aller bidouiller avec tes grosses pattes et ton tournevis.



Surtout que les puces ayant de plus en plus tendance à être multi usage, ce qui se fait déjà communément sur ls smartphones / tablettes ira forcément avoir des impacts sur les CPU. Les intérêts sont nombreux, du côté du coût, de la facilité d’intégration (et donc du coût), de la conso / autonomie… après effectivement, la capacité de changer les composants devra perdurer au moins dans une certaine limité, mais demain le thin client qu’on te refourguera pour utiliser tes services qui seront tous dans le cloud ne coutera pas plus cher qu’un smartphone au sein duquel tu ne peux rien changer #Pessimisme <img data-src=" />







Ouais voilà. J’adore la miniaturisation (sinon j’aurais pas fait tout un topic sur l’ITX), mais pas à tout prix. Aujourd’hui, on va essayer de vendre du “fin” même si ça sert à rien (Cf les TV de 2cm d’épaisseur, ou pire les moniteurs ultra-fins… Avec un pied énorme qui contient toute l’électronique <img data-src=" /> ).



Ca permet au marketeux de vendre un produit “super fin trop design”, au techos de tout souder, et ça donne “Ceci est une révolution ! Il faut tout racheter !”, couplé à “Il faut tout racheter… Et payer un abonnement pour notre service révolutionnaire !” <img data-src=" />



Avec du Thin-ITX bien normé et des boîtiers conçus pour, on pourrait déjà faire des terminaux très fins. Et avec un peu d’INventivité des créateurs de boîtiers, on pourrait même avoir des “terminaux gamer” avec une carte graphique dans un boîtier qui dépasse pas les 5cm de hauteur.



J’espère que les prochains CPUs AMD seront vraiment valables, parce que c’est notre seul espoir : la concurrence !


votre avatar







ngcubeur a écrit :



J’ai rarement vu un CPU soudé sur un notebook. Peut être parce que j’ai ouvert pas mal de Dell ? Mais il me semble que même HP ne se soumet pas à une bassesse pareille sur ses notebook <img data-src=" />





Après vérification, pour les notebook c’est pas courant, et pour les Ultrabook c’est systématique <img data-src=" /> notebookreview.com…ultrabook-cpu-upgrading.html


votre avatar







ldesnogu a écrit :



C’est deja un peu le cas : tu t’es amuse a regarder le nombre de CPU differents qu’Intel propose ?

ark.intel.com IntelRendez-nous le temps des Pentium 60/90/100/120/133/150/166/200/166 MMX/200 MMX… <img data-src=" />



<img data-src=" />


votre avatar

En tant qu’utilisateur de Linux, je suis plutôt content de ce genre d’évolution chez Intel, car plus d’intégration signifie aussi plus de standardisation.

Outre les économies d’énergie, ça permettra aussi de mieux supporter les plateformes Intel.

Et tant pis si ça ne fait pas plaisir aux OEM, eux qui emploient souvent des composants exotiques ne respectant pas les standards, afin d’augmenter leurs marges au mépris du client.

votre avatar







AirChtit a écrit :



Si une partie flanche, genre le wifi par exemple, admettons qu’ils finissent par l’inégrer au sein du CPU, on est bon pour remplacer le CPU? Ca fait cher la défaillance.







Tant qu’il y aura des ports d’extension, tu pourras remplacer la partie défaillante par un composant externe. L’IGP sur le CPU ne nous a pas (encore) empêché de prendre des cartes dédiées.


votre avatar







-Stephane- a écrit :



En tant qu’utilisateur de Linux, je suis plutôt content de ce genre d’évolution chez Intel, car plus d’intégration signifie aussi plus de standardisation.

Outre les économies d’énergie, ça permettra aussi de mieux supporter les plateformes Intel.

Et tant pis si ça ne fait pas plaisir aux OEM, eux qui emploient souvent des composants exotiques ne respectant pas les standards, afin d’augmenter leurs marges au mépris du client.





C’est un point de vue.

On pourrait aussi dire que moins d’intégration = + de possibilités pour y mettre ce qu’on veut = + de concurrence = + de choix = mieux



Quant aux “composants exotiques” qui coutent cher pour marger à mort : comment dire…. Ca donne un peu l’impression que Intel c’est le bien et le reste c’est le mal. Ce qui est loin d’être le cas.

Quant au “non-respect des standards” : je ne suis pas assez calé, donne nous des exemples. A moins que tu ne parles du standard imposé de facto par Intel. Auquel cas je dirais que je préfère moins de standard qu’un standard unilateral et intéressé.


votre avatar

Je ne vois pas trop en quoi ca gene la concurrence : qui fait des chipsets pour Intel ? Ben oui Intel seulement, depuis qu’ils ont bloque nVidia.

votre avatar







-Stephane- a écrit :



En tant qu’utilisateur de Linux, je suis plutôt content de ce genre d’évolution chez Intel, car plus d’intégration signifie aussi plus de standardisation.

Outre les économies d’énergie, ça permettra aussi de mieux supporter les plateformes Intel.

Et tant pis si ça ne fait pas plaisir aux OEM, eux qui emploient souvent des composants exotiques ne respectant pas les standards, afin d’augmenter leurs marges au mépris du client.





Donc si Intel décide, pour des raison de pragmatisme, d’intégrer des technologies propriétaires dans ses prochaines générations de CPU, et de ne pas proposer de drivers pour Linux, tu sera « plutôt content de ce genre d’évolution » ?



Pour mémoire, c’est exatement ce qui s’est produit pour l’Atom Cedarview. Sous prétexte (parfaitement louable) de proposer des modèles performants, Intel n’a pas utilisé sa technologie pour laquelle il existe un driver libre, mais a acheté une license à un partenaire pour une puce qui n’a ni driver libre ni driver propriétaire.


votre avatar

L’arrivée d’Haswell marque surtout la fin des Atom type Cedarview. Il devient en effet difficile de trouver un intérêt à ces puces.

votre avatar







risoto a écrit :



L’arrivée d’Haswell marque surtout la fin des Atom type Cedarview. Il devient en effet difficile de trouver un intérêt à ces puces.





C’est encore bien au-dessus de la conso des Atom. Surtout qu’il est probable qu’avec un TDP de 10w le chip doit passer son temps a jongler sur les frequences de CPU vs celles du GPU ; c’est deja le cas sur les IVB 17W et la ca ca etre pire.


votre avatar

Doublon…

votre avatar

ça s’annonce mal le socket 1150 <img data-src=" />



Bon bah vivement qu’AMD nous ponde un bon vishera et enfonce par la suite avec steamroller <img data-src=" />

votre avatar







RinDman a écrit :



ça s’annonce mal le socket 1150 <img data-src=" />



Bon bah vivement qu’AMD nous ponde un bon vishera et enfonce par la suite avec steamroller <img data-src=" />





<img data-src=" /> Doux rêves


votre avatar







risoto a écrit :



L’arrivée d’Haswell marque surtout la fin des Atom type Cedarview. Il devient en effet difficile de trouver un intérêt à ces puces.





Ah ben oui, ça vise le même marché et le même price point <img data-src=" />


votre avatar







Drepanocytose a écrit :



C’est un point de vue.

On pourrait aussi dire que moins d’intégration = + de possibilités pour y mettre ce qu’on veut = + de concurrence = + de choix = mieux





En temps normal je serais d’accord avec ça, mais le problème c’est que les constructeurs tiers ne font pas tous autant d’effort qu’Intel en terme d’ouverture…





Quant aux “composants exotiques” qui coutent cher pour marger à mort : comment dire…. Ca donne un peu l’impression que Intel c’est le bien et le reste c’est le mal. Ce qui est loin d’être le cas.

Ce n’est pas le prix que j’attaquais, mais le fait qu’on propose des composants de mauvaise qualité, pour que le constructeur conserve sa marge dessus (voir l’augmente).



Quant au “non-respect des standards” : je ne suis pas assez calé, donne nous des exemples. A moins que tu ne parles du standard imposé de facto par Intel. Auquel cas je dirais que je préfère moins de standard qu’un standard unilateral et intéressé.



Des exemples il y en a pleins, comme les ACPI buggés conçus pour ne fonctionner que sous Windows…


votre avatar







Quiproquo a écrit :



Donc si Intel décide, pour des raison de pragmatisme, d’intégrer des technologies propriétaires dans ses prochaines générations de CPU, et de ne pas proposer de drivers pour Linux, tu sera « plutôt content de ce genre d’évolution » ?



Pour mémoire, c’est exatement ce qui s’est produit pour l’Atom Cedarview. Sous prétexte (parfaitement louable) de proposer des modèles performants, Intel n’a pas utilisé sa technologie pour laquelle il existe un driver libre, mais a acheté une license à un partenaire pour une puce qui n’a ni driver libre ni driver propriétaire.





Je suis parfaitement au courant de ça, et je n’ai pas apprécié non plus cette décision.

Mais justement avec Haswell, Intel revient sur cette décision et va intégrer sa propre technologie supportée par des pilotes libres. Imagination Technology va donc perdre un gros client.


votre avatar







-Stephane- a écrit :



Je suis parfaitement au courant de ça, et je n’ai pas apprécié non plus cette décision.

Mais justement avec Haswell, Intel revient sur cette décision et va intégrer sa propre technologie supportée par des pilotes libres. Imagination Technology va donc perdre un gros client.





C’est justement un peu ce que Quiproquo dit.

C’est selon le bon vouloir d’Intel, selon le sens du vent, et surtout selon l’endroit d’où vient l’odeur des profits futurs…

Bref, on est en droit d’avoir 2 ou 3 craintes….


votre avatar

Encore un petit effort sur le TDP et la taille du BGA et on verra des tablettes 10” avec ce single-chip 22nm (RT ou … Apple iOS). C’est bien l’objectif avec LPDDR3 et l’offre power management / VRM conjointe. Reste le prix - je ne vois pas Intel vendre ce truc moins de 50$.



C’est quoi “SOix” by the way ?

Un process 22nm low power ?

votre avatar







zurg38 a écrit :



Encore un petit effort sur le TDP et la taille du BGA et on verra des tablettes 10” avec ce single-chip 22nm (RT ou … Apple iOS). C’est bien l’objectif avec LPDDR3 et l’offre power management / VRM conjointe. Reste le prix - je ne vois pas Intel vendre ce truc moins de 50$.



C’est quoi “SOix” by the way ?

Un process 22nm low power ?







Je viens de penser que Apple pourrait très bien utiliser un x86 dans son prochain iPad.


votre avatar







John Shaft a écrit :



Rendez-nous le temps des Pentium 60/90/100/120/133/150/166/200/166 MMX/200 MMX… <img data-src=" />



<img data-src=" />





Il y avait les pentium pro aussi sorti avant les MMX. <img data-src=" />

D’ailleurs j’ai enfant j’ai eu un gage avec theme park world qui réclamait un CPU MMX et refusait donc de tourner sur un PC plus qu’honorable pour l’époque un pentium pro 200 MHz Bi CPU <img data-src=" />


votre avatar

La plateforme 1155 est déjà complètement verrouillée…



5 ou 6 chipsets qui font tous la même chose, 4 ou 5 modèle de processeurs qui tiennent la route (premier Pentium DC à 60E, le Core i3 à 110E, le i5 K à 200E, et le i7 K à 300E)



Ce n’est pas par ce qu’on peut choisir le nombre de phases de la carte mère que ça donne l’illusion du choix…



Même en sélectionnant un CPU non-K en étant pas “power user”, c’est une économie de 5 à 10% du prix ! (soit 10~30E… sur 200~300E j’appelle pas ça de la segmentation)



Les performances des cartes mères sont toutes les mêmes, le chipset n’est plus qu’un soutbridge qui permet de connecter les périphériques, il y aurait juste un thunderbolt en sortie du CPU ça serait exactement la même <img data-src=" />



Le ticket d’entrée du bidouilleur sur 1155 c’est 200E le premier CPU K, et 100E les cartes mères en chipset P ou Z, pour les gammes en dessous je vois pas le problème de pousser l’intégration le choix est déjà absent…



Après je ne suis pas pour le verrouillage de l’utilisateur mais il faut avouer que si on achète encore avec toutes ces contraintes c’est que les plateformes sont plutôt performantes et fonctionnelles !

votre avatar







Drepanocytose a écrit :



C’est justement un peu ce que Quiproquo dit.

C’est selon le bon vouloir d’Intel, selon le sens du vent, et surtout selon l’endroit d’où vient l’odeur des profits futurs…

Bref, on est en droit d’avoir 2 ou 3 craintes….





Heu non, ce n’est pas selon le sens du vent. Intel n’avait pas de technologie prête pour l’embarqué avant, c’est pourquoi ils ont utilisé un GPU sous licence.

Avec Haswell ils vont avoir un GPU compétitif et surtout des drivers libres “à la page”.


votre avatar







-Stephane- a écrit :



Je suis parfaitement au courant de ça, et je n’ai pas apprécié non plus cette décision.

Mais justement avec Haswell, Intel revient sur cette décision et va intégrer sa propre technologie supportée par des pilotes libres. Imagination Technology va donc perdre un gros client.





Intel un gros client d’ImgTech ?!? <img data-src=" /> Regarde plutot du cote d’Apple si tu veux voir un gros client.



Par ailleurs, il existe pas mal de plateformes a base d’ARM ou les chips PowerVR sont bien supportes y compris sous Linux. Ce n’est pas ImgTecg qui est responsable du fiasco sur Atom, mais bien Intel <img data-src=" />


votre avatar







-DTL- a écrit :



Il y avait les pentium pro aussi sorti avant les MMX. <img data-src=" />

D’ailleurs j’ai enfant j’ai eu un gage avec theme park world qui réclamait un CPU MMX et refusait donc de tourner sur un PC plus qu’honorable pour l’époque un pentium pro 200 MHz Bi CPU <img data-src=" />







P Pro, c’était 150, 180 et 200 Mhz à la base ? (Best architecture ever <img data-src=" /> … mais sans les registres 64-bits du MMX <img data-src=" />)


votre avatar







David_L a écrit :



De toutes façons, on aura beau le tourner dans tous les sens, on ira forcément sur de plus en plus d’intégration, surtout au fil de l’affinement et de la miniaturisation. Ce sera compliqué de vouloir des machines de moins de 15mm ou tu peux aller bidouiller avec tes grosses pattes et ton tournevis.





Bah, ils utilisent bien des enfant chinois pour leurs petites mains, moi j’utiliserai celles de mes enfants <img data-src=" />


votre avatar







ldesnogu a écrit :



Par ailleurs, il existe pas mal de plateformes a base d’ARM ou les chips PowerVR sont bien supportes y compris sous Linux. Ce n’est pas ImgTecg qui est responsable du fiasco sur Atom, mais bien Intel <img data-src=" />





Intel était quand même un gros client, il n’y a pas qu’Apple dans la vie…

Très peu le sont en réalité, et elles nécessitent des versions du noyaux bien spécifiques avec lesquels les pilotes sont compatibles.

l’IP appartient à ImgTech, c’est eux qui fournissent les pilotes pour leur chip, donc le fiasco sur atom c’est bien de LEUR faute… Intel ne peut pas ouvrir les pilotes d’un matériel qui ne leur appartient pas.


votre avatar







-Stephane- a écrit :



Intel était quand même un gros client, il n’y a pas qu’Apple dans la vie…





Intel a vendu 100M d’Atom en 3 ans (ref). Bien peu sont équipés de PowerVR. Je te laisse mettre ça en rapport avec ce qu’Apple vend. Et je n’ai pris Apple que comme exemple hein. Donc oui Intel est un bon client, mais certainement pas le plus gros.



H2 2012 ImgTech a vendu 202M de chips (ref).





Très peu le sont en réalité, et elles nécessitent des versions du noyaux bien spécifiques avec lesquels les pilotes sont compatibles.



Certes, mais c’est moins la merde que ce qu’Intel en a fait.





l’IP appartient à ImgTech, c’est eux qui fournissent les pilotes pour leur chip, donc le fiasco sur atom c’est bien de LEUR faute…



Sans vouloir te vexer, je crois que tu ne sais pas de quoi tu parles :) Les contrats entre ImgTech et leurs clients contiennent des clauses concernant la diffusion des drivers ; par exemple TI est capable de délivrer des drivers, qu’ils compilent eux-mêmes pour une cible donnée. Et Intel ne saurait pas faire ? Ouai, disons plutôt qu’ils ont fait preuve d’incompétence comme bien souvent pour tout ce qui concerne le graphique.





Intel ne peut pas ouvrir les pilotes d’un matériel qui ne leur appartient pas.

Parce qu’ouvrir un pilote signifie qualité ? Oui oui bien sûr <img data-src=" />


votre avatar

Le but d’Intel ? Peut être nous vendre directement le CPU soudé sur la CM à terme… Un joli cycle pour un grand retour en arrière. Sauf pour leurs bénéf’, bien sûr !



Entre la limitation de l’OC, la segmentation des gammes à mort, etc… Intel a une gamme bien triste !



Surtout que les VRM intégrés, ça voudra dire qu’on sera encore plus tributaires d’Intel sur la capacité d’OC, mais aussi sur la stabilité du système, la consommation de la machine, ça va obliger de dimensionner le rad CPU en conséquence…



Seul point positif en desktop : les VRM seraient du coup refroidis activement, bonne chose pour le watercooling.

votre avatar

Si une partie flanche, genre le wifi par exemple, admettons qu’ils finissent par l’inégrer au sein du CPU, on est bon pour remplacer le CPU? Ca fait cher la défaillance.



Auant gérer la mémoire au sein du proc semble logique et nécessaire (encore que), l’ajout de fonctionnalités systématique peut devenir une plaie.



Tout benef pour un htpc quand ca marche bien mais dans le cas du wifi notamment, avec une nouvelle norme tous les 3 ans, ca va être la teuf.

votre avatar







ngcubeur a écrit :



Le but d’Intel ? Peut être nous vendre directement le CPU soudé sur la CM à terme… Un joli cycle pour un grand retour en arrière. Sauf pour leurs bénéf’, bien sûr !



Entre la limitation de l’OC, la segmentation des gammes à mort, etc… Intel a une gamme bien triste !



Surtout que les VRM intégrés, ça voudra dire qu’on sera encore plus tributaires d’Intel sur la capacité d’OC, mais aussi sur la stabilité du système, la consommation de la machine, ça va obliger de dimensionner le rad CPU en conséquence…



Seul point positif en desktop : les VRM seraient du coup refroidis activement, bonne chose pour le watercooling.





C’est à peu près tout globalement faux, mais la question de fond se pose, effectivement. <img data-src=" />


votre avatar







AirChtit a écrit :



Si une partie flanche, genre le wifi par exemple, admettons qu’ils finissent par l’inégrer au sein du CPU, on est bon pour remplacer le CPU? Ca fait cher la défaillance.



Auant gérer la mémoire au sein du proc semble logique et nécessaire (encore que), l’ajout de fonctionnalités systématique peut devenir une plaie.



Tout benef pour un htpc quand ca marche bien mais dans le cas du wifi notamment, avec une nouvelle norme tous les 3 ans, ca va être la teuf.





Autant mettre chaque coeur sur une carte fille différente à ce compte là… #OhWait <img data-src=" />


votre avatar







David_L a écrit :



C’est à peu près tout globalement faux, mais la question de fond se pose, effectivement. <img data-src=" />







Qu’est ce qui est faux ? Vu que je débite juste un tas d’âneries <img data-src=" />


votre avatar



ceux-ci n’auront alors quasiment plus aucun moyen de se démarquer de leurs concurrents, si ce n’est par le look de l’UEFI et le bundle logiciel fourni…





La qualité des composants aussi <img data-src=" />

votre avatar







CryoGen a écrit :



La qualité des composants aussi <img data-src=" />







Et la couleur des mofsets <img data-src=" />


votre avatar

A force d’intégrer les différents composants de la mobo dans le CPU, bientôt la carte mère ne sera plus - hormis les convertisseurs de tension - qu’un support de câblage passif.



Je comprend que les constructeurs fassent la gueule…

votre avatar

Je trouve ca plutot bien : Intel va enfin faire ce que les fabricants de chips pour telephone font depuis 15 ans <img data-src=" /> C’est du tout bon niveau consommation et niveau performance, j’applaudis !

votre avatar







mukumi a écrit :



Et la couleur des mofsets <img data-src=" />





MOSFET <img data-src=" />


votre avatar







ngcubeur a écrit :



Qu’est ce qui est faux ? Vu que je débite juste un tas d’âneries <img data-src=" />





disons que pour un ultrabook ça ne change pas grand chose à ce qu’il se fait actuellement, si le wifi lâche t’es bon pour le SAV, te passer du wifi, ou jeter l’appareil



ça c’est valable pour 99% des gens, après t’aura les geek squi vont tenter de changer la carte mère de l’ultra-book, mais comme le cpu est souvent soudé à la carte mère, tu changes tout aussi…. donc au final pas de changement entre 2 puces séparées et une seul


votre avatar

Ça pourrait permettre de créer des cartes mères modifiables et fournis avec schéma comme on a déjà pour l’ARM avec la BeagleBoard ou la PandaBoard.



Ça pourrait même aller plus loins avec des cartes mères DIY.



En tout cas ça simplifirait la création de laptop DIY, grandement.

votre avatar







ngcubeur a écrit :



Le but d’Intel ? Peut être nous vendre directement le CPU soudé sur la CM à terme… Un joli cycle pour un grand retour en arrière. Sauf pour leurs bénéf’, bien sûr !





Le CPU de la plupart des PC portables est bien soudés (sur des chipset Intel) <img data-src=" />.

Pareil pour les Ultrabook.


votre avatar







sylvere a écrit :



disons que pour un ultrabook ça ne change pas grand chose à ce qu’il se fait actuellement, si le wifi lâche t’es bon pour le SAV, te passer du wifi, ou jeter l’appareil



ça c’est valable pour 99% des gens, après t’aura les geek squi vont tenter de changer la carte mère de l’ultra-book, mais comme le cpu est souvent soudé à la carte mère, tu changes tout aussi…. donc au final pas de changement entre 2 puces séparées et une seul







Oui… Sauf que le newser parle aussi (beaucoup ?) du monde du dekstop avec les fabricants de carte mère. Et là, c’est carrément pas le même domaine ;)



Pour les ultrabook : ok. Mais pour les notebook et le desktop : non. Sur ton notebook actuel, si ta carte WiFi crame, c’est en général 2 vis à enlever, et une petite carte trouvable facilement à changer. Ca prend 5min et ça remarche. Alors l’INtégrer au CPU, je vois pas l’intérêt quand tu as la place de mettre ça. Et c’est pas l’épaisseur de la carte qui fera chier tant qu’on aura les “bêtes” RAM en SO-DIMM ;)







canard_jaune a écrit :



Le CPU de la plupart des PC portables est bien soudés (sur des chipset Intel) <img data-src=" />.

Pareil pour les Ultrabook.







J’ai rarement vu un CPU soudé sur un notebook. Peut être parce que j’ai ouvert pas mal de Dell ? Mais il me semble que même HP ne se soumet pas à une bassesse pareille sur ses notebook <img data-src=" />


votre avatar

C’est surtout qu’ImgTech est en partie propriété d’Intel de mémoire. ;)

votre avatar







the_mei a écrit :



C’est surtout qu’ImgTech est en partie propriété d’Intel de mémoire. ;)





Intel a mis du cash dedans, mais moins qu’Apple il me semble.



On va finir par croire que je ne pense qu’à Apple, c’est juste une coïncidence, promis <img data-src=" />


votre avatar







ldesnogu a écrit :



Donc oui Intel est un bon client, mais certainement pas le plus gros.





C’est exactement ce que j’ai dis, je n’ai jamais dis que c’était LE plus gros client.





Certes, mais c’est moins la merde que ce qu’Intel en a fait.

C’est exactement pareil, si tu n’as pas le bon kernel pour tes modules binaires t’es sur le carreau de la même manière. Ce n’est pas parce que Ti a fait un peu plus de build qu’Intel que la situation est meilleure. Tant qu’IMGTech n’ouvrira pas ses pilotes ce sera le même merdier.





Sans vouloir te vexer, je crois que tu ne sais pas de quoi tu parles :) Les contrats entre ImgTech et leurs clients contiennent des clauses concernant la diffusion des drivers ; par exemple TI est capable de délivrer des drivers, qu’ils compilent eux-mêmes pour une cible donnée. Et Intel ne saurait pas faire ? Ouai, disons plutôt qu’ils ont fait preuve d’incompétence comme bien souvent pour tout ce qui concerne le graphique.



Sans vouloir te vexer je pense que c’est toi qui ne sais pas de quoi tu parles ;)

Tu sembles confondre 2 choses. Je sais très bien qu’ImgTech permet à ces clients OEM (comme Intel) d’avoir accès aux sources (je le sais car j’ai bossé avec eux), seulement c’est sous NDA uniquement. Sous aucun prétexte un client d’ImgTech n’a le droit de diffuser les sources du pilote.

Du coup pour les clients finaux ça ne change rien, le pilote est toujours fermé, et le suivi du kernel Linux comme de Xorg est laissé au bon vouloir du constructeur.





Parce qu’ouvrir un pilote signifie qualité ? Oui oui bien sûr <img data-src=" />



J’adore les gens qui ré-interprètent ce que je dis pour inventer des choses que je n’ai pas dit.<img data-src=" />

Ouvrir le pilote ça permet simplement le suivi des sorties du noyaux et de Xorg, bref ça permet d’avoir un vrai support “out of the box” sans dépendre du bon vouloir du constructeur.


votre avatar

Ben ecoute c’est marrant je connais le type qui s’occupe de ca chez TI. Je n’ai jamais parle de diffusion des sources : juste d’etre capable de recompiler pour fournir le bon driver, ce qu’il,fait pour pas mal de distros et ce qu’Intel n’a jamais fait. Donc j’insiste le pire pb dans les drivers PowerVR sur Atom, c’est Intel, pas ImgTech.



Bien sur dans un monde ideal on aurait et des specs et des assez de monde pour implementer des drivers open source. Meme les drivers open source faits par Intel sont bien plus lents que les equivalents Windows (cf Phoronix). Donc ouai on poura toujours avoir des drivers qui marchent, mais on ne pourra pas profiter du chip comme il faut. Moi je signe des deux mains pour un blob binaire qui marche vite et bien (nVidia en l’occurrence, mais on sort de l’IGP).



Bref on est globalement d’accord, sauf que je soutiens qu’Intel a merde grave parce qu’ils ont fait le minimum syndical.

Haswell : vers la disparition du chipset au sein des cartes mères ?

Fermer