Intel explique aux fabricants d’Ultrabook comment se passer de GPU
Haswell vaincra !
Le 14 septembre 2012 à 11h53
3 min
Sciences et espace
Sciences
Au cours d'une présentation où il met en avant ses nouvelles solutions graphiques et où il donne quelques détails supplémentaires de sa prochaine architecture connue sous le nom de Haswell, Intel en profite pour donner son point de vue sur les GPU dédiés au sein des Ultrabook. Comme vous pouvez l'imaginer, la firme de Santa Clara n'est pas forcément très encline à les voir être intégrés et donne même des motifs pour s'en passer.
Au sein de la documentation, Intel indique ainsi quelques nouveautés concernant Haswell, et rappelle le positionnement que va prendre son futur GPU intégré au sein de son processeur Core de 4e génération. On disposera donc de trois modèles différents dénommés GT1, GT2 et GT3, comme on peut le voir ci-dessous.
En outre, cette puce graphique supportera nativement le 4K, le DisplayPort 1.2 avec une fonctionnalité de « Daisy Chaining », ce qui veut dire que l'on pourra aussi imbriquer des écrans les uns aux autres, mais nécessitera des adaptateurs. De plus, trois écrans indépendants pourront être gérés nativement par la puce, tout comme les solutions actuellement disponibles au sein des processeurs de la génération Ivy Bridge.
De plus, Haswell apportera de nouvelles fonctionnalités du côté de Quick Sync Video comme la stabilisation d'images, la conversion de Frame Rate, qui permet de corriger des images corrompues à la volée, ou un filtre permettant d'améliorer le rendu des peaux.
Mais Intel sait que ses propres armes ne sont pas forcément suffisantes pour que ses partenaires fabricants d'Ultrabook se passent aussi facilement de GPU. Il indique alors plusieurs points qui doivent permettre de s'en passer.
Ainsi, cela ajoute un surcoût à l'ensemble de la machine, il faut prévoir un système de refroidissement plus conséquent (ce qui ajoute un surpoids au passage) et cela implique aussi une carte mère plus grande pour comprendre un emplacement de 4 cm de côté pour le GPU et la mémoire qui va avec, etc. En échange, ils pourraient intégrer une batterie plus importante, plus de connectivité ou avoir globalement un Ultrabook plus fin et plus silencieux.
Reste maintenant à savoir si les arguments du géant de Santa Clara feront mouche pour faire comprendre à ses partenaires que l'importance d'un GPU au sein d'un Ultrabook peut être minorée ou pas. De notre côté, on a encore quelques doutes. Une vraie réponse pourrait venir d'une solution externe clé en main pour mettre une carte graphique.
Commentaires (41)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 15/09/2012 à 18h28
Le 21/09/2012 à 10h24
Le 14/09/2012 à 14h31
Le 14/09/2012 à 14h39
Le 14/09/2012 à 14h42
Full Intel ont va devoir se ruiner " />
Le 14/09/2012 à 14h44
Le 14/09/2012 à 15h04
Le 14/09/2012 à 15h31
Le 14/09/2012 à 16h03
Sinon il y a… les APU d’AMD !
Le 14/09/2012 à 22h01
Intel va promouvoir les untrathin d’AMD ^^
Le 14/09/2012 à 22h25
Le 15/09/2012 à 00h18
Le 15/09/2012 à 08h37
Je ne suis pas d’accord avec vous, j’ai suis personnellement très content d’avoir une HD7550 dans mon ultrabook puisqu’elle me permet de jouer à diablo 3 en résolution native. (1366*768)
1,6kg pour un ultrabook 14” qui a plus de 6h d’autonomie et qui permet de jouer je trouve ca bien, et encore une pertie du poids supplémentaire par rapport aux autre ultrabook est absorbé par le lecteur dvd.
Le 15/09/2012 à 09h34
En regardant dans la base de Notebookcheck, on voit que la HD7550 donne des resultats :
Ca dépend du jeu et du CPU associé.
Si la question peut encore se poser ici, le sort des cartes graphiques dédiées d’entrée de gamme sera réglé par la sortie du GT3 l’année prochaine (si il est bon).
Le 15/09/2012 à 15h13
Le 15/09/2012 à 15h15
Le pauvre HD4000 a quand meme du mal sur D3 :http://www.anandtech.com/show/5865/laptop-graphics-face-off-diablo-iii-performan…
D’ailleurs presque tous les GPU de ce test ont du mal.
Le 14/09/2012 à 12h46
à partir du moment ou on admet qu’un ultrabook n’est pas un PC de gamer l’argument d’Intel est parfaitement valable.
Personnellement je serais client d’un ultrabook puissant, sans carte graphique dédiée, et disposant d’une meilleure autonomie.
Le 14/09/2012 à 12h04
un ultrabook avec un GPU n’est de toute façon pas vraiment un ultrabook
Le 14/09/2012 à 12h06
“Additional cooling for higher TDP at equivalent performance level”
Mais bien sur " />
Le 14/09/2012 à 12h09
“Haswell vaincra!” " />
ou Comment Intel dit non à Nvidia…
Le 14/09/2012 à 12h11
“Additional cooling for higher TDP at equivalent performance level”
C’est probable, mais le soucis,c ‘est que… aucune carte video additionnelle n’est aussi peu performante que la solution d’Intel. L’ajout d’un GPU, c’est justement parce que celui d’Intel est à la traine, et l’a toujours été. La solution graphique intégrée d’AMD est comparativement très nettement plus performante.
Le 14/09/2012 à 12h13
Bin faut avouer qu’entre un GPU discrete Mobile de type Geforce 610M ou Radeon 7450M et un HD3000/4000 de Sandy/Ivy Bridge c’est du silicium gâché !
Après s’il s’agit de mettre du GPU discrete moyen de gamme c’est une autre histoire…
Le 14/09/2012 à 12h34
league of legend ou dota 2 tourne très bien avec un HD3000 et le HD4000 est plutot bien vu comparé à ces équivalents chez nvidia et ati.
Faire un CTRL+F danshttp://www.videocardbenchmark.net/high_end_gpus.html
Le 14/09/2012 à 12h34
Voilà Intel ne veut pas se lancer dans le GPU, du coup ben Intel tue les GPU.
Problem solve " />
Le 14/09/2012 à 12h35
L’idée est plutôt bien fondée, si on veut une machine légère, autant poser les limites claires sur le TDP et le form factor pourra suivre, maintenant les intentions d’Intel sont peut-être plus vicieuses.
Le 14/09/2012 à 12h39
Bah dans le fond franchement pour un ultrabook la partie graphique… vive les GPU intégrés c’est que du bénef.
Le 14/09/2012 à 12h47
Additional cooling for higher TDP at equivalent performance level
Et il vont mettre quoi ?
Utiliser le bloc de refroidissement du CPU conjointement ? La place est méga compté à l’intérieur donc l’agrandir pour compenser l’ajout d’un composant qui chauffe est quasi exclu… en mettre un second ? là non plus manque de place…
Mettre un ventilo ? l’avantage des ultrabook c’est l’autonomie, rajouter un solution de refroidissement aussi gourmande en électron qu’un ventilo c’est pas envisageable….
Donc oui très curieux de voir à quoi il vont remédier à cela…
Le 14/09/2012 à 12h53
Un moyen comme un autre de gagner des PDM sur le marché des GPU. Après tout les ultrabooks sont un “marché de niche” non ?
Et puis, un GPU dédié sur un ultrabook " />
Le 14/09/2012 à 12h54
Le 14/09/2012 à 12h57
Le 14/09/2012 à 13h01
Le 14/09/2012 à 13h12
Le 14/09/2012 à 13h31
Le 14/09/2012 à 13h36
Chipset et gpu dans le cpu manque plus que la ram et le ssd voila " />
Le 14/09/2012 à 13h45
Le 14/09/2012 à 13h46
Le 14/09/2012 à 13h47
Je ne comprend vraiment pas tout ces fabricants de portables d’entrée de gamme qui fournissent systématiquement une Gforce 630 sur des ordinateurs Ivy Bridge.
Les 20% de performances en plus ne servent strictement à rien. Il est possible de jouer au jeux (Hors FPS) tranquilement avec une HD4000 et ils rajoutent un coût et perdent de la place.
Les gamers ne se satisferont de toute façon pas d’une carte graphique d’une telle gamme, alors POURQUOI?
La seule raison que j’ai pu trouver est marketing du type “Nvidia est un spécialiste des cartes graphique, ils font parmi les meilleures du marché et on vous en a mis une sur votre ordinateur.”
J’ai longuement cherché et il est vraiment difficile de trouver des ordinateurs d’entrée de gamme sans puce nvidia ou amd
Le 14/09/2012 à 13h50
Je suis tout à fait d’accord que mettre un GPU dans un ultrabook, ce n’est pas le but recherché.
Maintenant, il faut aussi se dire que si on prend un ultrabook qui coute assez cher, c’est aussi pour avoir une certaine qualité en terme de finition et de durabilité (on claque pas 1000€ tout les mois dans des portables hein ! Enfin je voudrais bien pouvoir le faire " />). Or si dans 2-3 ans l’ordi rame comme un chameau asthmatique pour afficher “mega angry birds in hyper space seasons” version 2015 sous windows 9, ce sera surement la faute au GPU (et aussi un peu au CPU ainsi qu’à la RAM soudé, mais ça c’est une autre affaire).
Donc autant prendre les devants comme ASUS le fait, et proposer une gamme avec GPU pour ceux qui veulent jouer un peu (ou prévoir l’avenir), et une autre sans GPU dédiés.
Je suis toujours très content de mon UL30 VT (avec G210M) qui me permet de jouer à Doom3 et même Portal 2, alors qu’au même moment j’aurais pu prendre le UL30 A (même forme, plus autonome mais sans GPU dédié), mais je n’aurai même pas pu faire tourner Limbo (qui rame si je n’active pas la GeForce) ! Pour un modèle de 2-3 ans, j’en suis bien content.
Maintenant, comme dit précédemment, si c’est pour mettre une G610M en face d’un HD4000, c’est vraiment pour gâcher du silicium " />
Le 14/09/2012 à 13h57
J’ai un portable assez vieux avec un core 2 duo T7250 et une ati X2300, ma copine a un pc datant de l’année dernière avec un core i3 et dans les jeux le mien tourne mieux après c’est vrai que si c’est pour mettre une carte graphique dédiée avec les mêmes performance que l’intégré aucune utilité mais dans les autres cas il y a des acheteurs (je suis toujours à la recherche d’un 14pouces ultrabook ou non avec une gt650m mais à prix abordable).
Le 14/09/2012 à 13h58
Le 14/09/2012 à 14h29
Un GPU non intégré dans un Ultrabook ça peut être contre-productif.
Cependant les notebooks haut de gamme ( > 15” ) reprennent de plus en plus les config. des Ultrabooks (Samsung Series 9, Sony S Series, Asus N, …) et là le manque de GPU peut se faire sentir.
Je penses qu’Intel ne devrait pas s’en mêler et laisser les constructeurs faire des choix divers pour que le client puisse trouver la config. qui lui convient le mieux.