Connexion
Abonnez-vous

Haswell : Intel lève le voile sur Iris Graphics 5100 et Iris Pro Graphics 5200

On les a à l'œil

Haswell : Intel lève le voile sur Iris Graphics 5100 et Iris Pro Graphics 5200

Le 02 mai 2013 à 07h30

Intel semble bien décidé à segmenter sa communication autour d'Haswell. Ainsi, après avoir distillé de nombreux détails techniques lors de ses IDF, annoncé que les livraisons étaient en cours et que le lancement était prévu pour le 4 juin, on en apprend aujourd'hui un peu plus sur la partie graphique de la bête. L'occasion pour nous de faire un premier point.

 

Intel mettra Haswell sur le marché d'ici un mois et deux jours : le 4 juin prochain. C'est en effet dès l'ouverture du Computex que tout sera lancé commercialement pour cette gamme de processeur qui annonce une nouvelle architecture, mais qui apportera surtout certaines innovations précises qui devraient être importantes pour les années à venir. 

Haswell : plein de nouveautés mais surtout un GPU amélioré

Mais ce sera surtout l'occasion pour le géant de Santa Clara de commencer à vraiment marquer les esprits avec une partie graphique qui pourra faire face à des GPU d'entrée de gamme de manière réellement importante. Car si celle-ci apportera son lot d'améliorations au niveau multimédia, c'est au niveau des performances qu'il faudra marquer le coup, notamment visà-vis des APU d'AMD toujours plus véloces.

 

Intel NDA Iris Intel Haswell Slides IDF 2013

Des performances quasiment multipliées par deux ? Chiche ?

 

Car après avoir phagocyté tout ce qui permettait de profiter de la 3D au sein des OS, mais aussi le « Casual gaming » et autres titres ne nécessitant pas vraiment de performances graphiques (WoW par exemple), la marque veut s'attaquer à une partie un peu plus haute de la pyramide.

Une gamme graphique bien plus complexe : bienvenue à Iris et Iris Pro

Pour nous en convaincre, une présentation a été mise à notre disposition il y a deux jours. Celle-ci n'est pas très exhaustive et les seules réelles informations concernent la confirmation de la dénomination des différentes déclinaisons qui seront proposées. Car si elles étaient en général deux ou trois sur les gammes précédentes, les choses vont ici certainement se complexifier : 

 

Intel NDA Iris

 

Comme on peut le voir, rien que pour la GT3, qui prendra bien la référence 5000, 5100 ou 5200 avec un nom de gamme qui pourra être HD Graphics, Iris ou Iris Pro. Au total, on compte trois versions. Celles-ci seront à chaque fois un compromis entre échauffement thermique et performance puisque deux paliers sont évoqués : 15 watts et 28 watts.

 

Des versions moins véloces continueront d'être exploitées : ainsi GT2 pourra aussi connaître trois déclinaisons : HD Graphics 4200, 4400 et 4600. Pour rappel, sur Ivy Bridge il était question de HD Graphics 2500 et 4000. Les Celeron et les Pentium auront toujours droit semble-t-il a une version réellement limitée : HD Graphics.

Une remise à plat des logos, l'instant « Hypitude »

Mais derrière ces petits noms, qu'est-ce qui se cache ? Cette documentation ne nous apprendra rien. Elle est en effet surtout destinée à évoquer les changements en terme de marque, comme ce qui est prévu pour les logos Core i3, i5 et i7 qui seront eux aussi modifiés pour suivre la mode de la mise à plat :

 

Intel NDA Iris

 

Mais dans la pratique, qu'est-ce que Haswell va changer au niveau du traitement graphique et multimédia ? Pour le savoir, il faut en fait analyser les documents dévoilés lors de l'IDF de septembre à San Francisco mais surtout lors de celui de Pékin en avril dernier. 

Un pilote amélioré, Collage désormais mis en avant

Il est tout d'abord question d'un nouveau pilote qui arborera lui aussi un look très... Windows 8. Le noir et bleu sombre laissent place à un blanc assez éclatant, sans doute pour indiquer que la clarté sera de mise. Nous n'avons pas encore pu mettre la main dessus, mais il semblerait qu'une nouvelle organisation des réglages soit de la partie, espérons que cela sera plus simple et plus complet qu'auparavant.

 

Intel Haswell Slides IDF 2013 Intel Haswell Slides IDF 2013

 

Cela devrait permettre la généralisation d'une fonction que nous avons déjà évoquée : Collage. Si certains constructeurs l'avaient utilisée comme un substitut à l'utilisation d'écrans 4K, il est surtout question d'un équivalent d'Eyefinity (AMD) ou de Surround (NVIDIA). Cela permet en effet de gérer jusqu'à trois écrans et de les regrouper pour n'en former qu'un virtuel qui sera vu par le système d'exploitation comme une unique surface.

DisplayPort 1.2 et HDMI 1.4a : les grandes définitions à l'honneur

Le support des très grandes définitions sera aussi de la partie. Car si la 4K était gérée par Ivy Bridge, la bande passante du DisplayPort a été revue à la hausse avec le passage à la norme 1.2 qui permet aussi l'utilisation de dédoubleurs MST comme ce modèle de Club3D que nous avions récemment évoqué.

 

Intel Haswell Slides IDF 2013 Intel Haswell Slides IDF 2013

 

Il sera ainsi possible de passer à du 3840x2160 @ 60 Hz sur un seul écran, mais aussi à du 2560x1600 @ 60 Hz sur deux écrans ou à du 1080p @ 60 Hz sur trois écrans avec un seul port. Le HDMI passe aussi à la norme 1.4a et pourra désormais afficher de la 4K mais à 24 Hz ou 30 Hz (ce qui est le maximum permis par la norme).

 

Notez enfin que les écrans « Narrow Gamut » et « Wide Gamut » pourront aussi être désormais parfaitement supportés via des options spécifiques au sein des pilotes.

 

Intel Haswell Slides IDF 2013 Intel Haswell Slides IDF 2013

 

Sur les appareils convertibles, la définition pourra aussi être adaptée automatiquement afin d'agrandir les bordures lors du passage en mode tablette. Une fonctionnalité qui avait déjà été montrée lors de la démonstration d'un design maison : le North Cape.

DirectX 11.1, OpenGL 4.0, OpenCL 1.2 et une puissance à la demande

Du côté des API supportées et de l'architecture du GPU, on a aussi droit à une légère mise à jour même si le gros de la base qui avait été exploité pour Ivy Bridge reste en place. Ainsi, OpenCL 1.2 est de la partie tout comme DirectX 11.1 ou encore OpenGL 4.0. Six sections sont définies et un « Command Streamer » pensé pour gérer l'organisation de l'exécution est ajouté au passage.

 

Intel Haswell Slides IDF 2013 Intel Haswell Slides IDF 2013

 

Mais entre GT1, GT2 et GT3, c'est le nombre de bloc utilisé, notamment pour ce qui est des unités d'exécution et de tout le traitement de la 3D (textures, rasterizer, caches...) et du multimédia qui sera ou non démultiplié. Le tout sera en effet doublé et si aucun chiffre n'a été donné officiellement il serait question d'un passage de 20 à 40 unités d'exécution, contre 6 pour GT1. Pour rappel, GT2 dans Ivy Bridge se contentait de 12, les gains de performances pourraient donc bien être au rendez-vous. 

De la mémoire directement intégrée dans le packaging du CPU

Cela devrait d'autant plus être le cas pour GT3e (Iris Pro 5200), une version spéciale qui contiendra de l'eDRAM (il serait question de 128 Mo) au sein du packaging (et non du die). Ainsi, plus besoin d'utiliser la mémoire du système, celle-ci sera directement embarquée dans le CPU. Si AMD avait déjà tenté la chose avec une intégration sur certaines cartes mères, on ira cette fois un peu plus loin. 

 

Intel Haswell Slides IDF 2013 Intel Haswell Slides IDF 2013

 

Mais Intel est encore flou sur les CPU qui auront droit à cette version, qui devrait arriver plus tard sur le marché. Nous avons demandé des confirmations sur ce point, mais rien ne nous a encore été répondu officiellement. Pour le moment, les partenaires semblent indiquer que cela sera réservé à certains portables et aux machines tout-en-un ainsi que les cartes mères dédiées à des produits tels que le NUC.

Des performances revues à la hausse, en 3D et pour la compression vidéo

Au final, il serait ainsi question d'un rapport de un à deux ou trois selon les cas pour un Core i7 4770K par rapport à l'actuel 3770K, mais uniquement sous 3DMark. La différence étant bien moins importante avec la version pensée pour un TDP plus faible. Il sera intéressant de voir si de tels écarts se vérifient dans la pratique et dans quelle mesure ils sont dûs à une amélioration des fréquences, de l'architecture ou l'éventuelle intégration de mémoire intégrée (ce qui devrait ne pas être le cas que du 4770K).

 

Intel Haswell Slides IDF 2013 Intel Haswell Slides IDF 2013

 

Pour ce qui est de l'encodage vidéo, de nouvelles améliorations sont aussi de la partie : support du MPEG2 en hardware, du MJPEG en mode basse consommation et du SVC qui permet un support unifié des appareils (écrans, tablettes, TV, smartphones...) ce qui devrait être intéressant dans certains usages précis comme celui de la vidéo-conférence qui est chère à Intel (notamment pour le marché Pro).

 

La qualité a aussi été améliorée avec l'arrivée de la stabilisation de l'image, de la Frame rate conversion, d'un filtre pour coller au mieux au teint de peau ou de la gestion d'un Gamut étendu. Les performances seront bien entendu en fonction de la gamme utilisée, GT3 contenant plus d'unités que GT2 par exemple. 

 

Intel Haswell Slides IDF 2013 Intel Haswell Slides IDF 2013

 

La réorganisation des unités et l'amélioration de la couche logicielle devraient aussi améliorer la gestion de l'énergie lors de ces tâches, ce qu'il sera là aussi intéressant d'analyser dans la pratique.

Media SDK prend de plus en plus de place : Open source et solution pour serveurs

Au final, c'est bien entendu Quick Sync Video qui devrait profiter de toutes ces améliorations. Pouvant désormais être exploité avec des logiciels libres tels que Handbrake, il est aussi au cœur de la stratégie serveur d'Intel puisqu'une version dédiée du Media SDK a récemment été annoncée. De quoi intéresser toutes les sociétés qui misent sur la vidéo de masse et faire les affaires du géant de Santa Clara ?

 

Intel Haswell Slides IDF 2013 Intel Haswell Slides IDF 2013

Quid du H.265 et de la réalité de ces promesses ?

Quoi qu'il en soit, il reste une grande inconnue : le support du H.265 (HEVC). Si la 4K a été largement évoquée par Intel au sein des publications récentes, cela n'a pour le moment pas été précisé. Il faut donc considérer que cela viendra dans une prochaine génération, même si une surprise n'est pas à exclure totalement.

 

Reste maintenant à attendre de voir ce que donneront toutes ces belles annonces dans la pratique, et comment elles seront exploitées par les partenaires d'Intel. En effet, entre la démocratisation prévue des Ultrabooks, la montée en performances au niveau graphique, l'arrivée d'une nouvelle mouture de Thunderbolt et même l'émergence de plus en plus de solutions telles que les NUC, les mois à venir pourraient être passionnants à suivre du côté de l'évolution des usages. Qui a dit que le PC était mort ?

Commentaires (52)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

J’attends avec impatience de voir les performances réelles et la conso et de ces GPU, que ce soit pour Surface Pro ou pour les futurs macbooks…

votre avatar

C’est vrai que avec les Haswell certaines alimentations arrêterons le PC si le processeur passe en mode d’économie d’énergie C6 (trop bas … du coup l’alimentation croît à un plantage) ?

votre avatar

Avez-vous des infos sur la version du chipset qui equipera les cartes mères à la sortie d’Haswell ?

C1 avec son bug S3 - USB3 ou C2 ?

votre avatar







luxian a écrit :



C’est vrai que avec les Haswell certaines alimentations arrêterons le PC si le processeur passe en mode d’économie d’énergie C6 (trop bas … du coup l’alimentation croît à un plantage) ?





Tu parles de ça?http://www.hardware.fr/news/13091/haswell-incompatible-alimentations-compatibili…



Apparemment, oui <img data-src=" />


votre avatar







The Radec a écrit :



Avez-vous des infos sur la version du chipset qui equipera les cartes mères à la sortie d’Haswell ?

C1 avec son bug S3 - USB3 ou C2 ?





Oui, mais on en reparlera dans un papier séparé.


votre avatar

Petites questions :




  • Vu que les nouveaux GPUs supporteront le Dx11.1, il sera possible de jouer à des jeux assez gourmands sans trop de problème ? (BF3 pour l’exemple)

  • Ces GPUs pourront être implemanté dans les PC Portables ?

votre avatar







Berillions a écrit :



Petites questions :




  • Vu que les nouveaux GPUs supporteront le Dx11.1, il sera possible de jouer à des jeux assez gourmands sans trop de problème ? (BF3 pour l’exemple)

  • Ces GPUs pourront être implemanté dans les PC Portables ?








  1. en détails bas/moyen maximum, et pas en fullhd. Je t’invite déjà à tester ces mêmes jeux sur des ivy pour que tu te rendes compte par toi même des progrès fait par Intel.

  2. c’est là où ils sont le plus attendus….


votre avatar







julkillu a écrit :



Je suis d’accord mais beaucoup d’entre nous préfèreraient 2 cores de plus qu’un GPU, en effet le LGA 2011 propose ça mais dans qu’Intel sortent un Haswell qui va dessus mais pas seulement, il faut aussi le chipset à jour qui va avec ^^





Bah si tu veux quatre cores, prend un i5… <img data-src=" />


votre avatar

Une erreur s’est glissé dans la news GT2 (HD4000) de Ivy Bridge comporte 16 Unité d’Exécution et non 12 (qui est le nombre d’EU du HD3000 de Sandy Bridge…)



La série HD5000 embarquera donc 40 EU ce qui représente plus du double du HD4000



Si on part sur un scaling de 100% (même si c’est assez optimiste et ça ne prend pas en compte l’ajout de l’eDram et l’amélioration des pilotes et que même Intel n’annonce pas des perfs doublés) un HD5000 évoluerait entre une Radeon HD6670 DDR3/Geforce GT630 et une Radeon HD6670 DDR5/Geforce GT640



Dans tout les cas le GT3 pourrait égalé ou dépasser l’APU AMD A10… (même en arrivant copieusement à la bourre surtout le temps que la gamme s’étoffe…)



Dans la gamme actuelle ça pourrait rendre toutes les cartes graphiques en dessous de la Radeon HD7750 et Geforce GTX 550 complètement inutile !

votre avatar







Zorak Zoran a écrit :



Les rumeurs disent que les màjs des mbp attendent justement la sortie d’Haswell. Et si tu comptes te diriger vers un retina, autant attendre la nouvelle version, car l’actuel souffre un peu de manque de fluidité avec l’HD4000.









Merci pour la réponse :)



Non le rétina ne me dit rien de toute façon… rajouter 400€ juste pour ça ne m’intéresse pas.. surtout que j’ai été à la fnac, j’ai lancé 23 trucs en même temps sur un avec rétina et l’autre sans et franchement… voilà.. si tu ne fais pas de montage/retouche vidéo/photo .. je ne crois pas que ça vaille vraiment le coup, enfin c’est juste mon avis au premier abord. Je n’ai pas été transcendé par la différence.





Et pour moi le fait que : le hdd, la ram soient soudés… ahahah … ahem.. voilà tout le bien que j’en pense du rétina :)





Mais par contre pour un vrai MBP 15’ sur lequel je pourrais changer des trucs comme le hdd.. oui ça m’intéresse.


votre avatar







David_L a écrit :



Bah si tu veux quatre cores, prend un i5… <img data-src=" />







Mais euh c’est pô drôle, moi j’en veux 40 sans Gpu <img data-src=" /> je vais me faire mes propres Cpu un peu d’étain un fer à souder et c’est darty mon kiki <img data-src=" />


votre avatar







Oulanos a écrit :



Merci pour la réponse :)



Non le rétina ne me dit rien de toute façon… rajouter 400€ juste pour ça ne m’intéresse pas.. surtout que j’ai été à la fnac, j’ai lancé 23 trucs en même temps sur un avec rétina et l’autre sans et franchement… voilà.. si tu ne fais pas de montage/retouche vidéo/photo .. je ne crois pas que ça vaille vraiment le coup, enfin c’est juste mon avis au premier abord. Je n’ai pas été transcendé par la différence.





Et pour moi le fait que : le hdd, la ram soient soudés… ahahah … ahem.. voilà tout le bien que j’en pense du rétina :)





Mais par contre pour un vrai MBP 15’ sur lequel je pourrais changer des trucs comme le hdd.. oui ça m’intéresse.







L’écran (magnifique franchement) n’est pas le seul avantage du retina, il y a aussi l’épaisseur et le poids. Et si tu compares les 15 pouces, ok tu paies 400 balles de plus, mais tu as un SSD et le double de Ram.


votre avatar







Zorak Zoran a écrit :



L’écran (magnifique franchement) n’est pas le seul avantage du retina, il y a aussi l’épaisseur et le poids. Et si tu compares les 15 pouces, ok tu paies 400 balles de plus, mais tu as un SSD et le double de Ram.





Juste pour savoir, tu as combien sur le SSD et de RAM pour combien au total?



Perso j’ai payé mon probook 600€ + 190€ de SSD (256Go) + 15€ de RAM (4Go =&gt; 8Go) et 140€ pour passer ma dalle en FHD ce qui me fait un très bon portable pour 945€ (150€ avec l’extention pro à 3 ans).

Et déjà en FHD sur un 15” j’ai parfois du mal par la petitesse d’à peu près tout x), alors le retina… ça doit piquer, non?



ceci n’est pas un troll mais une vraie question


votre avatar







TizeN a écrit :



Juste pour savoir, tu as combien sur le SSD et de RAM pour combien au total?



Perso j’ai payé mon probook 600€ + 190€ de SSD (256Go) + 15€ de RAM (4Go =&gt; 8Go) et 140€ pour passer ma dalle en FHD ce qui me fait un très bon portable pour 945€ (150€ avec l’extention pro à 3 ans).

Et déjà en FHD sur un 15” j’ai parfois du mal par la petitesse d’à peu près tout x), alors le retina… ça doit piquer, non?



ceci n’est pas un troll mais une vraie question







store.apple.com Apple4Go de Ram en plus, et un SSD 256Go. Et donc un écran retina, taille et poids moindres. Donc entre les deux Mbp, la différence est assez justifiée je trouve. Ensuite c’est bien entendu beaucoup plus cher qu’un ordi custom, mais bon perso je trouve la différence justifiée aussi.



edit : OSx gère différemment la résolution de windows, tu peux avoir l’équivalent de la réso/4 en “taille affichée”, un équivalent 1920*1200… Comme on veut.


votre avatar







Zorak Zoran a écrit :



http://store.apple.com/fr/browse/home/shop_mac/family/macbook_pro

4Go de Ram en plus, et un SSD 256Go. Et donc un écran retina, taille et poids moindres. Donc entre les deux Mbp, la différence est assez justifiée je trouve. Ensuite c’est bien entendu beaucoup plus cher qu’un ordi custom, mais bon perso je trouve la différence justifiée aussi.



edit : OSx gère différemment la résolution de windows, tu peux avoir l’équivalent de la réso/4 en “taille affichée”, un équivalent 1920*1200… Comme on veut.







Oui en effet les 400€ de plus se justifie déjà au 23 par le SSD et le reste par le retina.



Pour la gestion de la résolution ça doit être sympa du coup, ce serait bien qu’ils fassent la même sous Windows.



Faudrait que je tente l’install d’OSX sur mon probook tient, j’en ai vu pas mal le faire sur les forum américains :).


votre avatar







TizeN a écrit :



Oui en effet les 400€ de plus se justifie déjà au 23 par le SSD et le reste par le retina.



Pour la gestion de la résolution ça doit être sympa du coup, ce serait bien qu’ils fassent la même sous Windows.



Faudrait que je tente l’install d’OSX sur mon probook tient, j’en ai vu pas mal le faire sur les forum américains :).







Les Hackintosh il faut du matos compatible, pas sûr que ton probook le soit.

Et Windows 8 gère pas mal les grosses réso, je l’ai sur mon mbp histoire de pouvoir jouer, et c’est très correct une fois modifié quelques options.


votre avatar







Zorak Zoran a écrit :



L’écran (magnifique franchement) n’est pas le seul avantage du retina, il y a aussi l’épaisseur et le poids. Et si tu compares les 15 pouces, ok tu paies 400 balles de plus, mais tu as un SSD et le double de Ram.









Oui, ça je veux bien… mais en cas de problème sur ton SSD ou ta ram… t’es niked <img data-src=" />



C’est surtout ça qui me fait peur en fait… Après le fait que ce soit épais ou pas, à vrai dire… jusque là j’avais un 17’ qui devait peser 100kg à la louche.. et vu que j’ai la carrure qui va bien, qu’il fasse jusqu’à 3k5 ça ne me dérange pa plus que ça.. et dans un sac la taille/épaisseur ça m’importe peu :).



Merci pour la réponse en tout cas :)


votre avatar

J’aime bien les jeux cités dans domaine enthusiaste: WoW et Starcraft II. Même si au finish ça m’intéresse je trouve ça curieux de les mettre là-haut…

votre avatar







Zorak Zoran a écrit :



Les Hackintosh il faut du matos compatible, pas sûr que ton probook le soit.

Et Windows 8 gère pas mal les grosses réso, je l’ai sur mon mbp histoire de pouvoir jouer, et c’est très correct une fois modifié quelques options.







J’ai un HP Probook 4530s, il y en a pas mal qui le font tourné dessus :).



Sinon au niveau des options le problème est que je connecte très souvent mon portable sur mon 24” FHD et quand je grossis l’affichage de windows 8 sur l’écran du portable, ça grossit tout sur le 24” aussi, du coup j’passe mon temps à changer ça :-/…


votre avatar







Skeeder a écrit :



C’est déjà le cas <img data-src=" />





L’avenir de l’informatique: next step, le microcontrôleur?


votre avatar







Oulanos a écrit :



Oui, ça je veux bien… mais en cas de problème sur ton SSD ou ta ram… t’es niked <img data-src=" />



C’est surtout ça qui me fait peur en fait… Après le fait que ce soit épais ou pas, à vrai dire… jusque là j’avais un 17’ qui devait peser 100kg à la louche.. et vu que j’ai la carrure qui va bien, qu’il fasse jusqu’à 3k5 ça ne me dérange pa plus que ça.. et dans un sac la taille/épaisseur ça m’importe peu :).



Merci pour la réponse en tout cas :)







Ou même si tu veux upgrader, t’es “niked” aussi. <img data-src=" />

Le MBP normal est upgradable assez facilement, il faut juste choisir des composants compatibles. Moi je suis très content de mon retina, je trouve que c’est une machine magnifique, mais il a sa part de défauts qui sont pas négligeables. Et ça pousse à prendre la garantie Apple Care (loin d’être gratuite), vu qu’en cas de soucis de batterie ou autre, tu peux quasiment rien faire sans risquer de tout péter.


votre avatar







TizeN a écrit :



J’ai un HP Probook 4530s, il y en a pas mal qui le font tourné dessus :).

Sinon au niveau des options le problème est que je connecte très souvent mon portable sur mon 24” FHD et quand je grossis l’affichage de windows 8 sur l’écran du portable, ça grossit tout sur le 24” aussi, du coup j’passe mon temps à changer ça :-/…







Oui, assez pénible je comprends. Teste OSx, je suis un converti récent, franchement l’ergonomie générale de cet OS est sublime, ça me fait iech quand je suis sous windows maintenant. Chez moi je ne l’utilise plus que pour les jeux, pour tout le reste OSx est tellement plus agréable à utiliser…


votre avatar







Zorak Zoran a écrit :



J’attends avec impatience de voir les performances réelles et la conso et de ces GPU, que ce soit pour Surface Pro ou pour les futurs macbooks…





La conso des GT3 est donnee sur un des transparents : 15 ou 28W. Peu probable que ca rentre dans une tablette donc.


votre avatar

Je suis pas bien sûr de comprend, la eDRAM, c’est ce qui correspond à la mémoire des GPUs “classique” (AMD/Nvidia) ? Si c’est le cas, l’article parle de 128Mo, c’est pas complètement ridicule ? Ou alors c’est juste un petit pool de mémoire plus rapide qui est disponible en parallèle de la mémoire système ? Et si encore c’est le cas, est-ce que les performances ne dépendront pas directement de la manière dont seront développé les logiciels ?

votre avatar

Et sinon c’est quand qu’on a droit a un CPU sans GPU, parce-que les gamers ou power-users je pense préfèrent largement avoir 2 cores de plus qu’un pov GPU :(

votre avatar







julkillu a écrit :



Et sinon c’est quand qu’on a droit a un CPU sans GPU, parce-que les gamers ou power-users je pense préfèrent largement avoir 2 cores de plus qu’un pov GPU :(







Il ne te reste plus qu’à aller chez AMD ! :P Mais c’est vrai que c’est nawak de mettre des gpus dans tous les procos.







bombo a écrit :



Je suis pas bien sûr de comprend, la eDRAM, c’est ce qui correspond à la mémoire des GPUs “classique” (AMD/Nvidia) ? Si c’est le cas, l’article parle de 128Mo, c’est pas complètement ridicule ? Ou alors c’est juste un petit pool de mémoire plus rapide qui est disponible en parallèle de la mémoire système ? Et si encore c’est le cas, est-ce que les performances ne dépendront pas directement de la manière dont seront développé les logiciels ?







J’imagine que c’est comme pour les caches L1, L2 et L3 coté CPU.


votre avatar

Un CPU…Un GPU…Et maintenant de la RAM embarquée…



A quand les SoC x86 Intel avec contrôleur PCIe, bus USB, etc ? <img data-src=" />

Question : Malgré la RAM embarquée pour le GPU, ce sera possible de piocher sur la RAM centrale pour avoir un peu plus d’espace graphique?

votre avatar







bombo a écrit :



Je suis pas bien sûr de comprend, la eDRAM, c’est ce qui correspond à la mémoire des GPUs “classique” (AMD/Nvidia) ? Si c’est le cas, l’article parle de 128Mo, c’est pas complètement ridicule ? Ou alors c’est juste un petit pool de mémoire plus rapide qui est disponible en parallèle de la mémoire système ? Et si encore c’est le cas, est-ce que les performances ne dépendront pas directement de la manière dont seront développé les logiciels ?





Ce sera sans doute géré comme un cache de niveau supplémentaire, ça permet de décharger pas mal l’utilisation de la mémoire je pense, mais il faudra quand même un accès à la mémoire système en complément.







julkillu a écrit :



Et sinon c’est quand qu’on a droit a un CPU sans GPU, parce-que les gamers ou power-users je pense préfèrent largement avoir 2 cores de plus qu’un pov GPU :(





Cela est proposé, mais bon, si tu as un GPU, l’IGP n’est pas utilisé, ça évite de démultiplier les versions de CPU (vu que tout est on-die). C’est pas comme s’il t’était facturé 50 $ ;)



Puis il y a les versions LGA 2011 sans IGP :)







Nisnor a écrit :



Un CPU…Un GPU…Et maintenant de la RAM embarquée…



A quand les SoC x86 Intel avec contrôleur PCIe, bus USB, etc ? <img data-src=" />





Une version full SoC est déjà prévue pour les ultrabooks avec le chipset intégré dans le packaging :)


votre avatar







Zorak Zoran a écrit :



J’attends avec impatience de voir les performances réelles et la conso et de ces GPU, que ce soit pour Surface Pro ou pour les futurs macbooks…









Tiens d’ailleurs… quelqu’un sait si après cette sortie des Haswell (donc en Juin apparemment et si j’ai bien lu), Apple va mettre à jour ses Mac Book Pro ? ou s’il faudra attendre l’année prochaine pour le renouvellement des machines ?



La question pertinente c’est: Si je dois acheter un MBP, vaut-il mieux attendre Septembre ou bien ça ne changera rien?





Merci les gars pour vos réponses.





Ps: Ceci n’est ni une incitation au troll anti-apple, ni une carotte pour les autres <img data-src=" />


votre avatar

Ca s’annonce très bien ce petit Haswell, conso en baisse, puissance GPU en hausse, enfin un peu de mémoire dédié au GPU. Vivement d’avoir un peu plus d’infos sur la famille HD5000 voir ce que ça donne. <img data-src=" />



En plus ils ont l’air de bien avoir avance pour le pilote sous Linux donc c’est cool.

votre avatar







Oulanos a écrit :



Tiens d’ailleurs… quelqu’un sait si après cette sortie des Haswell (donc en Juin apparemment et si j’ai bien lu), Apple va mettre à jour ses Mac Book Pro ? ou s’il faudra attendre l’année prochaine pour le renouvellement des machines ?



La question pertinente c’est: Si je dois acheter un MBP, vaut-il mieux attendre Septembre ou bien ça ne changera rien?





Merci les gars pour vos réponses.





Ps: Ceci n’est ni une incitation au troll anti-apple, ni une carotte pour les autres <img data-src=" />







Les rumeurs disent que les màjs des mbp attendent justement la sortie d’Haswell. Et si tu comptes te diriger vers un retina, autant attendre la nouvelle version, car l’actuel souffre un peu de manque de fluidité avec l’HD4000.


votre avatar







julkillu a écrit :



Et sinon c’est quand qu’on a droit a un CPU sans GPU, parce-que les gamers ou power-users je pense préfèrent largement avoir 2 cores de plus qu’un pov GPU :(





Il y a toujours des déclinaisons “P”, et au pire tu peux ne pas te servir du GPU intégré.

Le gros avantage, c’est que ça fait une carte graphique de dépannage, et ça c’est top.


votre avatar

Ah, j’attends justement ça pour renouveller mon vieux macmini et essayer de me faire un media center Steam box, meme si je sais que je pourrais pas forcement jouer aux gros jeux, ça me permettra de jouer a tout un tas de petits jeux pas trop gourmands et se satisfaisant de ce genre de GPU, la HD3000 et 4000 était pas si mal que ça si on est pas trop exigent sur la qualité graphique (si si j’y fait tourner Diablo III sans soucis)

votre avatar

J’imagine qu’il faudra taper dans le haut de gamme pour avoir du hd5000…

Un petit i3 couplé à une hd5000 ça ne verra jamais le jour?

Alors que c’est justement dans ce haut de gamme que les acheteurs prennent des carte graphique et en ont rien à faire du gpu contrairement à l’entrée de gamme

votre avatar







Nisnor a écrit :



Un CPU…Un GPU…Et maintenant de la RAM embarquée…



A quand les SoC x86 Intel avec contrôleur PCIe, bus USB, etc ? <img data-src=" />

Question : Malgré la RAM embarquée pour le GPU, ce sera possible de piocher sur la RAM centrale pour avoir un peu plus d’espace graphique?





C’est déjà le cas <img data-src=" />


votre avatar







muvo2 a écrit :



J’imagine qu’il faudra taper dans le haut de gamme pour avoir du hd5000…

Un petit i3 couplé à une hd5000 ça ne verra jamais le jour?

Alors que c’est justement dans ce haut de gamme que les acheteurs prennent des carte graphique et en ont rien à faire du gpu contrairement à l’entrée de gamme





Pas forcément non, mais il faudra attendre la déclinaison complète de la gamme pour savoir qui à droit à quoi, notamment pour ce qui est de l’intégré et des portables (qui ont souvent une meilleure partie graphique que les CPU haut de gamme par ex).


votre avatar







David_L a écrit :



Cela est proposé, mais bon, si tu as un GPU, l’IGP n’est pas utilisé, ça évite de démultiplier les versions de CPU (vu que tout est on-die). C’est pas comme s’il t’était facturé 50 $ ;)



Puis il y a les versions LGA 2011 sans IGP :)







Je suis d’accord mais beaucoup d’entre nous préfèreraient 2 cores de plus qu’un GPU, en effet le LGA 2011 propose ça mais dans qu’Intel sortent un Haswell qui va dessus mais pas seulement, il faut aussi le chipset à jour qui va avec ^^


votre avatar

Pour les macbook, ça permettra “peut être” de se passer totalement de solution bi-gpu avec un chipset integré et une Nvidia en plus quand il y a besoin de puissance. Et donc encore un gain de finesse et de prix (enfin plutot de marge dans ce cas)

votre avatar

Miam miam, vivement la disponibilité de ces processeurs pour tâter de ses capacités en cloud gaming sur réseau local



La compression Xvid HD passe, mais c’est juste en h264, moins de FPS, j’espère que ça va améliorer ça, un vrai plaisir de jouer avec des graphismes à fond depuis mon laptop avec un pauvre chipset graphique… Vivement la fibre pour transposer ça sur internet !

votre avatar

Pourra t-on les faire fonctionner sans CG dans le PC ?Comme la puissance du gpu intégré sera suffisament puissant pour moi, c’est la révolution que j’attends pour changer mon vieux I7.

votre avatar







metaphore54 a écrit :



Pourra t-on les faire fonctionner sans CG dans le PC ?Comme la puissance du gpu intégré sera suffisament puissant pour moi, c’est la révolution que j’attends pour changer mon vieux I7.





Bien sûr, dans les bios, tu peux choisir l’ordre des CG, et entre autre mettre “Si tu as une PCIe qui fonctionne, roule ma poule, sinon j’active le GPU intégré”.


votre avatar







patos a écrit :



Bien sûr, dans les bios, tu peux choisir l’ordre des CG, et entre autre mettre “Si tu as une PCIe qui fonctionne, roule ma poule, sinon j’active le GPU intégré”.





Merci <img data-src=" />



votre avatar







Zorak Zoran a écrit :



Oui, assez pénible je comprends. Teste OSx, je suis un converti récent, franchement l’ergonomie générale de cet OS est sublime, ça me fait iech quand je suis sous windows maintenant. Chez moi je ne l’utilise plus que pour les jeux, pour tout le reste OSx est tellement plus agréable à utiliser…







Ouaip, ça fait un moment que je veux tester OSx, à part le MBP d’un pote quelque minutes j’ai pas vraiment pu voir l’ergonomie réelle sur une période normale de travail, à voir donc :).


votre avatar







Zorak Zoran a écrit :



Oui, assez pénible je comprends. Teste OSx, je suis un converti récent, franchement l’ergonomie générale de cet OS est sublime, ça me fait iech quand je suis sous windows maintenant. Chez moi je ne l’utilise plus que pour les jeux, pour tout le reste OSx est tellement plus agréable à utiliser…







pcinpact.com PC INpact !!



Yes et bah voilà plus qu’à attendre cet été pour avoir la même chose <img data-src=" /> !


votre avatar







TizeN a écrit :



Ouaip, ça fait un moment que je veux tester OSx, à part le MBP d’un pote quelque minutes j’ai pas vraiment pu voir l’ergonomie réelle sur une période normale de travail, à voir donc :).





OSX, c’est comme le saint Graal: on te vends ça comme un verre mégatop mais en fin de compte tu te rends compte que c’est quasiment le même putain de gobelet en terre cuite que tu utilises tous les jours.



Bref, c’est juste une histoire de goût <img data-src=" />


votre avatar







patos a écrit :



OSX, c’est comme le saint Graal: on te vends ça comme un verre mégatop mais en fin de compte tu te rends compte que c’est quasiment le même putain de gobelet en terre cuite que tu utilises tous les jours.



Bref, c’est juste une histoire de goût <img data-src=" />







Oui je me doute ^^. Jusqu’à maintenant je n’ai jamais voulu avoir de mac à cause de leur politique qui t’empêche plus ou moins d’aller voir ailleurs que chez eux…

Mais maintenant qu’on peut avoir OSx ailleurs que sur leurs machines pourquoi pas jeter un oeil et tester le bousin <img data-src=" />


votre avatar

Ils sont gonflés chez Intel, IRIS Pro c’est du copier/coller qui vient tout droit de SGI avec leurs solutions dédiées IRIS Pro…back to the 90’s. On connait certaines boites qui n’auraient pas raté Intel sur ce coup là.

votre avatar







Alucard63 a écrit :



L’avenir de l’informatique: next step, le microcontrôleur?







Moi j’ai toujours pensé à un truc, et je me demande d’ailleurs si ça n’existe pas déjà: pourquoi pas faire des microcontrôleur programmable à la volé? genre tu peux le reprogrammer en moins d’une milliseconde, du coup t’as toujours un chip optimisé pour la tâche que tu veux faire. Bon ça pause sans doute plein de problèmes, mais je trouverai ça funky.


votre avatar







Skeeder a écrit :



Moi j’ai toujours pensé à un truc, et je me demande d’ailleurs si ça n’existe pas déjà: pourquoi pas faire des microcontrôleur programmable à la volé? genre tu peux le reprogrammer en moins d’une milliseconde, du coup t’as toujours un chip optimisé pour la tâche que tu veux faire. Bon ça pause sans doute plein de problèmes, mais je trouverai ça funky.





ça existe, mais pas à haute fréquence. Sinon, ça s’appelle la programmation <img data-src=" />


votre avatar







Skeeder a écrit :



Moi j’ai toujours pensé à un truc, et je me demande d’ailleurs si ça n’existe pas déjà: pourquoi pas faire des microcontrôleur programmable à la volé? genre tu peux le reprogrammer en moins d’une milliseconde, du coup t’as toujours un chip optimisé pour la tâche que tu veux faire. Bon ça pause sans doute plein de problèmes, mais je trouverai ça funky.





Ou mieux encore : un FPGA :)


votre avatar







ldesnogu a écrit :



Ou mieux encore : un FPGA :)





Des souvenir que j’ai de VHDL et de FPGA, ça prenait quand même quelques secondes pour reprogrammer la bête. En plus je ne suis pas sûr de l’endurance du chip si tu fait ça toutes les secondes <img data-src=" />

Mais l’idée venait de là.


votre avatar

En parlant du HEVC, enfin des vidéos de test de ce format miraculeux :



http://www.elecard.com/en/download/videos.html



Le HEVC player qui va avec



http://www.elecard.com/en/technology/researchlab/hevc-player.html



Interessant pour tester la charge CPU de ce nouveau format qui risque de devenir universel… Ca mérite une news <img data-src=" />

Haswell : Intel lève le voile sur Iris Graphics 5100 et Iris Pro Graphics 5200

  • Haswell : plein de nouveautés mais surtout un GPU amélioré

Fermer