Intel annonce que son premier GPU sortira en 2020

Intel annonce que son premier GPU sortira en 2020

Intel annonce que son premier GPU sortira en 2020

Cette année devrait être intéressante à plus d'un titre puisque de nombreuses nouvelles générations de produits sont attendues. Ce sera également le cas de la première carte graphique « Next Gen » du géant de Santa Clara.

Une annonce qui intervient tôt, alors que les dernières rumeurs évoquaient une mise sur le marché d'ici plusieurs années. Intel veut sans doute préparer le terrain, mais aussi montrer une certaine confiance en affichant des plans à long terme. Ce qui n'est pas forcément un gage de réussite.

On se souvient ainsi que Raja Koduri, en charge de ce projet et précédemment chez AMD, avait beaucoup communiqué (de manière assez enthousiaste) sur les Radeon RX Vega… avec le résultat que l'on connaît.

Intel n'en dit pas plus, le lien de son annonce renvoyant simplement vers celle de la nomination de Koduri. On ne sait donc pas quel niveau de performances est visé, quel marché, ou quel niveau de prix.

À défaut d'IDF en septembre, nous devrions en apprendre un peu plus à l'occasion des prochains CES et Computex, mais aussi lors de conférences plus spécialisées.

Commentaires (24)


Premier GPU <img data-src=" />

Ils semblent oublier leur i740 sorti en 1998 et le i752 sorti peu après…








Patch a écrit :



Premier GPU <img data-src=" />

Ils semblent oublier leur i740 sorti en 1998 et le i752 sorti peu après…



&nbsp;

Il y a des choses dont il vaut mieux ne pas se souvenir <img data-src=" />&nbsp;



Intéressant, je suis impatient de savoir à qui il va s’adresser: gaming, calculs, minage…

Et snif, on aura pas 8 pages de test complet sur hardware.fr :‘(








wanou2 a écrit :



Il y a des choses dont il vaut mieux ne pas se souvenir <img data-src=" />



Elles étaient pas pires que les S3, VIA et SiS de l’époque <img data-src=" />



Assez curieux de voir ce qu’Intel va proposer, mais ils auront fort à faire pour proposer un produit convainquant, même si l’entrée/milieu de gamme : il n’y a pas que le GPU qui est important, mais aussi tout l’écosystème qui va autour. 2020 c’est quasiment demain à l’échelle de conception d’un produit.



&nbsp;







Obidoub a écrit :



Et snif, on aura pas 8 pages de test complet sur hardware.fr :‘(





C’est trop tôt pour en parler, on se fait du mal <img data-src=" />









Patch a écrit :



Elles étaient pas pires que les S3, VIA et SiS de l’époque <img data-src=" />





haannn ouiiiii les savage 3D&nbsp;ho putain j’avais oublié ça !!!&nbsp;



<img data-src=" />



C’est “next gen” que tu ne comprends pas ? <img data-src=" />


Si on a un vrai milieu de gamme correct un support de Linux toujours aussi bon, je suis client direct.


Yep, avec Intel on a l’habitude des tentatives de GPU en carton, mais aussi des projets très vite abandonnés : les différentes cartes de dev devant concurrencer l’arduino et Rpi, un format de CM dont j’ai oublié le nom.. Il n’y a que le NUC qui a survécu, tout le reste a été abandonné tant par Intel (sans expliquer pourquoi) que par les utilisateurs (faute de support et de communauté).

Bref, l’historique d’Intel ne joue pas en sa faveur. Et comme certains l’ont remarqué : il faudra aussi de bons pilotes.

Je me souvient encore d’un récent patch-note des IGP Intel HD4400 : amélioration du support de Brink. Brink ! Non seulement leur IGP ne peut absolument pas le faire tourner, mais on parle d’un jeu abandonné depuis des lustres. On se demande dans quel monde vivent les devs de chez Intel.

Sérieux, lire rapidement les patch-note d’Intel peut s’avérer être marrant.








CryoGen a écrit :



C’est “next gen” que tu ne comprends pas ? <img data-src=" />



Titre : “Intel annonce que son premier GPU sortira en 2020”. Je ne vois pas de “next gen” ici.









Uther a écrit :



Si on a un vrai milieu de gamme correct un support de Linux toujours aussi bon, je suis client direct.





AMD fait un bon boulot je trouve. Le seul problème c’est les dGPU sur laptop. Mais c’est pas le pb d’AMD ça, c’est linux qui sait pas faire un switch seamless entre les deux. Le mieux qui existe ajd c’est le hack de System76 où il faut redémarrer le laptop chaque fois qu’on switche… 😑









grsbdl a écrit :



Yep, avec Intel on a l’habitude des tentatives de GPU en carton, mais aussi des projets très vite abandonnés : les différentes cartes de dev devant concurrencer l’arduino et Rpi, un format de CM dont j’ai oublié le nom.. Il n’y a que le NUC qui a survécu, tout le reste a été abandonné tant par Intel (sans expliquer pourquoi) que par les utilisateurs (faute de support et de communauté).



BTX? Je n’ai jamais compris l’intérêt de ce format, à part rendre les cartes filles à refroidissement par caloduc incompatibles…

Pour les abandons rapides, si c’est du même niveau que les cartes mères Intel du début des années 2000, je comprends pquoi. Elles étaient surnommées Rapido (aussitôt vendues aussitôt en SAV). J’en avais vendu une 50taine (sur demande expresse des clients malgré mes recommandations pour partir sur d’autres marques plus fiables), sur le lot j’en ai eu 10 reparties en SAV le 1er mois, 20 les 5 mois suivants et la quasi intégralité du reste avant la fin de la garantie. J’ai eu peut-être 2 clients qui ont fait tenir la leur plus d’un an. Et quand je parlais avec les magasins informatiques alentours, ils constataient tous la même chose.









Patch a écrit :



Titre : “Intel annonce que son premier GPU sortira en 2020”. Je ne vois pas de “next gen” ici.





En effet, et il n’y en a pas non plus dans le tweet cité dans la brève ni dans l’article auquel le tweet se rapporte. L’article dit bien :

“Intel CEO Brian Krzanich disclosed during an analyst event last week that it will have its first discrete graphics chips available in 2020.”



Merci d’avoir relevé ce mensonge de la part de Intel. <img data-src=" />









Patch a écrit :



BTX? Je n’ai jamais compris l’intérêt de ce format, à part rendre les cartes filles à refroidissement par caloduc incompatibles…

Pour les abandons rapides, si c’est du même niveau que les cartes mères Intel du début des années 2000, je comprends pquoi. Elles étaient surnommées Rapido (aussitôt vendues aussitôt en SAV). J’en avais vendu une 50taine (sur demande expresse des clients malgré mes recommandations pour partir sur d’autres marques plus fiables), sur le lot j’en ai eu 10 reparties en SAV le 1er mois, 20 les 5 mois suivants et la quasi intégralité du reste avant la fin de la garantie. J’ai eu peut-être 2 clients qui ont fait tenir la leur plus d’un an. Et quand je parlais avec les magasins informatiques alentours, ils constataient tous la même chose.





Joli ! <img data-src=" />



Optane a l’air d’envoyer du pâté, le seul problème est le prix hallucinant.

Avec les GPU on peut espérer du haut de gamme.








Patch a écrit :



Premier GPU <img data-src=" />

Ils semblent oublier leur i740 sorti en 1998 et le i752 sorti peu après…





J’allais faire un commentaire du même genre (sans préciser des références).

Mais il semble que la mention “Next Gen” a été censurée du titre.



Ce sera surtout l’occasion de proposer un GPU intégré au CPU pour en faire un vrai SoC performant je suppose.

Très bon pour les ordinateurs portables pour contrer les processeurs ARM, et peut-être pour venir titiller le milieu de gamme pour des usages spécifiques qui n’ont pas besoin de trop de puissance.


C’est dans le texte (de NXi)








Winderly a écrit :



J’allais faire un commentaire du même genre (sans préciser des références).

Mais il semble que la mention “Next Gen” a été censurée du titre.









CryoGen a écrit :



C’est dans le texte (de NXi)



Et n’apparait nulle part ailleurs. Vampire7 a d’ailleurs apporté la précision du tweet, où même Intel parle de leur 1ere puce graphique dédiée… Ce qui n’est pas du tout le cas.



Et le Xeon PHI, c’était pas un GPU ? Alors c’était quoi ….


Mouais y a surtout un problème, le lien dans le tweet parle de Raja Koduri et non d’une annonce de GPU <img data-src=" />



Donc on peut supposer que ce serait le premier GPU d’Intel avec ce gars là mais bon…









Patch a écrit :



BTX? Je n’ai jamais compris l’intérêt de ce format, à part rendre les cartes filles à refroidissement par caloduc incompatibles…







Y avait des avantages, en particulier le refroidissement “naturel” bien meilleur

Mais finalement des constructeurs de boitiers ont trouvé d’autres moyens d’avoir ces avantages sans pour autant faire la dure transition au BTX



Faudrait peut-être revoir la définition de « censuré », les mots ont un sens c’est bien de les utiliser correctement ;)


J’admets ne pas savoir quel est le terme approprié.


Fermer