Intel embauche John Sell, qui travaillait auparavant sur les Xbox et... chez AMD

Intel embauche John Sell, qui travaillait auparavant sur les Xbox et… chez AMD

Intel embauche John Sell, qui travaillait auparavant sur les Xbox et... chez AMD

Selon son profil LinkedIn il est arrivé chez Intel en mai. Le fondeur a confirmé à plusieurs de nos confrères qu'il l'avait bien embauché.

Toujours selon son profil, il était auparavant responsable des SoC des Xbox One, Xbox X et Scarlett chez Microsoft. Il était arrivé en 2005. Auparavant, il s'occupait de l'architecture des CPU et des GPU chez AMD de 1997 à 2005. Il a donc croisé le chemin de Raja Koduri chez Intel depuis fin 2017.

« Je ne pourrais être plus enthousiaste à l'idée que John Sell et Manisha Pandya rejoignent notre équipe », indique ce dernier dans un communiqué repris par VentureBeat.  Manisha Pandya est arrivé chez Intel en mars, après avoir passé dix ans chez Apple et cinq ans chez Broadcom.

Commentaires (14)


Faudrait renommer “Intel” en “AMD”. <img data-src=" />



C’est cohérent avec la catastrophe technique et commercial qu’est Intel en ce moment. <img data-src=" />


Vraiment curieux de ce que pourra proposer Intel dans le futur au niveau des solutions GPU, si cela pouvait aussi permettre une concurrence un peu plus féroce et donc une baisse des prix…


J’suis pas d’accord. AMD n’est pas synonyme de catastrophe technique et commercial. Ils ont longtemps surpassé Intel, puis se sont vautrés, et là ils sont revenus à la charge…



Au final, tant qu’entre ces deux là ça reste comme ça (un coup l’un, un coup l’autre), c’est pas plus mal.


Niveau CPU, c’est pas top depuis les Bulldozer environs, et pour les CG c’est depuis la&nbsp; R9 290. <img data-src=" />

Ça commence à faire longtemps, mais oui c’est passé (niveau CPU du moins), mais du coup c’est Intel qui se retrouve dans la mouise alors qu’ils récupèrent toutes les têtes d’AMD, bizarre.


Il faut voir 2 choses quand même : John Sell était chez AMD il-y-a 15-20 ans, la belle époque avec les Athlon XP qui surpassaient les P4, et la machine de guerre qu’était l’Athlon 64. À partir du moment où Intel a sorti l’architecture Core, ça a commencé à sentir le roussi, et l’écart s’est ensuite creusé avec les Core 2 et Core i.



AMD a quand même eu de bonnes idées, je pense notamment au Phenom (premier vrai quad-core, les Core 2 Quad étaient en fait 2 Core 2 Duo relativement isolés, mais sur la même puce), mais bon, y’avait rien à faire Intel avait une archi bien plus efficace aussi bien en vitesse de calcul que thermiquement.



Néanmoins, AMD est vraiment revenue sur le devant de la scène depuis Ryzen. Ils sont un chouia en dessous des Intel équivalent pour le jeu, mais ont un bien meilleur rapport qualité prix, et j’ai cru lire qu’ils sont meilleurs pour du calcul intensif hors jeu.


T’es sur que c’est lié au design des puces? Pour moi intel avait toujours une longueur d’avance parce qu’ils avaient toujours une finesse de gravure d’avance surtout donc des puces qui chauffent moins à fréquence égale.



Là ce qui met Intel dans l’incertitude c’est l’activité fonderie j’ai l’impression puisque TSMC est au même niveau qu’eux voire même un peu en avance.


À l’époque des P4, c’était clairement un problème de design de puces. Les P4 étaient tellement mauvais qu’Intel a fait machine arrière et les Core étaient basés sur une évolution du design des P3 (qu’Intel avait continué de développer pour les portables). Après, c’est clair que la finesse de gravure aide beaucoup, et les Athlon XP chauffaient très vite (SVM avait fait un test foireux : au boot, un P4 tournait 2 ou 3 minutes sans ventirad, là où un Athlon XP claquait en 3 secondes).



Pour la génération actuelle, la finesse de gravure joue, c’est certain, mais les premiers Ryzen (archi Zen) n’avaient pas une finesse de gravure particulièrement plus fine (14nm), et sans mettre la pâtée aux Core i de 7è et 8è générations, ils leur faisaient une très bonne concurrence. Zen+ est en 12nm, et Zen2 par contre sera en 7nm, et là on verra une différence.



Après, il ne faut pas perdre de vue que la dernière salve de vulnérabilités hardware chez Intel impose des patchs qui impactent sensiblement les CPU Intel qui utilisent HT, là où les Ryzen ne sont pas touchés.


J’ai commencé avec un Phenom II X4 955. <img data-src=" />




John Sell





Toujours selon son profil, il était auparavant responsable des SoC des Xbox One, Xbox X et Scarlett chez Microsoft



Mais le Cell, c’était pas une puce de chez Sony ? <img data-src=" /> <img data-src=" />



&nbsp;







dylem29 a écrit :



mais du coup c’est Intel qui se retrouve dans la mouise alors qu’ils récupèrent toutes les têtes d’AMD, bizarre.





Rome ne se fait pas en un jour, il s’écoule plusieurs années entre l’embauche et le fruit du travail des ingénieurs.

D’autant plus que le paquet a l’air mis sur les GPU, je suis très excité de voir ce qu’Intel va proposer à ce niveau.



&nbsp;





yvan a écrit :



T’es sur que c’est lié au design des puces? Pour moi intel avait toujours une longueur d’avance parce qu’ils avaient toujours une finesse de gravure d’avance surtout donc des puces qui chauffent moins à fréquence égale.





C’est un tout. On l’a bien vu avec la stratégie “tick-tock” d’Intel : à chaque génération de puce, on améliorait soit la finesse, soit l’architecture. Et on avait des gains significatifs dans les deux cas.









Plastivore a écrit :



&nbsp;Après, c’est clair que la finesse de gravure aide beaucoup, et les Athlon XP chauffaient très vite



P4 vs Athlon quand on enlève le ventirad



Maintenant, un Duron 1100 pouvait être dans de très nombreux cas bien plus véloce qu’un P4 1600.



&nbsp;





Charly32 a écrit :



C’est un tout. On l’a bien vu avec la stratégie “tick-tock” d’Intel : à chaque génération de puce, on améliorait soit la finesse, soit l’architecture. Et on avait des gains significatifs dans les deux cas.



C’est quoi significatif? Etant de la vieille génération, passer du 486DX33 au P100 puis au P233MMX puis au celeron 400, sur 6 ans, c’était significatif (50-100% de gain à chaque fois).



Quand je suis passé du Core Duo T2250 au i5 3570K (au bout de 6 ans), j’ai fait un énorme bon en avant.

&nbsp;

Là, je ne vois pas pourquoi changer mon 3570K car même un Ryzen 5 2600 n’amène “que” 50% de perfs en plus 6 ans plus tard dans le meilleur des cas (hors overclock forcé). Un i5 9400F m’amène 25% de perfs en plus pour un prix équivalent à ce que j’ai payé en 2013.





Plastivore a écrit :



Après, il ne faut pas perdre de vue que la dernière salve de vulnérabilités hardware chez Intel impose des patchs qui impactent sensiblement les CPU Intel qui utilisent HT, là où les Ryzen ne sont pas touchés.



Remarque: c’est bien parce que l’architecture “stagne” depuis 10ans qu’il est à la fois possible de la connaître au point de trouver ces vulnérabilités et qu’il est intéressant de l’attaquer car elle est extrêmement répandue.

Ryzen 5 a aussi eu ses vulnérabilités. Patchables, nécessitant un accès physique à la machine mais peut-être qu’elle peuvent évoluer comme celles d’intel. Plus il y aura de Ryzen, plus il y aura de monde pour lui chercher des poux.









brice.wernet a écrit :



&nbsp;

C’est quoi significatif?





Pour du concret, on peut regarder par exemple Haswell et Ivy Brige :&nbsp; à niveau de gamme identique, environ 10%.&nbsp;

Sachant que les deux produits avaient environ un ans d’écart, ça reste une belle progression.

&nbsp;





brice.wernet a écrit :



&nbsp;

Là, je ne vois pas pourquoi changer mon 3570K car même un Ryzen 5 2600 n’amène “que” 50% de perfs en plus 6 ans plus tard dans le meilleur des cas (hors overclock forcé). Un i5 9400F m’amène 25% de perfs en plus pour un prix équivalent à ce que j’ai payé en 2013.





Perso ça m’arrange, mon investissement est plus pérenne. <img data-src=" />









Charly32 a écrit :



Pour du concret, on peut regarder par exemple Haswell et Ivy Brige :&nbsp; à niveau de gamme identique, environ 10%.&nbsp;

Sachant que les deux produits avaient environ un ans d’écart, ça reste une belle progression.&nbsp;



C’est vrai que j’ai eu du bol: je l’ai acheté neuf à 200€. Donc à 200€, 3 ans plus tard il n’y avait toujours pas de concurrence. Surtout qu’il faut changer la CM et que de même la CM m’avait coûté 120€ pour du Z77. Donc pas d’équivalent non plus à ce prix les années suivantes. Tout comme les 8Go de DDR3 CL9 à 45€…

&nbsp;

Mais je conteste tes propos: 10%, ça ne se sent pas vraiment. Je trouve que 25% on voit la différence au quotidien, mais à partir de 50% on&nbsp; ne regrette plus son achat…



Avec un cyrix 133 <img data-src=" />


ça pique hein <img data-src=" />


Fermer