Connexion
Abonnez-vous

Lip-Bu Tan annonce une « remise à plat » d’Intel

Flat iron

Lip-Bu Tan annonce une « remise à plat » d’Intel

Steve Johnson / Unsplash

Le nouveau CEO d'Intel a confirmé jeudi la mise en œuvre d'un profond plan de restructuration de l'entreprise, sans confirmer le nombre de départs envisagé. Il affiche l'ambition de réduire les dépenses opérationnelles d'1 milliard de dollars par an, prône une culture d'entreprise centrée sur l'IA, et estime que l'avènement du procédé de gravure 18A permettra au groupe de renouer avec d'excellents niveaux de marge, pour ses propres puces comme pour le compte de clients tiers...

Le 25 avril à 10h08

« Nous devons rester focalisés comme des lasers sur l'exécution », a martelé Lip-Bu Tan jeudi soir, lors de la présentation aux analystes des résultats financiers d'Intel pour le premier trimestre. « Laser-focused », l'expression est revenue cinq fois dans la bouche du nouveau CEO du groupe. Elle figure également noir sur blanc dans le courrier interne, envoyé jeudi aux équipes d'Intel, qui pose les bases d'une restructuration de grande ampleur.

« Construire un nouvel Intel »

Cinq semaines après sa prise de fonction, le nouveau CEO d'Intel lance donc officiellement les grands chantiers. Avec, à la clé, une « remise à plat » annoncée de l'organisation d'Intel, motivée par deux objectifs : alléger la structure de décision, et réduire les coûts de fonctionnement.

« On nous considère comme trop lents, trop complexes et trop ancrés dans nos habitudes – et nous devons changer », déclare Lip-Bu Tan, qui affirme avoir déjà supprimé une couche de management intermédiaire au sommet de l'entreprise, en reprenant en direct la gestion des principales directions.

« De nombreuses équipes comptent huit niveaux hiérarchiques ou plus, ce qui crée une bureaucratie inutile et ralentit notre travail. J'ai demandé aux équipes de reconsidérer leurs organisations respectives, en mettant l'accent sur la suppression de ces niveaux hiérarchiques, l'augmentation des responsabilités et la responsabilisation des meilleurs éléments », écrit encore le CEO.

Le mouvement engagé s'accompagnera de coupes franches dans les effectifs, sensibles dès le deuxième trimestre et pendant plusieurs mois, prévient-il encore. Aucun chiffre n'est confirmé, mais d'après Bloomberg, le plan envisagerait de licencier plus de 20 % des effectifs du groupe, soit aux alentours de 20 000 personnes.

Outre la modernisation des processus internes, Lip-Bu Tan annonce par ailleurs une politique de retour au bureau, qui imposera aux salariés d'Intel quatre jours de présence sur site, contre trois précédemment, à compter du mois de septembre. « Ce sera difficile. Des décisions douloureuses seront nécessaires. Mais nous les prendrons, conscients que c'est la clé pour mieux servir nos clients, tout en construisant un nouvel Intel pour l'avenir », conclut le CEO.

Renouer avec la rentabilité

En termes financiers, la restructuration engagée par Lip-Bu Tan doit, selon l'entreprise, permettre de réviser à la baisse ses dépenses de fonctionnement pour 2025 à 17 milliards de dollars (contre 17,5 milliards envisagés suite au précédent plan mis en œuvre à partir d'août 2024 par Pat Gelsinger), puis 16 milliards de dollars en 2026. Intel revoit dans le même temps ses dépenses d'investissement, qui passent de 20 milliards à 18 milliards de dollars pour 2025.

Ces mesures d'économie, associées aux cessions engagées du côté d'Altera (vendu pour 51 % à Silver Lake Capital) et des activités mémoire flash NAND (le second volet de la vente à SK Hynix, initiée en 2020, a été bouclé en mars), sont censées permettre à Intel de retrouver la voie de la rentabilité.

Le premier trimestre 2025 se révèle à ce niveau relativement décevant : Intel a fait état jeudi d'un chiffre d'affaires de 12,7 milliards de dollars sur la période (stable sur un an), assorti d'une marge brute en diminution (36,9 % contre 41 %) et d'un résultat légèrement négatif, avec une perte de l'ordre de 800 millions de dollars. Hors éléments exceptionnels, le groupe parvient tout de même à afficher un bénéfice par action de 0,13 dollar, légèrement supérieur aux attentes.

Résultats d'Intel pour le premier trimestre 2025, en milliards de dollars

Les résultats s'accompagnent de prévisions prudentes pour le deuxième trimestre. Elles envisagent une marge toujours en baisse, un résultat négatif et un chiffre d'affaires stable sur un an. C'est, d'après Lip-Bu Tan, à partir de la deuxième moitié de l'année que la situation devrait s'améliorer.

Intel 18A attendu au tournant

Le deuxième semestre devrait en effet coïncider avec la montée en cadence du procédé de fabrication Intel 18A, suivie du lancement des puces Panther Lake qui devraient, selon David Zinsner, directeur financier d'Intel, offrir des marges supérieures à celles des processeurs Lunar Lake (Core Ultra 200V). L'entreprise a d'ailleurs renouvelé jeudi son objectif, déjà affirmé par Gelsinger en 2024, de rapatrier 70 % de la production de Panther Lake dans ses propres usines, en Intel 18A.

La firme de Santa Clara affiche enfin ses ambitions en matière d'intelligence artificielle, segment sur lequel elle accuse un retard significatif, à la fois face à NVIDIA ou AMD, mais aussi face aux solutions plus spécialisées développées en interne par les géants du secteur. « Nous devons repenser notre stratégie IA avec un focus sur les secteurs émergents du domaine (...) Notre objectif sera d'utiliser notre vision intégrée du système et de la plate-forme pour développer des solutions d'IA complètes qui permettent une plus grande précision, une meilleure efficacité énergétique et une meilleure sécurité à nos clients entreprises », déclare Lip-Bu Tan.

Commentaires (61)

votre avatar
Cadeau de Dredi ! :)
https://www.instagram.com/p/DI0Gl5xCWpX/
votre avatar
Je suis vraiment impressionné par la qualité des vidéos crées par les z'IA.

Pour faire des films désormais, plus besoin de s'embêter à embaucher des acteurs, à faire des costumes, à choisir des décors, etc. Non, la totalité d'un film peut aujourd'hui se faire sur ordinateur (je parle de tous les films, pas uniquement les films d'animations ou les dessins animés).
votre avatar
Limite ça me poserais pas de souci si l'humanité entière bénéficiait de ces avancées, via par exemple la répartition des gains de productivité (quel qu'en soit le mécanisme).
Or là on loue les progrès techniques, mais curieusement le système social & économique en vigueur qui permet à une petite partie des propriétaires & actionnaires de creuser plus encore l'écart n'est quant à lui pas remis en cause, encore moins ouvert à un quelconque progrès.

Bref, c'est pile je gagne, face tu perds. Un peu facile.
votre avatar
le système actuel bénéficie à absolument tout le monde. Le monde n'a jamais été aussi égalitaire et avec si peu de pauvres
votre avatar
:yes::iloveyou::bravo:
votre avatar
Les vieux schnocks à la bourre de la modernité n'aiment pas le télétravail et c'est à ça qu'on les reconnaît
votre avatar
Pour une bonne découpe, il faut toujours travailler sur une surface plane. :D
votre avatar
Il veut centrer l'entreprise sur l'IA ? Ça veut dire qu'ils vont aller à font vers les GPU ?
votre avatar
Je pense que cela fait référence à leur fonctionnement en interne qu'ils veulent plus tourner vers l'ingénierie, dans le brief d'hier cela était mieux formulé :
"Le média américain évoque une réduction de l'ordre de 20 % des effectifs totaux du groupe, motivée par la volonté de « réduire la bureaucratie » et reconstruire une culture d'entreprise « basée sur l'ingénierie ». "
votre avatar
Dans une ruée vers l'(absence d')or, les vendeurs de pioches sont les plus riches.

Versons gaiement dans cette gabegie énergétique sans considération pour les dégâts sociaux et sociétaux : ça n'est pas comme si la planète avait besoin que l'on réduise la consommation, ni comme si nos sociétés "modernes" souffraient d'une brutalisation/inhumanité croissante.
votre avatar
Il faudrait aussi qu'ils revoient de manière assez drastique l'architecture globale de leur puces dont plus de 99% des transistors font du transport et de la logistique face au nombre ridicule de transistor réellement productifs.

Si on fait un parrallèle entre un microprocesseur moderne et une société, on a un employé qui travaille h24 7/7 sous amphétamines et 99 autres pour le soigner, et l'alimenter, d'on un pour lui traduire le travail dans sa vraie langue.

Tout cela est lié à deux choses:

1 l'écart délirant entre la vitesse des coeurs et celle des bus externes, impliquant un recours massif aux caches mémoire.

2 une architecture x86 que l'on peut qualifier de boulet à cause de la spécialisation des registres et du faible nombre de registres. C'est comme travailler sur un bureau format A4 ou sur un écran de téléphone Doro.

Bref, l'architecture des processeurs x86 est l'antitèse de celle d'un réseau de neurones où la mémoire comme les calculs sont totalement distribués. Mal barré pour faire de l'IA sur cette base.
votre avatar
L'écart délirants entre la vitesse des coeurs et les bus externes est aussi un problème de physique. Intel a bien des défauts avec leur x86, mais certaines choses sont lié à l'évolution des technologies.

Le faible nombres de registres est un problème mais il y a aussi une responsabilité des dev. Oui Intel a bien conscience de ce problème puisque l'APX vise à augmenter drastiquement ce point. Seulement ça ne sert rien d'augmenter ce nombre de registre si les compilateurs (et les développeurs) ne savent pas les exploiter dans leur code. Actuellement, GCC dispose d'une option permettant d'améliorer l'usage de ses registres, mais elle est peu utilisé en pratique (d'après les nombreux Makefile que j'ai vu passé dans ma vie). Clang ne dispose pas de cette option est à du mal à exploiter correctement cette possibilité.
MSVC a une option de mémoire mais qui de compétent utilise une merde pareil ?


L'x86 n'est pas fait pour faire de l'IA pour les raisons que tu as expliqué et c'est la raison de la présence de circuit plus spécialisé (e.g., Ryzen AI). Bien qu'on puisse entraîner et inférer un NN, c'est plus pour "fun" ou du debug ou R&D de prototype qu'autres choses (et encore il faut de l'AVX-512 de mémoire).

Cette annonce est dirigé vers les marchés, les actionnaires et la presse mainstream. En aucun cas, elle vise les technophiles.
votre avatar
L'écart délirants entre la vitesse des cœurs et les bus externes est aussi un problème de physique. Intel a bien des défauts avec leur x86, mais certaines choses sont lié à l'évolution des technologies.
Si on met de côté le problème de l'architecture déficiente des x86, il y a bien d'autres problèmes en effet.

Je dirais plus que c'est une fuite en avant dont la responsabilité est partagée à 50% entre les développeurs qui ne veulent pas se remettre en question (et certainement leurs donneurs d'ordre qui ne veulent pas les former à ces changements), et les fondeurs qui continuaient de mettre en avant la performance des cœurs unitaires.

Il aurait fallu multiplier les cœurs depuis longtemps au lieu de les surcadencer aux prix d'une consommation que j’évaluerai à au moins 300% (consommation dynamique liée au carré de la fréquence et une fréquence deux fois trop grande en moyenne selon moi). Mais cela implique de rendre les traitements parallélisables donc d'adapter les manières de développer.

Si, au lieu de continuer sans cesse de baser les évolution quasi exclusivement sur la vitesse des cœurs, les architectures étaient devenues plus multi-cœur comme maintenant, cette évolution aurait démarrée plus tôt. Avec un énorme gain sur les consommations électriques.
votre avatar
La fuite en avant me parait manquer d'acteur. Je pense que les fondeurs ne créeent plus le besoin mais ce sont les usages qui le font. Augmenter le nombres de coeurs n'est pas aussi simple que d'augmenter la fréquence du processeur, ça implique plus de transistors, des mécanismes de synchronisation et de la communication au niveau du CPU. Au niveau des OS, ça demande savoir gérer correctement ce point, et même de nos jours (Linux y compris) il y a encore des bugs ou des failles de sécurités.
Niveau application, (or avènement du cloud) les besoins sont concentrées dans certains domaines de niches (calculs d'ingénieries, recherches académiques). L'IA, les jeux vidéos dépendent bien plus des GPUs (et c'est aussi vrai pour certains calculs indu.). Bref ce n'est pas majorité.
Et enfin, écrire un code en parallèle efficace (et sans trop de bug) n'est toujours pas une tâche facile. Même si certains langages offrent des accès simplifiées (e.g., Python, Rust) dès que ça devient un élément critique ils faut revenir des langages plus pratiques (e.g., C++). Sauf que comme tu le mentionnes les donneurs d'ordres ont, pour leur majorité, rien à carrer de ces choses là.


Par contre la consommation électrique des coeurs je ne sais pas si vrai que ça. Quand tu compares un CPU ARM (e.g., Ampère) avec de l'x86, oui l'efficacité énergétique par coeur est plus prononcé chez ARM que l'x86. Mais à lors que tu tires dessus à fond (simulations numériques), l'écart se réduit entre les deux.

Selon moi, si tu souhaites baisser la consommation énergétique de ces bestioles, je verrais plutôt une simplification de l'architecture et notamment du front-end des CPU. Beaucoup de transistors sont alloués aux décodages des instructions (sur l'x86), aux optimisations internes, à la détection de boucles.... Vu la puissance d'un CPU à leur actuelle en terme de puissance brutes, on pourrait s'appuyer plus sur les compilateurs (et les développeurs) pour optimiser les codes en amonts et ainsi réduire significativement le nombres de transitors.

Mais là encore, ça ne marchera pas en réalité car si tu économises du transitors, ils seront remis ailleurs (plus de coeurs ? plus d'unités de calculs ?). Ensuite ça demande d'avoir des développeurs formés à l’optimisation et des donneurs d'ordres conscient de ces enjeux. En fait, ça demande aussi bien aux producteurs, qu'aux utilisateurs de revoir leur lien avec l'informatique dans nos sociétés. Et ça c'est pas gagné du tout.
votre avatar
l'écart délirant entre la vitesse des coeurs et celle des bus externes, impliquant un recours massif aux caches mémoire.
Il y a 30 ans, c'est la mémoire qui attendait le processeur. On ne va pas se plaindre quand même. Il a fallu trouver des solutions quand les CPUs, on eut consommé des stéroïdes. Le cache n'est pas une mauvaise chose.

Et puis une carte mère n'est pas un CPU. Ce ne sont pas les mêmes distances...
2 une architecture x86 que l'on peut qualifier de boulet à cause de la spécialisation des registres et du faible nombre de registres. C'est comme travailler sur un bureau format A4 ou sur un écran de téléphone Doro.
Oui et non. Dans l'absolu, c'est suffisant (source, destination, accumulateur / compteur). Moins confortable (comme l'était un 68k) mais suffisant. D'où le cache. Il peut éventuellement servir d'extension pour les registres. Pour peu qu'on sache le faire ou que le langage utilisé le permette (les structures en Cpp par ex).

Aussi, ce sont les jeux d'instruction supplémentaires qui apportent des registres. Plus ou moins opérables suivant les cas. Mais bon ça stocke et on peut faire des trucs.

Comme le rappelle @BlackLightning c'est aussi un problème de dev et de compilateur.
votre avatar
On ne va pas se plaindre quand même. Il a fallu trouver des solutions quand les CPUs, on eut consommé des stéroïdes. Le cache n'est pas une mauvaise chose.
Les CPU auraient pu devenir multi-coeurs bien avant et les RAM pouvaient être multicanal aussi.
L'augmentation drastique des fréquences qui a eu lieu à l'époque des Pentium 3 n'était pas la seule voie possible pour augmenter les performances. C'est cette augmentation déraisonnable des fréquences qui a causé l'apparition de pipelines à 50 étages, l'apparition des bidouilles à l'origine de bon nombre de failles actuelles et la course en avant de la taille et du nombre des caches.

Et puis le problème des performances n'est pas lié qu'au processeur, les développeurs ont une grande responsabilité dans le fait que, malgré l'augmentation considérable des performances, les services rendus se dégradent https://fr.wikipedia.org/wiki/Loi_de_Wirth
Oui et non. Dans l'absolu, c'est suffisant (source, destination, accumulateur / compteur). Moins confortable (comme l'était un 68k) mais suffisant. D'où le cache. Il peut éventuellement servir d'extension pour les registres. Pour peu qu'on sache le faire ou que le langage utilisé le permette (les structures en Cpp par ex).
Suffisant, oui puisque cela fonctionne mais cela engendre beaucoup de déplacements de données pour libérer les registres spécialisés, via la pile ou via la mémoire. Si on fait des statistiques sur le type d'instructions utilisées dans un programme, on peut séparer les instructions en deux catégories:
- les instructions productives : calculs, tests, rotations..
- les instructions non productives : déplacements de données, saut inconditionnels, sauvegarde et restauration de contexte.

Si on compare le taux d'instruction non productives pour le même algorithme implémenté dans deux jeux d'instructions, on peut comparer l'efficience de l'architecture et à ce jeux, le x86 est très mal placé face aux ARM par exemple mais plus globalement face aux processeurs ayant des registres plus nombreux et moins spécialisés.
votre avatar
Sauf que ton raisonne pour les registres n'est valide que pour du calcul ne faisant pas appel aux unités flottantes. Si on prends l'x86-64 avec l'AVX-512 on se trouve à 32 registres de 512 bits contre 32 registres 128-bits pour l'ARM v8.

En revanche, on a 31 GP registres pour l'ARM v8 et 16 pour l'x86-64 (32 si on considère l'APX, mais ce n'est pas encore courant).

Néanmoins augmenter les registres implique que les compilateurs sachent les utiliser (et les dev aussi). Et même avec plus de registres, ce n'est pas toutes les implémentations d'algorithmes qui peuvent les utiliser.


Par contre mesure l'efficience d'une architecture en comparant des registres ça me paraît pas suffisant, tu préfères pas mesurer/estimer l'IPC dans ce cas ? Car le jeux d'instructions c'est une chose mais ça ne fait pas tout.
votre avatar
Je ne raisonne pas qu'avec le nombre de registre ; C'est un argument parmi d'autres, un argument qui a l'avantage d'être facile à expliquer. Je suis d'accord avec toi que cette seule caractéristique ne suffit pas à quantifier la qualité d'une architecture.

Après, je ne suis pas forcément d'accord avec toi pour les compilateurs. Cela fait bien longtemps par exemple que gcc gère les processeur ou dsp avec registres généraux en grand nombre, des plus petits 8 bits aux 64 bits.
votre avatar
La fréquence est malheureusement toujours un critère de performance chez tous les acteurs, au détriment d'un usage pérenne.
Vouloir utiliser du tsmc N2 au delà du 0.96V est juste une aberration pour montrer un gros kiki, et le temps d'usage est limité pour le benchmark. Au delà de cet usage, ça ne tient pas dans le temps :
Les lois de l'électromigration font que tu peux performer sur une durée de vie courte.
Mais ça reste un critère de sélection, le benchmark.
Pour un usage normal sur 10ans, bien sûr qu'il faudrait diminuer les fréquences et coder différemment.
Ce n'est pas un hasard si les moteurs F1 tournent à 20k tours/min pour un circuit, et les camions à 4k tours/min pour 2000 Mm.
Les bateaux sont en deça de ce régime encore pour une question de rendement.

Bref, Intel se cherche un créneau depuis 10 ans; ils ont bénéficié de leur fonderie en avance sur le temps pendant quelques années. Aujourd'hui ils ramassent leur pots cassés.

Courage au 80% restants pour trouver une proposition crédible.
:byebye:
votre avatar

Je vais dans le sens de @BlackLightning pour la partie technique.

Pour l'augmentation des fréquences, cela tient à deux choses.
Puisque c'est soit augmenter les fréquences ou paralléliser plus (je dégrossis, mais tu saisis très bien ce à quoi je fais allusion).

Paralléliser c'est plus compliqué. Ça agrandit les BUS et ça force à repasser par un processus de validation des normes.

Augmenter les fréquences est bien plus aisé. À un point où un fondeur se débrouille pour construire un chip qui lui permettra de le décliner en plusieurs fréquences (hein Intel) ou activation d'unité (hein Nvidia).

L'autre argument, c'est le marketing. En résumé : "Tu la vois ma grosse fréquence là, tu la vois bien ! Hein !".

Et ce n'est pas faux qu'un PC de l'époque à 16 MHz était moins efficace qu'un micro familial type 'ST ou Amiga) qui eux tournaient à 7 Mhz. Mais 16 Mhz c'est plus vendeur.
votre avatar
Je te rejoint complètement sur l'aspect marketing qui a certainement été un élément de choix important pour partir vers l'augmentation de vitesse plutôt que vers la parallélisation.

Maintenant, si on cherche une manière d'augmenter la performance de nos logiciels, on en arrivera forcément à devoir réapprendre à programmer proprement et vu que les limites de la physique sont atteintes, c'est une option qui va, je l'espère, redevenir intéressante.

Cette remise en cause de la manière de développer est nécessaire à la fois à cause de la stagnation des fréquences et du fait de l'augmentation progressive du nombre de cœurs.
votre avatar
Je ne suis pas certain de toutes les affirmations de cette vidéo, mais je vois quand même un truc.

youtube.com YouTube

Intel se prend une claque par AMD qui sort les Ryzen. AMD est bien revenu dans la course.
Intel n'a jamais percé dans le marché du teléphone mobile.

Si c'est bien avéré pour les chinois. C'est un obstacle de plus à franchir pour Intel.

Le RISC-V est tout de même bien intéressant.
votre avatar
Je pondère le succès d'AMD sur l'offre CPU x86. Il me semble qu'AMD rencontre du succès sur le marché du jeux video. Le gros du marché en CPU, c'est les intégrateurs/assembleurs (Dell, HP,..). Et du reste, Intel reste très majoritaire sur l'offre serveur (je parle de bare-metal bien sûr). Par contre, sur l'offre GPU pour l'IA, ils sont à la bourre pour le moment.

A mon humble avis, c'est surtout Intel Foundry qui pose problème. Je m'attends à une cession ou alors si le noeud 18A rencontre du succès, un rapprochement slous forme de fusion/acquisition.
votre avatar
Ce n'est plus vrai pour les datacenters, AMD est au coude à coude avec Intel (environ 3 milliards de dollars de CA chacun, par trimestre), et AMD performe mieux sur le haut de gamme qui est plus générateur de marge.
votre avatar
Et pour moins cher. Les VM sur SKU basés sur des serveurs AMD chez Azure étaient financièrement plus intéressantes pour d'aussi bonnes perfs.
votre avatar
J'ai entendu ça mais pour être honnête, je n'ai pas vu passer de projet avec une base CPUs Epyc.
Mais je ne suis pas représentatif, il doit y avoir une véritable percée que je n'ai pas encore constaté.
votre avatar
Lorsque j'ai vu passer ce genre de choix, c'était plutôt dans un cadre finops pour sélectionner le SKU de VM au meilleur ratio prix / perfs. Et les hébergements basés AMD chez Azure étaient plus intéressants à ce moment-là.
votre avatar
Ah oui peut être mais honnêtement, sans vouloir me faire passer pour un baromètre, je n'en vois pas beaucoup.
votre avatar
Non, AMD est solidement implanté sur le marché des centres de calcule:

https://www.forbes.com/sites/johnwerner/2024/11/07/amd-surpasses-intel-on-datacenter-sales/

Nous ne sommes plus en 2010.
votre avatar
Attention aux chiffres, il me semblent qu'AMD inclut dans ses chiffres les accélérateurs MI et pas uniquement les CPU serveur (Epyc).
Je ne suis pas certain de moi, donc à vérifier mais il me semble que sur l'offre Epyc vs Xeon, les chiffres sont peut être différents.
ca ne change rien à la bonne performance d'AMD mais ce n'est plus la même histoire.
votre avatar
Oui, cela inclu aussi les accélérateurs MI, mais c'est globalement un indicateur que les datacenters ne sont plus très majoritairement axés Intel pour leurs nouveaux investissements.
Si on regarde les chiffres annoncés par Lisa Su, on se rend compte qu'effectivement les accélérateurs MI sont pour beaucoup dans ces chiffres, mais au final ça montre que les Epyc on fortement réduit l'écart avec les Xeons et qu'AMD a fermement le pied dans la porte du marché datacenter là où on ne peut plus trop s'attendre à une progression d'Intel si les ventes de Gaudi3 ne grimpent pas.
votre avatar
Nous verrons bien mais je vois une grande différence entre Intel et AMD sur le marché serveur: la disponibilité, le support et la fiabilité.
Il faudra qu'AMD convainc sur ces 3 axes pour percer et cela prend du temps.
Maintenant, il est bon d'avoir 2 fabricants en concurrences pour dynamiser ce marché.
votre avatar
Je m'étonne de voir une analyse aussi datée de la situation... alors oui, il y a généralement plus de modèles en catalogue pour Intel que pour AMD, mais Intel reste le roi de la segmentation de marché, ce qui peut jouer sur cette question d'abondance de modèles.

Pour le support et la fiabilité, rien à redire sur AMD.

Reste que AMD est un adversaire redoutable pour Intel sur des questions cruciales comme les performances par watt et par euro, ce qui peut avoir une importance non négligeable pour le renouvellement de matériel dans un centre de calcule à pleine capacité.
votre avatar
Peut être que je me suis mal exprimé, mais il ne s'agit pas pour moi de critiquer la "nouveauté AMD vs le passé Intel".
La réputation de qualité ou de fiabilité s'acquièrent avec le temps. Ce qu'Intel démontré et ce qu'AMD commence a vouloir démontrer.

Cela changera avec le temps sans doute avec les projets gagnés par AMD mais pour le moment, Intel possède encore une image de fiabilité.

On peut très bien saluer la nouveauté AMD tout en respectant la fiabilité Intel, nous ne sommes pas obligés d'être manichéens non?
votre avatar
Je ne vois pas de manichéisme dans Intel vs AMD, je dis juste qu'AMD est dans une position solide, que ces ventes sont solides et qu'à l'heure actuelle les avantages de l'un face à l'autre ne sont plus si prononcés en faveur d'Intel. Certes AMD n'est pas en tête sur les processeurs en centre de calcule mais il est en tête globalement sur le centre de calcule, ce qui devrait inquiéter Intel qui n'est plus dans une situation de domination massive comme par le passé.

A l'heure actuelle, à part pour certains cas de niche , il n'y a plus vraiment de raison fonctionnelle de prendre Intel plutôt qu'AMD, et pour les raisons non-fonctionnelles, AMD commence à avoir un avantage qui devient difficile à ignorer si tu fais des appels d'offre non-biaisés.
votre avatar
Je vais te donner une raison qui est la mienne. Dans ma boite (on est éditeur de logiciel), nous réalisons des tests sur des matériels avec nos logiciels dont l'objectif est de produire des requis matériels pour permettre un dimensionnement approprié en fonction du cas d'usage. Cela comprends, serveur, clients et inclus technologies du réseau et du stockage. Nous ne vendons pas de matériels.
Ces test monopolisent une équipe assez importante et nous imposent de coller au marché du matériel. A date, nous ne faisons qu'une seule plateforme: Intel. Nous n'avons objectivement pas la taille de doubler cette équipe pour porter les tests sur AMD (parce que nous devrions maintenir les tests Intel quand même..) et sais tu pourquoi il n'y pas de débat sur le sujet?
Parce qu'il n'y a pas de demande de la part de nos clients.

Je vais donc te retourner ton, argument d'autorité:
" il n'y a plus pas vraiment de raison fonctionnelle de prendre AMD plutôt qu'Intel".
votre avatar
Oui, enfin d'expérience, les éditeurs de logiciels destinés à des niches dictent souvent plus le matériel. De plus, souvent les entreprises qui ont de l'AMD ont aussi de l'Intel, et donc ne commencent pas à demander de la compatibilité AMD si ça risque d'engendrer des coûts supplémentaires (des éditeurs de niche qui truandent leurs clients en applicant des listes de matériel supporté ultra restrictives pour mieux facturer la certification de nouveau hardware, j'ai déjà donné, y compris pour un saut générationel de serveurs Proliant)

Enfin, bon, pour te retourner ton argument, le logiciel de ta boîte n'est certainement pas représentatif de l'ensemble du marché du centre de calcule.
votre avatar
Peut n'était ce pas clair mais je le répète: Nous n'avons pas eu de demande concernant les requis sur des bases AMD.

Ca ne veut pas dire qu'il n'y en aura pas et alors nous devrons étudier la question à ce moment là.

Pour le reste j'acquiesce sur les programmes de certification mais ce n'est pas propre aux éditeurs de logiciel et, à mon avis, la pratique est de moins en moins répandue mais je peux me tromper.

Je te laisse cependant le terme de 'truand' qui n'a pas sa place ici sauf si tu considères Intel comme tel.
S'agissant de CPU x86, tu admettras toi-même que le choix est nativement restrictif faute d'acteur sur ce marché.

Pour ton info, nous avons décidé de supporter tout ce que l'OS (Windows/Linux) peut supporter en terme de technologies, c'est donc tout sauf restrictif, à la limite ce n'est pas exhaustif, c'est vrai. Mais on ne peut tout dev ou tout supporter, pas avec la taille de notre R&D.

Perso, je suis très favorable aux architectures ouvertes.

ps: Ne me retourne pas un argument que je t'ai retourné, ce n'est pas poli.. :D
votre avatar
Question truandage, le mot ne s'applique pas forcément à ton entreprise, mais j'ai déjà vécu la situation où un fournisseur en situation de monopole sur une fonctionnalité de niche voulait nous faire payer le fait de certifier son logiciel sur Proliant DL380G8 alors qu'ils ne certifiaient que jusque G6 (ce dernier modèle étant hors support à cette époque), ou encore un autre fournisseur qui a fait payer la validation de son soft sous VSphere.

Reste que vous n'avez peut-être pas de demande sous amd parceque vous vous adressez à des clients très conservateurs, ou capables d'avoir intel et amd dans leur centre de calcule.

Ce n'est en tout cas pas sur un cas que l'on peut décréter que AMD est loin derrière Intel, AMD représente pour le moment un peu plus de un cpu sur trois vendus en centre de calcule, on est plus dans une situation où ils seraient anecdotiques.
votre avatar
Je viens de vérifier l'offre Dell sur du double socket:
- 14 réf base Intel
- 5 réf base AMD

En quad socket:
- 2 Réf Intel
- 0 réf AMD


En mono socket:
- 4 réf Intel
- 5 réf AMD


Je pense que c'est clair: vu que j'utilise du double & quad socket, je ne vois pas d'AMD car il y a très peu d'offres de la part des intégrateurs/assembleurs comme Dell.

Tu vas me dire que c'est spécifique à Dell, oui mais c'est aussi dans de nombreux cas le matériel retenu dans les projets que je vois passer. Mais là encore, il se peut que cela évoluera bientôt.


Je te remercie pour cette discussion intéressante.
votre avatar
Comme je l'ai dit plus haut, le nombre de modèle de serveurs Intel est plus un signe de forte segmentation de la gamme que de ventes... En plus Dell est un cas un peu extrême de constructeur qui est resté très longtemps exclusivement sur Intel...

Question densité, il est vrai que si tu vas chez les autres constructeurs, tu auras aussi du mal à trouver du quad socket AMD. Il faut croire que ce marché est occupé à s'éteindre vu le peu de fois que j'en croise encore en entreprise (derniers usages où j'en vois encore parfois: gros serveurs de base de données ou des systèmes avec i/o fortement parallélisés tendance mini)

Maintenant, soyons réalistes, les cpu's modernes offrent tellement de cœurs par socket que le quad socket perd complètement son intérêt à part certains cas précis et rares (où la bande passante bus / ram cumulée est l'effet principal recherché), avec un nombre de cœurs par socket pas super élevé.

Même le dual socket est malmené par cette tendance: quand tu as 192 cœurs sur un socket, tu n'as plus forcément besoin d'un deuxième. Je vois de temps à autres des infras de virtualisation qui refusent de monter au delà de 128 cœurs par serveur lame car 128 cœurs en cas de crash représente une trop grande quantité de vm à redémarrer à la fois pour le reste de l'infra et risque de faire saturer d'autres ressources (réseau, san/nas) et de déstabiliser d'autres vm's.
votre avatar
Je souscris et partage le même point de vue sur l'architecture virtualisée dense qui selon moi est une hérésie. Perso, j'ai plutôt fait de la répartition plutôt que de la concentration mais la facture énergétique incluant le refroidissement est à prendre en compte.
Le bi-socket (2x32 pCPU) est un bon compromis dans mon cas d'usage où je ne dépasse pas 8-10 VMs par host avec 4 à 8 vCPU.
Je stack un autre host sur la même base jusqu'à la volumétrie cible.
Le compute fonctionne plutôt bien (enfin sous Linux, sous Windows, il y a des écarts parfois).
Je dois le dire, je n'ai pas eu beaucoup de retour négatifs sur Xeon depuis 2006 (bare-metal et virtualisation).
Je souhaite à AMD le même niveau de fiabilité.
votre avatar
ça ne marche que si les clients sont compétents pour comprendre les enjeux associées et les gains.

AMD surpasse Intel pour du calculs. Si ton logiciel n'est pas orienté calculs/simulations lourdes, qu'il ne demande pas un IPC de malade ou autres alors oui Intel ou AMD le client s'en fiche car il ne voit que le sticker.
votre avatar
Le client ce qu'il veut c'est une plateforme stable et fiable. Il s'en fout que ce soit AMD ou Intel.
Les archis du client se documentent pour vérifier ces points mais à la fin, c'est l'engagement des contractants qui paieront l'indisponibilité du service. Et ca peut couter très très cher d'avoir des aprioris.
votre avatar
À ma connaissance AMD ne se démarque pas négativement d'Intel question fiabilité et stabilité, Donc si je dois établir des SLA, un RTO ou un RPO pour une plateforme Intel ou AMD, je ne vais pas faire de différence. D'un point de vue stabilité et résilience d'une solution, il y a tellement d'autres aspects à considérer que le cpu.

Maintenant il est vrai qu'on pourrait aussi regarder la stabilité des performances suite à des mises à jour du microcode pour des vulnérabilités au niveau des cpu's. Ces dernières années j'ai l'impression qu'Intel n'a pas impressionné positivement en la matière. Mais AMD n'est pas forcément à l'abri d'une opportunité de décevoir.
votre avatar
La CPU pas le seul point mais ca fait en parti. J'ai la même question qui m'est posée sur chaque architecture avec une "nouveauté".
Quel est le recul et/ou le feedback que je peux donner sur le plan fiabilité sur ce "nouveau" composant surtout s'il est critique?
Si ma réponse est "peu ou aucune", et si le marché cible prévoit des pénalités SLA, la position de l'intégrateur sera invariablement celle de privilégier l'expérience fiabilité à la performance brut sauf à considérer un véritable gain qui pourra se traduire sur un coût global sensiblement diminué.

Donc oui les intégrateurs sont conservateurs parce qu'ils doivent gérer des risques financiers..

Maintenant comme tu sembles bien connaitre AMD, peut être as-tu des statistiques à faire valoir?
votre avatar
Les CPUs sont des composants fiables, en dehors de problèmes d'alimentations via des VRM (lié à des problèmes de la CM, de la mauvaise gestion énergétique...) les CPU n'ont pas raison de lâchés comme ça. Et si c'est le cas, c'est un problème du constructeur/fondeur.

Mais de toute façon, les nouveautés ne font pas parti des éléments critiques car il faut un minimum de recul. Déjà pour le hobbyiste prendre le dernier processeur sur le marché fraichement sorti n'est pas recommandé. Alors pour un pro, qui plus est avec des SLA, c'est joué à la roulette russe avec plus d'une balle dans le barillet.

Sans plus de détails, difficile de faire valoir plus AMD ou Intel. Juste qu'AMD a réussi avec Zen à prendre la tête, et que maintenant ne pas considéré AMD dans un choix technique est une idiotie.
D'ailleurs de nombreux supercalculateurs reposent sur de l'AMD (le dernier en date est Frontier le plus puissant au monde actuellement) alors qu'avant Intel dominait ce marché. Preuve d'un changement qui n'est pas anodin.

Après, comme l'a mentionné @ragoutoutou il y a d'autres choses en prendre en considération que le CPU pour la fiabilité.
votre avatar
Alors pour un pro, qui plus est avec des SLA, c'est joué à la roulette russe avec plus d'une balle dans le barillet.
C'est bien ce que je dis.
Sans plus de détails, difficile de faire valoir plus AMD ou Intel.
C'est là que l'expérience du SI joue: il n'a jamais eu de problème ni dans le support, ni avec la supply chain avec Intel. Les performances sont connues et testé par l'éditeur. Sauf action de lobbying de la part d'AMD pour acheter des projets, pourquoi l'intégrateur changerait-il ses choix?
votre avatar
A l'heure actuelle je n'ai pas trouvé de statistiques publiques spécifiques sur les cpu's en centre de calcule.

Par contre, il y a des statistiques disponibles sur les fabricants de solutions serveur et laisse moi te dire que d'après les derniers chiffres disponibles (2023) , en appliquant ta manière de penser, tous ceux qui utilisent du x86 au lieu de cpu's IBM power sont des irresponsables car il y a un gigantesque fossé entre les serveurs unix IBM et les serveurs PowerEdge Dell que je ne risque vraiment pas de retrouver entre des cpu's Intel vs AMD.

Pour le reste, Amd n'est pas un nouvel acteur, et je n'ai jamais vu un de leurs produits datacentre poser problème question stabilité (bon je n'ai pas pu voir la génération "Bulldozer" car les perfs étaient très décevantes)

Les problèmes de stabilité que j'ai pu voir tant avec de l'Intel que de l'AMD: modules de ram qui lâchent, alimentations qui lâchent, cartes mères qui lâchent, contrôleurs disque qui lâchent, interface réseau qui lâchent, ... en général, ce ne sont pas les cpu qui lâchent les premiers, mais tout ce qu'il y a autour.
votre avatar
Tu comprendras qu'en absence de chiffres clairs, c'est délicat d'expliquer à des intégrateurs qui ont une longue expérience avec Intel qu'AMD c'est "mieux". M^^eme si je suis d'accord avec toi, j'ai rarement vu des CPUs qui ont défailli en fait (sauf cause externe: ie ventilateur HS).

Ce que tu dis est vrai sur la fiabilité IBM mais on ne fait pas de Z chez nous et on ne développe pas non plus nos logiciels sous Cobol. Aussi tu ne m'en voudras pas de considérer cela hors périmètre.
votre avatar
Va falloir faire le gendarme !

L'IBM i fait TOUT. Du RPG, Cobol, C, C++, java, et j'en passe.

Ha meh !!!
votre avatar
C'était une blague..:chinois:
votre avatar
Oui enfin, tu tortille, mais chaque fois qu'intel sort une nouvelle génération, personne non-plus n'a de longue expérience d'intégration pour ce matériel. Une nouvelle technologie de ram, un nouveau type d'interconnect, une nouvelle distribution électrique, et tout le monde reprend le design de carte mère depuis presque zéro...

Je ne vois pas trop à l'étape où nous sommes comment Intel aurait un avantage particulier sur AMD alors que les marques de serveurs sont bien rodées à l'exercice. S'ils ne sont pas compétents pour faire de l'amd stable, ils ne le sont sans-doutes pas non-plus pour de l'Intel.

Pour le reste, je n'ai pas parlé des systèmes Z mais des serveurs Power S et E qui sont des machines pouvant faire tourner du Unix ou du Linux avec toutes les technologies inhérentes à ces environnements...
votre avatar
Les dits intégrateurs ne vont pas non plus sur les toutes nouvelles gen pour les mêmes raisons. Alors si, parfois un acheteur tord le bras à l'ingénierie parce qu'il obtenu des conditions intéressantes mais sinon, je vois la même chose que pour AMD: des choix plutôt conservateurs qui favorisent l'expérience client positive avec du matériel qui a fait ses preuves. Et cette "règle" vaut aussi pour tous les autres composants, encore une fois de mon observation mais qui vaut bien celle des autres..

pour le reste, oui, j'ai blaguais avec un tite pointe d'ironie, tu ne m'en voudras pas.. ?
votre avatar
Les intégrateurs sont généralement synchronisés avec les fabriquants de cpu/chipsets... ils travaillent ensemble en amont de toute sortie. Maintenant selon lque l'on soit avec Lenovo, Dell, HP, Supermicro, Asrok, ... il y aura des niveaux différents de collaboration, mais personne ne veut sortir de matériel qui nuirait à sa réputation. Donc quand HP, Lenovo ou Dell sortent des machines à base Epyc, on peut supposer qu'ils ont déjà fait leurs devoirs et qu'il nous reste à lire la documentation avant de faire un proof of concept ou un achat.
votre avatar
En principe, si tu gères un système sensible tu ne fais pas les maj du micro-codes sur tes machines de prods sans avoir vérifié avant les impacts possibles au regard des risques encourus.
votre avatar
Qui parle d'appliquer sans tester?

Le problème est qu'avec les CPU's ces dernières années, les clients se retrouvent parfois dans des situations où la mise à jour de microcode couvre une vulnérabilité sévère, ce qui les met dans la situation où ils doivent choisir entre accepter le risque sécurité ou accepter la perte de capacité, et devoir faire ce choix et en être responsable n'est pas chose agréable, et le niveau de perte de performances pour certaines vulnérabilités extrêmement sévères n'a pas laissé une impression de produit stable concernant les cpu's Intel.

Après la catastrophe de Specter / Meltdown dont les correctifs ont pu provoquer des pertes de performances à deux chiffres sur certains cpus Intel, on peut comprendre la popularité d'AMD pour le secteur des solutions partagées iaas/paas .
votre avatar
J'ai mal vécu cette période Spectre (pas Specter mais je sais que tu sais ;) )qui nous a couté pas mal de sueurs et des larmes (perso, des nuits blanches même).
Et ce n'était pas tant le problème de CPU en lui-même mais la façon dont tous les acteurs IT (surtout les consultants qui recherchent de la facturation) nous sont tombés dessus en mode panique (la blague..).

Fort heureusement, perso, je suis très conservateurs sur les KPI et sur les benchs. J'ai une marge de manœuvre d'environ 20% (enfin qui a fondue comme neige au soleil depuis que les SSI imposent des outils qui bouffent 10% de CPU en moyenne mais ceci est un autre sujet).

Bref, ce sont les aléas de l'industrie et que ce soit AMD pour Intel ça peut arriver et il faut faire avec. Donc, ce n'est pas pas un argument de vente là encore.

Ragou', si tu me pets cette familiarité, la discussion était sympa, je pense qu'on peut passer à autre chose et promis, j'ai compris, je vais regarder ce qu'offre AMD à l'avenir!

ps: n'hésite pas à leur envoyer une copie de ce thread, tu mérites une récompense! :D
votre avatar
Pour compléter @ragoutoutou, si tu regardes les offres d'OVH sur du bare-metal on trouve plus d'AMD que d'Intel. Par contre, il n'y a que 3 familles Zen de CPU AMD contre 5 pour Intel. En revanche les modèles d'Intel me laisse penser à juste un effet de renouvellement des stocks et de réutilisation de plus vieilles architectures.
votre avatar
Il continue ce que Pat Gelsinger a fait, concernant la réduction des dépenses.

Il continue aussi ce que Pat Gelsigner a initié, concernant la reprise de maitrise sur le 18 Å. D'aucuns pourrait questionner la sanité des dirigeants allant dans le sens contraire, d'ailleurs, et il y en a beaucoup.

La "remise à plat" en retirant 1 niveau hiérarchique sur 8 (ou plus) me fait doucement rire.

Concernant la "responsabilisation" en entreprise : plus je vieillis, plus je m'en méfie. Le mot n'a en effet pas la même définition dans la bouche de vautours que dans la tête de travailleurs qui souhaitent que l'on valorise leur travail, et n'a ainsi pas les mêmes fins.
Si seulement le discours des dirigeants était univoque avec la compréhension générale…

L'ego a besoin de marquer sa patte, et pourtant on cherche encore la trace.
votre avatar
Oui, surtout que Pat Gelsinger semble plus être quelqu’un qui a appris à concevoir des processeurs et à monter les échelons tandis que Lip-Bu Tan est plus une personne issu du business.

Donc je ne crois pas trop en son discours et il ne fait que prolonger les actions de son prédécesseur en allant plus loin dans les coupes.

Lip-Bu Tan annonce une « remise à plat » d’Intel

  • « Construire un nouvel Intel »

  • Renouer avec la rentabilité

  • Intel 18A attendu au tournant

Fermer