Lip-Bu Tan annonce une « remise à plat » d’Intel
Flat iron

Steve Johnson / Unsplash
Le nouveau CEO d'Intel a confirmé jeudi la mise en œuvre d'un profond plan de restructuration de l'entreprise, sans confirmer le nombre de départs envisagé. Il affiche l'ambition de réduire les dépenses opérationnelles d'1 milliard de dollars par an, prône une culture d'entreprise centrée sur l'IA, et estime que l'avènement du procédé de gravure 18A permettra au groupe de renouer avec d'excellents niveaux de marge, pour ses propres puces comme pour le compte de clients tiers...
Le 25 avril à 10h08
5 min
Économie
Économie
« Nous devons rester focalisés comme des lasers sur l'exécution », a martelé Lip-Bu Tan jeudi soir, lors de la présentation aux analystes des résultats financiers d'Intel pour le premier trimestre. « Laser-focused », l'expression est revenue cinq fois dans la bouche du nouveau CEO du groupe. Elle figure également noir sur blanc dans le courrier interne, envoyé jeudi aux équipes d'Intel, qui pose les bases d'une restructuration de grande ampleur.
« Construire un nouvel Intel »
Cinq semaines après sa prise de fonction, le nouveau CEO d'Intel lance donc officiellement les grands chantiers. Avec, à la clé, une « remise à plat » annoncée de l'organisation d'Intel, motivée par deux objectifs : alléger la structure de décision, et réduire les coûts de fonctionnement.
« On nous considère comme trop lents, trop complexes et trop ancrés dans nos habitudes – et nous devons changer », déclare Lip-Bu Tan, qui affirme avoir déjà supprimé une couche de management intermédiaire au sommet de l'entreprise, en reprenant en direct la gestion des principales directions.
« De nombreuses équipes comptent huit niveaux hiérarchiques ou plus, ce qui crée une bureaucratie inutile et ralentit notre travail. J'ai demandé aux équipes de reconsidérer leurs organisations respectives, en mettant l'accent sur la suppression de ces niveaux hiérarchiques, l'augmentation des responsabilités et la responsabilisation des meilleurs éléments », écrit encore le CEO.
Le mouvement engagé s'accompagnera de coupes franches dans les effectifs, sensibles dès le deuxième trimestre et pendant plusieurs mois, prévient-il encore. Aucun chiffre n'est confirmé, mais d'après Bloomberg, le plan envisagerait de licencier plus de 20 % des effectifs du groupe, soit aux alentours de 20 000 personnes.
Outre la modernisation des processus internes, Lip-Bu Tan annonce par ailleurs une politique de retour au bureau, qui imposera aux salariés d'Intel quatre jours de présence sur site, contre trois précédemment, à compter du mois de septembre. « Ce sera difficile. Des décisions douloureuses seront nécessaires. Mais nous les prendrons, conscients que c'est la clé pour mieux servir nos clients, tout en construisant un nouvel Intel pour l'avenir », conclut le CEO.
Renouer avec la rentabilité
En termes financiers, la restructuration engagée par Lip-Bu Tan doit, selon l'entreprise, permettre de réviser à la baisse ses dépenses de fonctionnement pour 2025 à 17 milliards de dollars (contre 17,5 milliards envisagés suite au précédent plan mis en œuvre à partir d'août 2024 par Pat Gelsinger), puis 16 milliards de dollars en 2026. Intel revoit dans le même temps ses dépenses d'investissement, qui passent de 20 milliards à 18 milliards de dollars pour 2025.
Ces mesures d'économie, associées aux cessions engagées du côté d'Altera (vendu pour 51 % à Silver Lake Capital) et des activités mémoire flash NAND (le second volet de la vente à SK Hynix, initiée en 2020, a été bouclé en mars), sont censées permettre à Intel de retrouver la voie de la rentabilité.
Le premier trimestre 2025 se révèle à ce niveau relativement décevant : Intel a fait état jeudi d'un chiffre d'affaires de 12,7 milliards de dollars sur la période (stable sur un an), assorti d'une marge brute en diminution (36,9 % contre 41 %) et d'un résultat légèrement négatif, avec une perte de l'ordre de 800 millions de dollars. Hors éléments exceptionnels, le groupe parvient tout de même à afficher un bénéfice par action de 0,13 dollar, légèrement supérieur aux attentes.

Les résultats s'accompagnent de prévisions prudentes pour le deuxième trimestre. Elles envisagent une marge toujours en baisse, un résultat négatif et un chiffre d'affaires stable sur un an. C'est, d'après Lip-Bu Tan, à partir de la deuxième moitié de l'année que la situation devrait s'améliorer.
Intel 18A attendu au tournant
Le deuxième semestre devrait en effet coïncider avec la montée en cadence du procédé de fabrication Intel 18A, suivie du lancement des puces Panther Lake qui devraient, selon David Zinsner, directeur financier d'Intel, offrir des marges supérieures à celles des processeurs Lunar Lake (Core Ultra 200V). L'entreprise a d'ailleurs renouvelé jeudi son objectif, déjà affirmé par Gelsinger en 2024, de rapatrier 70 % de la production de Panther Lake dans ses propres usines, en Intel 18A.
La firme de Santa Clara affiche enfin ses ambitions en matière d'intelligence artificielle, segment sur lequel elle accuse un retard significatif, à la fois face à NVIDIA ou AMD, mais aussi face aux solutions plus spécialisées développées en interne par les géants du secteur. « Nous devons repenser notre stratégie IA avec un focus sur les secteurs émergents du domaine (...) Notre objectif sera d'utiliser notre vision intégrée du système et de la plate-forme pour développer des solutions d'IA complètes qui permettent une plus grande précision, une meilleure efficacité énergétique et une meilleure sécurité à nos clients entreprises », déclare Lip-Bu Tan.
Lip-Bu Tan annonce une « remise à plat » d’Intel
-
« Construire un nouvel Intel »
-
Renouer avec la rentabilité
-
Intel 18A attendu au tournant
Commentaires (61)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 25/04/2025 à 10h48
https://www.instagram.com/p/DI0Gl5xCWpX/
Le 25/04/2025 à 11h29
Pour faire des films désormais, plus besoin de s'embêter à embaucher des acteurs, à faire des costumes, à choisir des décors, etc. Non, la totalité d'un film peut aujourd'hui se faire sur ordinateur (je parle de tous les films, pas uniquement les films d'animations ou les dessins animés).
Le 26/04/2025 à 13h44
Or là on loue les progrès techniques, mais curieusement le système social & économique en vigueur qui permet à une petite partie des propriétaires & actionnaires de creuser plus encore l'écart n'est quant à lui pas remis en cause, encore moins ouvert à un quelconque progrès.
Bref, c'est pile je gagne, face tu perds. Un peu facile.
Le 28/04/2025 à 00h06
Le 25/04/2025 à 16h30
Le 25/04/2025 à 10h50
Le 25/04/2025 à 10h55
Le 25/04/2025 à 11h07
Le 25/04/2025 à 11h20
"Le média américain évoque une réduction de l'ordre de 20 % des effectifs totaux du groupe, motivée par la volonté de « réduire la bureaucratie » et reconstruire une culture d'entreprise « basée sur l'ingénierie ». "
Modifié le 25/04/2025 à 13h35
Versons gaiement dans cette gabegie énergétique sans considération pour les dégâts sociaux et sociétaux : ça n'est pas comme si la planète avait besoin que l'on réduise la consommation, ni comme si nos sociétés "modernes" souffraient d'une brutalisation/inhumanité croissante.
Le 25/04/2025 à 11h14
Si on fait un parrallèle entre un microprocesseur moderne et une société, on a un employé qui travaille h24 7/7 sous amphétamines et 99 autres pour le soigner, et l'alimenter, d'on un pour lui traduire le travail dans sa vraie langue.
Tout cela est lié à deux choses:
1 l'écart délirant entre la vitesse des coeurs et celle des bus externes, impliquant un recours massif aux caches mémoire.
2 une architecture x86 que l'on peut qualifier de boulet à cause de la spécialisation des registres et du faible nombre de registres. C'est comme travailler sur un bureau format A4 ou sur un écran de téléphone Doro.
Bref, l'architecture des processeurs x86 est l'antitèse de celle d'un réseau de neurones où la mémoire comme les calculs sont totalement distribués. Mal barré pour faire de l'IA sur cette base.
Le 25/04/2025 à 11h49
Le faible nombres de registres est un problème mais il y a aussi une responsabilité des dev. Oui Intel a bien conscience de ce problème puisque l'APX vise à augmenter drastiquement ce point. Seulement ça ne sert rien d'augmenter ce nombre de registre si les compilateurs (et les développeurs) ne savent pas les exploiter dans leur code. Actuellement, GCC dispose d'une option permettant d'améliorer l'usage de ses registres, mais elle est peu utilisé en pratique (d'après les nombreux Makefile que j'ai vu passé dans ma vie). Clang ne dispose pas de cette option est à du mal à exploiter correctement cette possibilité.
MSVC a une option de mémoire mais qui de compétent utilise une merde pareil ?
L'x86 n'est pas fait pour faire de l'IA pour les raisons que tu as expliqué et c'est la raison de la présence de circuit plus spécialisé (e.g., Ryzen AI). Bien qu'on puisse entraîner et inférer un NN, c'est plus pour "fun" ou du debug ou R&D de prototype qu'autres choses (et encore il faut de l'AVX-512 de mémoire).
Cette annonce est dirigé vers les marchés, les actionnaires et la presse mainstream. En aucun cas, elle vise les technophiles.
Le 26/04/2025 à 14h51
Je dirais plus que c'est une fuite en avant dont la responsabilité est partagée à 50% entre les développeurs qui ne veulent pas se remettre en question (et certainement leurs donneurs d'ordre qui ne veulent pas les former à ces changements), et les fondeurs qui continuaient de mettre en avant la performance des cœurs unitaires.
Il aurait fallu multiplier les cœurs depuis longtemps au lieu de les surcadencer aux prix d'une consommation que j’évaluerai à au moins 300% (consommation dynamique liée au carré de la fréquence et une fréquence deux fois trop grande en moyenne selon moi). Mais cela implique de rendre les traitements parallélisables donc d'adapter les manières de développer.
Si, au lieu de continuer sans cesse de baser les évolution quasi exclusivement sur la vitesse des cœurs, les architectures étaient devenues plus multi-cœur comme maintenant, cette évolution aurait démarrée plus tôt. Avec un énorme gain sur les consommations électriques.
Le 26/04/2025 à 15h21
Niveau application, (or avènement du cloud) les besoins sont concentrées dans certains domaines de niches (calculs d'ingénieries, recherches académiques). L'IA, les jeux vidéos dépendent bien plus des GPUs (et c'est aussi vrai pour certains calculs indu.). Bref ce n'est pas majorité.
Et enfin, écrire un code en parallèle efficace (et sans trop de bug) n'est toujours pas une tâche facile. Même si certains langages offrent des accès simplifiées (e.g., Python, Rust) dès que ça devient un élément critique ils faut revenir des langages plus pratiques (e.g., C++). Sauf que comme tu le mentionnes les donneurs d'ordres ont, pour leur majorité, rien à carrer de ces choses là.
Par contre la consommation électrique des coeurs je ne sais pas si vrai que ça. Quand tu compares un CPU ARM (e.g., Ampère) avec de l'x86, oui l'efficacité énergétique par coeur est plus prononcé chez ARM que l'x86. Mais à lors que tu tires dessus à fond (simulations numériques), l'écart se réduit entre les deux.
Selon moi, si tu souhaites baisser la consommation énergétique de ces bestioles, je verrais plutôt une simplification de l'architecture et notamment du front-end des CPU. Beaucoup de transistors sont alloués aux décodages des instructions (sur l'x86), aux optimisations internes, à la détection de boucles.... Vu la puissance d'un CPU à leur actuelle en terme de puissance brutes, on pourrait s'appuyer plus sur les compilateurs (et les développeurs) pour optimiser les codes en amonts et ainsi réduire significativement le nombres de transitors.
Mais là encore, ça ne marchera pas en réalité car si tu économises du transitors, ils seront remis ailleurs (plus de coeurs ? plus d'unités de calculs ?). Ensuite ça demande d'avoir des développeurs formés à l’optimisation et des donneurs d'ordres conscient de ces enjeux. En fait, ça demande aussi bien aux producteurs, qu'aux utilisateurs de revoir leur lien avec l'informatique dans nos sociétés. Et ça c'est pas gagné du tout.
Le 25/04/2025 à 12h05
Et puis une carte mère n'est pas un CPU. Ce ne sont pas les mêmes distances...
Oui et non. Dans l'absolu, c'est suffisant (source, destination, accumulateur / compteur). Moins confortable (comme l'était un 68k) mais suffisant. D'où le cache. Il peut éventuellement servir d'extension pour les registres. Pour peu qu'on sache le faire ou que le langage utilisé le permette (les structures en Cpp par ex).
Aussi, ce sont les jeux d'instruction supplémentaires qui apportent des registres. Plus ou moins opérables suivant les cas. Mais bon ça stocke et on peut faire des trucs.
Comme le rappelle @BlackLightning c'est aussi un problème de dev et de compilateur.
Le 26/04/2025 à 15h19
L'augmentation drastique des fréquences qui a eu lieu à l'époque des Pentium 3 n'était pas la seule voie possible pour augmenter les performances. C'est cette augmentation déraisonnable des fréquences qui a causé l'apparition de pipelines à 50 étages, l'apparition des bidouilles à l'origine de bon nombre de failles actuelles et la course en avant de la taille et du nombre des caches.
Et puis le problème des performances n'est pas lié qu'au processeur, les développeurs ont une grande responsabilité dans le fait que, malgré l'augmentation considérable des performances, les services rendus se dégradent https://fr.wikipedia.org/wiki/Loi_de_Wirth
Suffisant, oui puisque cela fonctionne mais cela engendre beaucoup de déplacements de données pour libérer les registres spécialisés, via la pile ou via la mémoire. Si on fait des statistiques sur le type d'instructions utilisées dans un programme, on peut séparer les instructions en deux catégories:
- les instructions productives : calculs, tests, rotations..
- les instructions non productives : déplacements de données, saut inconditionnels, sauvegarde et restauration de contexte.
Si on compare le taux d'instruction non productives pour le même algorithme implémenté dans deux jeux d'instructions, on peut comparer l'efficience de l'architecture et à ce jeux, le x86 est très mal placé face aux ARM par exemple mais plus globalement face aux processeurs ayant des registres plus nombreux et moins spécialisés.
Le 26/04/2025 à 15h50
En revanche, on a 31 GP registres pour l'ARM v8 et 16 pour l'x86-64 (32 si on considère l'APX, mais ce n'est pas encore courant).
Néanmoins augmenter les registres implique que les compilateurs sachent les utiliser (et les dev aussi). Et même avec plus de registres, ce n'est pas toutes les implémentations d'algorithmes qui peuvent les utiliser.
Par contre mesure l'efficience d'une architecture en comparant des registres ça me paraît pas suffisant, tu préfères pas mesurer/estimer l'IPC dans ce cas ? Car le jeux d'instructions c'est une chose mais ça ne fait pas tout.
Le 26/04/2025 à 21h25
Après, je ne suis pas forcément d'accord avec toi pour les compilateurs. Cela fait bien longtemps par exemple que gcc gère les processeur ou dsp avec registres généraux en grand nombre, des plus petits 8 bits aux 64 bits.
Le 26/04/2025 à 19h04
Vouloir utiliser du tsmc N2 au delà du 0.96V est juste une aberration pour montrer un gros kiki, et le temps d'usage est limité pour le benchmark. Au delà de cet usage, ça ne tient pas dans le temps :
Les lois de l'électromigration font que tu peux performer sur une durée de vie courte.
Mais ça reste un critère de sélection, le benchmark.
Pour un usage normal sur 10ans, bien sûr qu'il faudrait diminuer les fréquences et coder différemment.
Ce n'est pas un hasard si les moteurs F1 tournent à 20k tours/min pour un circuit, et les camions à 4k tours/min pour 2000 Mm.
Les bateaux sont en deça de ce régime encore pour une question de rendement.
Bref, Intel se cherche un créneau depuis 10 ans; ils ont bénéficié de leur fonderie en avance sur le temps pendant quelques années. Aujourd'hui ils ramassent leur pots cassés.
Courage au 80% restants pour trouver une proposition crédible.
Le 26/04/2025 à 19h15
Je vais dans le sens de @BlackLightning pour la partie technique.
Pour l'augmentation des fréquences, cela tient à deux choses.
Puisque c'est soit augmenter les fréquences ou paralléliser plus (je dégrossis, mais tu saisis très bien ce à quoi je fais allusion).
Paralléliser c'est plus compliqué. Ça agrandit les BUS et ça force à repasser par un processus de validation des normes.
Augmenter les fréquences est bien plus aisé. À un point où un fondeur se débrouille pour construire un chip qui lui permettra de le décliner en plusieurs fréquences (hein Intel) ou activation d'unité (hein Nvidia).
L'autre argument, c'est le marketing. En résumé : "Tu la vois ma grosse fréquence là, tu la vois bien ! Hein !".
Et ce n'est pas faux qu'un PC de l'époque à 16 MHz était moins efficace qu'un micro familial type 'ST ou Amiga) qui eux tournaient à 7 Mhz. Mais 16 Mhz c'est plus vendeur.
Le 26/04/2025 à 21h17
Maintenant, si on cherche une manière d'augmenter la performance de nos logiciels, on en arrivera forcément à devoir réapprendre à programmer proprement et vu que les limites de la physique sont atteintes, c'est une option qui va, je l'espère, redevenir intéressante.
Cette remise en cause de la manière de développer est nécessaire à la fois à cause de la stagnation des fréquences et du fait de l'augmentation progressive du nombre de cœurs.
Le 25/04/2025 à 11h49
Intel se prend une claque par AMD qui sort les Ryzen. AMD est bien revenu dans la course.
Intel n'a jamais percé dans le marché du teléphone mobile.
Si c'est bien avéré pour les chinois. C'est un obstacle de plus à franchir pour Intel.
Le RISC-V est tout de même bien intéressant.
Le 25/04/2025 à 12h17
A mon humble avis, c'est surtout Intel Foundry qui pose problème. Je m'attends à une cession ou alors si le noeud 18A rencontre du succès, un rapprochement slous forme de fusion/acquisition.
Le 25/04/2025 à 12h41
Le 25/04/2025 à 12h50
Le 26/04/2025 à 08h04
Mais je ne suis pas représentatif, il doit y avoir une véritable percée que je n'ai pas encore constaté.
Le 26/04/2025 à 08h26
Le 26/04/2025 à 07h47
Le 25/04/2025 à 17h00
https://www.forbes.com/sites/johnwerner/2024/11/07/amd-surpasses-intel-on-datacenter-sales/
Nous ne sommes plus en 2010.
Le 26/04/2025 à 08h01
Je ne suis pas certain de moi, donc à vérifier mais il me semble que sur l'offre Epyc vs Xeon, les chiffres sont peut être différents.
ca ne change rien à la bonne performance d'AMD mais ce n'est plus la même histoire.
Le 26/04/2025 à 11h49
Si on regarde les chiffres annoncés par Lisa Su, on se rend compte qu'effectivement les accélérateurs MI sont pour beaucoup dans ces chiffres, mais au final ça montre que les Epyc on fortement réduit l'écart avec les Xeons et qu'AMD a fermement le pied dans la porte du marché datacenter là où on ne peut plus trop s'attendre à une progression d'Intel si les ventes de Gaudi3 ne grimpent pas.
Le 26/04/2025 à 15h02
Il faudra qu'AMD convainc sur ces 3 axes pour percer et cela prend du temps.
Maintenant, il est bon d'avoir 2 fabricants en concurrences pour dynamiser ce marché.
Le 26/04/2025 à 18h20
Pour le support et la fiabilité, rien à redire sur AMD.
Reste que AMD est un adversaire redoutable pour Intel sur des questions cruciales comme les performances par watt et par euro, ce qui peut avoir une importance non négligeable pour le renouvellement de matériel dans un centre de calcule à pleine capacité.
Le 27/04/2025 à 12h06
La réputation de qualité ou de fiabilité s'acquièrent avec le temps. Ce qu'Intel démontré et ce qu'AMD commence a vouloir démontrer.
Cela changera avec le temps sans doute avec les projets gagnés par AMD mais pour le moment, Intel possède encore une image de fiabilité.
On peut très bien saluer la nouveauté AMD tout en respectant la fiabilité Intel, nous ne sommes pas obligés d'être manichéens non?
Le 27/04/2025 à 15h28
A l'heure actuelle, à part pour certains cas de niche , il n'y a plus vraiment de raison fonctionnelle de prendre Intel plutôt qu'AMD, et pour les raisons non-fonctionnelles, AMD commence à avoir un avantage qui devient difficile à ignorer si tu fais des appels d'offre non-biaisés.
Le 30/04/2025 à 09h49
Ces test monopolisent une équipe assez importante et nous imposent de coller au marché du matériel. A date, nous ne faisons qu'une seule plateforme: Intel. Nous n'avons objectivement pas la taille de doubler cette équipe pour porter les tests sur AMD (parce que nous devrions maintenir les tests Intel quand même..) et sais tu pourquoi il n'y pas de débat sur le sujet?
Parce qu'il n'y a pas de demande de la part de nos clients.
Je vais donc te retourner ton, argument d'autorité:
" il n'y a
pluspas vraiment de raison fonctionnelle de prendre AMD plutôt qu'Intel".Le 30/04/2025 à 12h35
Enfin, bon, pour te retourner ton argument, le logiciel de ta boîte n'est certainement pas représentatif de l'ensemble du marché du centre de calcule.
Le 30/04/2025 à 13h34
Ca ne veut pas dire qu'il n'y en aura pas et alors nous devrons étudier la question à ce moment là.
Pour le reste j'acquiesce sur les programmes de certification mais ce n'est pas propre aux éditeurs de logiciel et, à mon avis, la pratique est de moins en moins répandue mais je peux me tromper.
Je te laisse cependant le terme de 'truand' qui n'a pas sa place ici sauf si tu considères Intel comme tel.
S'agissant de CPU x86, tu admettras toi-même que le choix est nativement restrictif faute d'acteur sur ce marché.
Pour ton info, nous avons décidé de supporter tout ce que l'OS (Windows/Linux) peut supporter en terme de technologies, c'est donc tout sauf restrictif, à la limite ce n'est pas exhaustif, c'est vrai. Mais on ne peut tout dev ou tout supporter, pas avec la taille de notre R&D.
Perso, je suis très favorable aux architectures ouvertes.
ps: Ne me retourne pas un argument que je t'ai retourné, ce n'est pas poli..
Le 30/04/2025 à 14h06
Reste que vous n'avez peut-être pas de demande sous amd parceque vous vous adressez à des clients très conservateurs, ou capables d'avoir intel et amd dans leur centre de calcule.
Ce n'est en tout cas pas sur un cas que l'on peut décréter que AMD est loin derrière Intel, AMD représente pour le moment un peu plus de un cpu sur trois vendus en centre de calcule, on est plus dans une situation où ils seraient anecdotiques.
Le 30/04/2025 à 19h03
- 14 réf base Intel
- 5 réf base AMD
En quad socket:
- 2 Réf Intel
- 0 réf AMD
En mono socket:
- 4 réf Intel
- 5 réf AMD
Je pense que c'est clair: vu que j'utilise du double & quad socket, je ne vois pas d'AMD car il y a très peu d'offres de la part des intégrateurs/assembleurs comme Dell.
Tu vas me dire que c'est spécifique à Dell, oui mais c'est aussi dans de nombreux cas le matériel retenu dans les projets que je vois passer. Mais là encore, il se peut que cela évoluera bientôt.
Je te remercie pour cette discussion intéressante.
Le 02/05/2025 à 10h55
Question densité, il est vrai que si tu vas chez les autres constructeurs, tu auras aussi du mal à trouver du quad socket AMD. Il faut croire que ce marché est occupé à s'éteindre vu le peu de fois que j'en croise encore en entreprise (derniers usages où j'en vois encore parfois: gros serveurs de base de données ou des systèmes avec i/o fortement parallélisés tendance mini)
Maintenant, soyons réalistes, les cpu's modernes offrent tellement de cœurs par socket que le quad socket perd complètement son intérêt à part certains cas précis et rares (où la bande passante bus / ram cumulée est l'effet principal recherché), avec un nombre de cœurs par socket pas super élevé.
Même le dual socket est malmené par cette tendance: quand tu as 192 cœurs sur un socket, tu n'as plus forcément besoin d'un deuxième. Je vois de temps à autres des infras de virtualisation qui refusent de monter au delà de 128 cœurs par serveur lame car 128 cœurs en cas de crash représente une trop grande quantité de vm à redémarrer à la fois pour le reste de l'infra et risque de faire saturer d'autres ressources (réseau, san/nas) et de déstabiliser d'autres vm's.
Le 02/05/2025 à 14h15
Le bi-socket (2x32 pCPU) est un bon compromis dans mon cas d'usage où je ne dépasse pas 8-10 VMs par host avec 4 à 8 vCPU.
Je stack un autre host sur la même base jusqu'à la volumétrie cible.
Le compute fonctionne plutôt bien (enfin sous Linux, sous Windows, il y a des écarts parfois).
Je dois le dire, je n'ai pas eu beaucoup de retour négatifs sur Xeon depuis 2006 (bare-metal et virtualisation).
Je souhaite à AMD le même niveau de fiabilité.
Le 30/04/2025 à 19h36
AMD surpasse Intel pour du calculs. Si ton logiciel n'est pas orienté calculs/simulations lourdes, qu'il ne demande pas un IPC de malade ou autres alors oui Intel ou AMD le client s'en fiche car il ne voit que le sticker.
Le 02/05/2025 à 14h20
Les archis du client se documentent pour vérifier ces points mais à la fin, c'est l'engagement des contractants qui paieront l'indisponibilité du service. Et ca peut couter très très cher d'avoir des aprioris.
Le 02/05/2025 à 14h58
Maintenant il est vrai qu'on pourrait aussi regarder la stabilité des performances suite à des mises à jour du microcode pour des vulnérabilités au niveau des cpu's. Ces dernières années j'ai l'impression qu'Intel n'a pas impressionné positivement en la matière. Mais AMD n'est pas forcément à l'abri d'une opportunité de décevoir.
Le 03/05/2025 à 12h46
Quel est le recul et/ou le feedback que je peux donner sur le plan fiabilité sur ce "nouveau" composant surtout s'il est critique?
Si ma réponse est "peu ou aucune", et si le marché cible prévoit des pénalités SLA, la position de l'intégrateur sera invariablement celle de privilégier l'expérience fiabilité à la performance brut sauf à considérer un véritable gain qui pourra se traduire sur un coût global sensiblement diminué.
Donc oui les intégrateurs sont conservateurs parce qu'ils doivent gérer des risques financiers..
Maintenant comme tu sembles bien connaitre AMD, peut être as-tu des statistiques à faire valoir?
Le 04/05/2025 à 12h17
Mais de toute façon, les nouveautés ne font pas parti des éléments critiques car il faut un minimum de recul. Déjà pour le hobbyiste prendre le dernier processeur sur le marché fraichement sorti n'est pas recommandé. Alors pour un pro, qui plus est avec des SLA, c'est joué à la roulette russe avec plus d'une balle dans le barillet.
Sans plus de détails, difficile de faire valoir plus AMD ou Intel. Juste qu'AMD a réussi avec Zen à prendre la tête, et que maintenant ne pas considéré AMD dans un choix technique est une idiotie.
D'ailleurs de nombreux supercalculateurs reposent sur de l'AMD (le dernier en date est Frontier le plus puissant au monde actuellement) alors qu'avant Intel dominait ce marché. Preuve d'un changement qui n'est pas anodin.
Après, comme l'a mentionné @ragoutoutou il y a d'autres choses en prendre en considération que le CPU pour la fiabilité.
Le 05/05/2025 à 17h06
C'est là que l'expérience du SI joue: il n'a jamais eu de problème ni dans le support, ni avec la supply chain avec Intel. Les performances sont connues et testé par l'éditeur. Sauf action de lobbying de la part d'AMD pour acheter des projets, pourquoi l'intégrateur changerait-il ses choix?
Le 04/05/2025 à 20h46
Par contre, il y a des statistiques disponibles sur les fabricants de solutions serveur et laisse moi te dire que d'après les derniers chiffres disponibles (2023) , en appliquant ta manière de penser, tous ceux qui utilisent du x86 au lieu de cpu's IBM power sont des irresponsables car il y a un gigantesque fossé entre les serveurs unix IBM et les serveurs PowerEdge Dell que je ne risque vraiment pas de retrouver entre des cpu's Intel vs AMD.
Pour le reste, Amd n'est pas un nouvel acteur, et je n'ai jamais vu un de leurs produits datacentre poser problème question stabilité (bon je n'ai pas pu voir la génération "Bulldozer" car les perfs étaient très décevantes)
Les problèmes de stabilité que j'ai pu voir tant avec de l'Intel que de l'AMD: modules de ram qui lâchent, alimentations qui lâchent, cartes mères qui lâchent, contrôleurs disque qui lâchent, interface réseau qui lâchent, ... en général, ce ne sont pas les cpu qui lâchent les premiers, mais tout ce qu'il y a autour.
Le 05/05/2025 à 17h02
Ce que tu dis est vrai sur la fiabilité IBM mais on ne fait pas de Z chez nous et on ne développe pas non plus nos logiciels sous Cobol. Aussi tu ne m'en voudras pas de considérer cela hors périmètre.
Le 05/05/2025 à 21h48
L'IBM i fait TOUT. Du RPG, Cobol, C, C++, java, et j'en passe.
Ha meh !!!
Le 06/05/2025 à 12h44
Modifié le 06/05/2025 à 00h28
Je ne vois pas trop à l'étape où nous sommes comment Intel aurait un avantage particulier sur AMD alors que les marques de serveurs sont bien rodées à l'exercice. S'ils ne sont pas compétents pour faire de l'amd stable, ils ne le sont sans-doutes pas non-plus pour de l'Intel.
Pour le reste, je n'ai pas parlé des systèmes Z mais des serveurs Power S et E qui sont des machines pouvant faire tourner du Unix ou du Linux avec toutes les technologies inhérentes à ces environnements...
Le 06/05/2025 à 12h48
pour le reste, oui, j'ai blaguais avec un tite pointe d'ironie, tu ne m'en voudras pas.. ?
Le 06/05/2025 à 15h59
Le 04/05/2025 à 12h18
Le 04/05/2025 à 19h55
Le problème est qu'avec les CPU's ces dernières années, les clients se retrouvent parfois dans des situations où la mise à jour de microcode couvre une vulnérabilité sévère, ce qui les met dans la situation où ils doivent choisir entre accepter le risque sécurité ou accepter la perte de capacité, et devoir faire ce choix et en être responsable n'est pas chose agréable, et le niveau de perte de performances pour certaines vulnérabilités extrêmement sévères n'a pas laissé une impression de produit stable concernant les cpu's Intel.
Après la catastrophe de Specter / Meltdown dont les correctifs ont pu provoquer des pertes de performances à deux chiffres sur certains cpus Intel, on peut comprendre la popularité d'AMD pour le secteur des solutions partagées iaas/paas .
Le 06/05/2025 à 18h43
Et ce n'était pas tant le problème de CPU en lui-même mais la façon dont tous les acteurs IT (surtout les consultants qui recherchent de la facturation) nous sont tombés dessus en mode panique (la blague..).
Fort heureusement, perso, je suis très conservateurs sur les KPI et sur les benchs. J'ai une marge de manœuvre d'environ 20% (enfin qui a fondue comme neige au soleil depuis que les SSI imposent des outils qui bouffent 10% de CPU en moyenne mais ceci est un autre sujet).
Bref, ce sont les aléas de l'industrie et que ce soit AMD pour Intel ça peut arriver et il faut faire avec. Donc, ce n'est pas pas un argument de vente là encore.
Ragou', si tu me pets cette familiarité, la discussion était sympa, je pense qu'on peut passer à autre chose et promis, j'ai compris, je vais regarder ce qu'offre AMD à l'avenir!
ps: n'hésite pas à leur envoyer une copie de ce thread, tu mérites une récompense!
Le 26/04/2025 à 18h33
Le 26/04/2025 à 19h36
Il continue aussi ce que Pat Gelsigner a initié, concernant la reprise de maitrise sur le 18 Å. D'aucuns pourrait questionner la sanité des dirigeants allant dans le sens contraire, d'ailleurs, et il y en a beaucoup.
La "remise à plat" en retirant 1 niveau hiérarchique sur 8 (ou plus) me fait doucement rire.
Concernant la "responsabilisation" en entreprise : plus je vieillis, plus je m'en méfie. Le mot n'a en effet pas la même définition dans la bouche de vautours que dans la tête de travailleurs qui souhaitent que l'on valorise leur travail, et n'a ainsi pas les mêmes fins.
Si seulement le discours des dirigeants était univoque avec la compréhension générale…
L'ego a besoin de marquer sa patte, et pourtant on cherche encore la trace.
Le 27/04/2025 à 19h36
Donc je ne crois pas trop en son discours et il ne fait que prolonger les actions de son prédécesseur en allant plus loin dans les coupes.