L’entreprise est dans une mauvaise passe. Ses derniers résultats sont loin de l’éclat d’autrefois : des pertes s’élevant à 700 millions de dollars pour le quatrième trimestre 2022, pour un chiffre d’affaires de 14 milliards de dollars, en baisse de 32 % sur un an. Un recul à l’image de ceux constatés dans les composants PC (- 36 %) et datacenter (- 33 %).
En conséquence, Intel a confirmé à Reuters qu’elle allait procéder à une baisse des salaires. Cette baisse concernera essentiellement les postes intermédiaires, à hauteur de 5 %, et grimpera jusqu’à 25 % pour le PDG, Pat Gelsinger.
Selon SemiAnalysis, cité par MacG, plusieurs employés ont affirmé que les primes trimestrielles allaient disparaître également, que les augmentations au mérite étaient mises en pause et que l’épargne retraite allait passer de 5 à 2,5%.
Selon un porte-parole de l’entreprise, ces changements sont « conçus pour avoir un impact plus significatif sur notre population de cadres » et « aideront à soutenir les investissements et la main-d'œuvre globale ».
Commentaires (35)
#1
Ca énerve un peu dans un contexte inflationniste:
#2
Je suppose que c’est parce que les actionnaires (et les dirigeants) savent (ou du moins pensent) qu’Intel est morte à moyen/long terme. Apple a réussi le tour de force de démontrer qu’on pouvait faire des trucs de fou avec de l’ARM pour moins cher, plus moderne et moins energivore que le bon vieil x86 dont Intel n’arrive pas à se dépêtrer.
Intel est pieds et mains liés au marché du PC Windows. Ils ont rien pour du mobile, rien sur l’embarqué, rien sur l’IA, ils commencent à se faire bouffer sur le serveur, et même sur le marché du PC qui est déjà à l’agonie, Apple envoie le signal à l’industrie que l’ARM c’est le feu.
Il leur reste le PC Windows et c’est tout. Déjà que ce marché est sur le déclin, Microsoft est en roues libres complet sur Windows.
Intel va probablement pas crever mais ils sont très probablement en train de devenir un vieux géant has been qui vit de la dette technologique de ses clients, comme IBM. Donc c’est le moment de récupérer le pognon.
#2.1
Apple envoie un signal que dans un environnement fermé et maitrisé, un processeur ARM c’est le feu (et encore, faut voir à quel prix).
Pour le reste, c’est moins sûr.
#2.2
Excellent résumé !
#2.3
Non.
Parce qu’Intel, ce n’est pas que des CPUs x86.
#2.5
Si parce ce que chez Intel seuls les x86 et les puces réseau sont les seuls produits qui ont été de bonne facture.
Tu as essayé un Itanium ? une CG Larrabee ?
#2.8
Itanium oui.
Optane ?
Wifi ? Les modems mobiles ? 10G /40G / 100G ?
Les FPGA Altera ?Les ASIC ?
Sans compter la capacité de production.
Bref, y’a pas que le x86 qui compte.
#2.4
ARM, c’est tellement le feu qu’il est difficile d’avoir un support des drivers pendant plus de 3ans pour la plupart des constructeur de smartphone. ARM, c’est un bordel sans nom, designé pour faire des SOC custom pour de l’embarqué avec des composants processeurs et co-processeurs tout aussi custom. Alors, oui, ça marche, oui c’est efficace car dans un SOC, il y a un produit destiné à un usage bien spécifique. Dans le cadre d’un environnement matériel et logiciel contrôlé, maitrisé entièrement de bout en bout par une seul boite et si tu ajoutes en plus la capacité de pouvoir ignorer l’héritage passé, oui ça marche comme le fait Apple. Sauf que dans le reste du marché, il n’y a pas qu’une seul boite qui est impliqué, est l’absence de standardisation des SOC ARM se trouve être un énorme défaut.
Pour l’IA, Intel possède des solutions matériels mais à l’heure actuelle, ils poussent beaucoup des solutions logiciels (très certainement pour préparer le terrain). Sa solution logiciel OneAPI par exemple et devenu la solution utilisé par défaut dans la bibliothèque Tensorflow (plus exactement la partie oneDNN de oneAPI) et possède un support sur la majorité des bibliothèques comme pytorch, numpy, scipy, XGBoost… et même carrément tout un environnement python.
#2.6
Je sais pas si l’absence de standardisation est un si gros problème. On arrive bien à faire tourner du Linux sur du arm. Je dis pas que c’est un simple travail, mais Linux y arrive bien. Mais je dois manquer un point ou plusieurs, non ?
Après la standardisation, ça peut également venir. Si on ajoute un standard ARM sauce PC, on aura peut-être un renouveau mais surtout une plus grosse concurrence possible.
Pour l’IA chez Intel, j’ai toujours pas vu du matériel en particulier. Est-ce qu’ils arrivent à concurrencer Nvidia en terme de calcul ? Oui, Intel a très gros avantages c’est qu’il offre un bon support de ses produits, même pour Linux. Nvidia, même dans un calculateur sous Linux, ça peut-être parfois un peu coton.
#2.7
Pour les PC ARM, il faudrait en 1er lieu un truc qui fasse le boulot du BIOS / UEFI afin de pouvoir choisir l’OS qu’on souhaite utiliser.
Aujourd’hui, tu as une image d’installation par type d’implémentation des SoC … ce qui n’est pas la panacée pour les éditeurs.
#2.9
Le problème, c’est plus à la base de la base. C’est toute la partie démarrage (boot) et accès aux composants, et a priori il faut du code des fichier de configuration spécifique pour chaque carte pour avoir un truc qui démarre. Sur un PC, il y a le BIOS/UEFI et un standard IBM PC, il n’y a pas de cas par cas.
#2.10
#3
Intel a quelques marchés bien à sa botte, tout ce qui concerne les processeurs dans les serveurs pour mettre des ESX et tout le bordel. Certes sa baisse le marché pro mais c’est du Intel Xeon partout.
C’est sur le marché grand publique où ils ont perdu des plumes. Déjà Apple en ayant avec réussite fait une transition vers du ARM au détriment d’Intel. AMD avec les Ryzen s’en sort bien. Et leur incursion avec les GPU ARC n’est pas encore prêt de détrôner ou à minima se faire un nom fassent aux RTX.
C’est dans ses moments là où devrait taper sur les dividendes, gros salaires/bullshit job et laisser la R&D tranquille, sans eux pas de futur.
#3.1
Est-ce que la R&D est encore la solution ? N’a-t-on pas atteint un palier technologique qui fait que tous les concurrents arrivent au même niveau ?
Dans un cas comme celui-là, la baisse des prix et des marges est inéluctable.
Je me suis dit la même chose.
#4
Moins cher, ça reste à prouver pour les puces Apple ;)
#4.1
Moins cher à fabriquer pour Apple pas pour la facture du client
#4.2
Je n’en suis pas si sur, les SoC Apple sont il me semble bien plus gros que les CPU x86, donc ils doivent coûter cher à produire.
#5
Sur l’embarqué, ils ont eu les Xeon-D et Snowfish qui ont fait les premiers produits 5G des 2 équipementiers d’infra mobile qui nous reste en Europe. Certes, il y a eu des problèmes tant côté client (revenir sur le x86 de ses études quand on a fait 1 ou 2 décennies de MIPS ou PowerPC selon qu’on était chez Cavium ou Freescale, on se bouche le nez) que fournisseur (support pas cadré pour ces demandes, mais cela s’est amélioré… et foutus BIOS imposés)… Mais au final probable que tes appels mobiles passent par des équipements basés sur ses SoC Intel.
Niveau RISC-V, ils marchent avec SiFive après quelques errements également. Il y a justement une place à prendre dans l’embarqué critique après la fin MIPS+PPC à laquelle ne peuvent prétendre ni le x86 (pb de déterminisme) ni ARM (pétri d’états indéfinis).
Le changement de CEO l’année dernière me semblait pour ma part remettre la technique au pouvoir après les ravages de la finance.
#6
Coté serveur c’était un peu le désert ces derrières années :
Une moitié de gamme sur la 3eme génération scalable, une différence de perf pas exceptionnel avec la 2eme génération et peu d’évolution techno.
AMD a du bien grignoter des parts de marché…
Sa reprendra surement avec les Scalable 4eme génération (Sapphire Rapids) qui arrivent (DDR5, du PCIe gen5, capacité RAM qui explose, …). Mais pas sur qu’ils revoient les clients passé sur AMD entre temps !
Ils faut qu’ils réapprennent a avoir de vrai concurrents
#7
Comme Intel n’arrive pas à suivre AMD ils baissent leurs prix pour préserver leurs parts de marché.
J’en ai profité pour prendre un 13700k qui du coup a un excellent rapport qualité/prix (financé par leurs 700 millions de pertes et les baisses de salaire d’après la brève).
Leur stratégie a marché car sans cela j’aurais pris du AMD. Mais avec l’offre d’Intel ça aurait signifié payer beaucoup plus pour les même perfs, même si les CPU d’Intel sont un peu moins efficaces énergétiquement.
#7.1
J’ai regardé vite fait chez LDLC
13700k : 589€
7700x : 449€
Sur d’autres sites j’ai l’impression de conserver une différence en faveur d’AMD.
Du coup … je ne comprends pas ton message.
Surtout que j’ai assumé qu’Intel était plus performant énergétiquement avec les cœurs “efficiency”.
Je n’ai pas suivi en détail la dernière génération, j’ai loupé un truc ?
#7.2
En terme de perf, le 13700k est plutôt comparable avec un 7900x. (mais je remarque beaucoup de promos sur les Ryzen donc AMD fait des efforts pour rester compétitif).
Il y a aussi le fait que les cartes mères AM5 et la DDR5 rendent la plateforme d’AMD un peu plus chère alors qu’il n’y a pas de materiel PCIe 5 disponible actuellement..
Les coeurs efficiency permettent de bonnes perfs en multicoeur en permettant de ne pas exploser l’enveloppe thermique. Mais Intel reste sur du 10nm alors que AMD est en 5nm. La dernière génération AMD est significativement plus efficace énergétiquement:
https://www.tomshardware.com/news/intel-core-i5-13600k-vs-amd-ryzen-7-7700x-and-ryzen-5-7600x-face-off#section-power-consumption-efficiency-and-cooling-intel-core-i5-13600k-vs-amd-ryzen-7-7700x-and-ryzen-5-7600x
#7.4
AH ok, sur LDLC le boost est annoncé à 5,4 ghz pour le 13700 donc je ne comprenais vraiment pas. Il semblerait qu’il soit à 6ghz, ce qui change beaucoup.
Et j’avais vu que les processeurs AMD fonctionnaient “naturellement” à 90°, donc je pensais qu’ils étaient gourmands en énergie.
En regardant vite fait intel serait autour des 50 w en plus (13700k vs 7900x).
Merci pour les infos.
EDIT : Je viens de me souvenir que les “x3D” sortent fin février, ce sera intéressant à suivre du coup, voir si AMD va reprendre le lead.
#7.3
On trouve le 13700KF est à 423 euros
Sur le même site le 7900X est à 482 euros.
Pour le niveau de perf, ce sont de bon prix je trouve, surtout le 13700KF.
#8
Optane : techno proprio à ranger au rang du DLSS
Wifi ? Les modems mobiles ? 10G /40G / 100G ? : Des puces réseau … et j’ai dit que c’était de bons produits Intel.
Et pour le reste de ton message, tu reprends ce que @jpaul avait dit. Mais bon.
#9
Visiblement tu ne connais pas très bien leur gamme de produits, ils sont sur tous les marchés mais pas forcement en tant que leaders.
Sur les serveurs datacenter ARM est loin de pouvoir concurrencer Intel ou AMD, peu de chances de voir Intel disparaitre :)
#10
Y’a, cela s’appelle open-firmware. Suffit que le truc soit bien conçu et que le matériel embarque son device tree le décrivant de manière standardisée, le boot-loader mergeant tout et adaptant le mapping physique pour le passer à l’OS pour que les bon drivers soient utilisés/paramétrés.
L’UEFI, c’est un foutoir et les BIOS qui l’intègrent un patchwork improbable de code historique du fournisseur (AMI/Insyde/Phoenix) pour ce qui est config (utilisant généralement une chaîne de compil MS), des RC (Reference Code d’inits plateforme et DDRx) Intel (chaine de compil du même tonneau!) et de EDK2 (projet open-source essentiellement poussé par Intel… mais open oblige, et de 3, cette fois c’est GCC).
Alors si on résume, au moins 3 sources pour le code chacune avec son compilo. On multiple par 3 phases assez étanches entre elles (SEC/PEI/DXE) causant le triplage de beaucoup de “commonalités” niveau code…
Au final, on peut appeler cela un beau tas de merde avec un nombre de ligne de code de l’ordre de grandeur du kernel Linux, touchant une seule architecture, pour le 100ème de la fonctionnalité.
Cela explique également en bonne partie pourquoi on passe depuis l’avènement des SSD (même pas NVME, histoire de pas trop fausser l’affaire vs débits d’une boot-flash câblée en quad-SPI) bien plus de temps dans le BIOS qu’a booter l’OS complet derrière.
Dire que les ânes de Microsoft veulent pousser cela sur ARM!
#10.1
Open-Firmware … c’est bon à noter. Surtout si on peut éviter de retomber dans la dette technique des BIOS/UEFI.
A côté de ça, le fait d’avoir le device-tree propre, c’est une histoire de volonté du concepteur du SoC. M’est avis que les Qualcomm, Snapdragon et autres Apple n’aient pas une « interface » open-firmware digne de ce nom et que cela soit voulu de base.
Quand je vois les problématiques gérées par Jolla avec le programme Open-Device de Sony. Non pas que ce soit la faute de Sony, c’est surtout la faute du concepteur du SoC qui fournit le device-tree sous format papier