Connexion
Abonnez-vous

Intel va revenir aux barrettes de mémoires sur ses prochains CPU pour portables

Le 04 novembre à 09h00

Au début du mois, Intel lançait ses nouvelles puces Lunar Lake, avec la mémoire LPDDR5X directement intégrée (comme chez Apple), expliquant notamment les différentes références pour avoir 16 ou 32 Go. En marge de la présentation de son bilan financier, Pat Gelsinger a fait quelques annonces sur le sujet, indique The Verge.

Le patron d’Intel reconnait que c’était une erreur : « Ce n’est pas une bonne manière de faire donc, pour nous, c’est vraiment un cas unique avec Lunar Lake […] Nous allons le construire de manière plus traditionnelle avec de la mémoire hors package », comme le rapporte VideoCardz.

Pat Gelsinger explique que Lunar Lake devait être « un produit de niche » avec comme cible les meilleures performances avec une grande autonomie, mais les PC AI sont arrivés… « Et avec les PC AI, il est passé d’un produit de niche à un produit à volume assez élevé ».

Le patron de l’entreprise laisse aussi entendre qu’il pourrait se retirer du marché des cartes graphiques dédiées pour se recentrer sur celui des parties graphiques intégrées au CPU. Et Intel n’est pas non plus au meilleur de sa forme sur les GPU pour l’intelligence artificielle, comme l’indique The Verge.

« Nous n’atteindrons pas notre objectif de 500 millions de dollars de revenus pour Gaudí en 2024 […] car l’adoption globale de Gaudí a été plus lente que prévu », reconnait Pat Gelsinger. Intel ne se désengage pas pour autant sur ce marché.

Intel est pour rappel dans une position financière délicate, avec l’annonce du licenciement de pas moins de 15 000 personnes et une réorientation stratégique.

Le 04 novembre à 09h00

Commentaires (28)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
Cette chute au ralenti de Intel ...
votre avatar
Seulement si tu filmes avec une caméra haute vitesse à 12000img/s. Et encore, tu pourras voir durant juste 2 frames, un logo intel traverser le cadre.
votre avatar
Mmmhhh... Des barrettes ? :fume:
Allez, zyva, fais pas ton radin, fais passer aux voisins ! :fou3: :dd: :arrow::arrow::arrow:
votre avatar
Il faut de la bonne CAMM : next.ink Next
votre avatar
Ça serait quand même dommage de se retirer du marché des cartes graphiques dédiées après tous ses efforts investis, et ça avait l'air d'avoir du potentiel. Mais j'imagine que le marché Gamer est pas assez rentable, déjà qu'AMD à l'air de vouloir diminuer la voilure et laisser le champ libre à Nvidia sur le très haut de gamme, on risque pas de voir de baisse de prix avec aussi peu de concurrence.
votre avatar
Les crypto monnaies ne le portent plus :D
votre avatar
Je suis bien d'accord. Avoir autant investi en R&D, pour finalement abandonner au premier contre-coup venu (qui n'est ni le premier et ne sera pas le dernier), c'est la démonstration une fois de plus que beaucoup d'entreprises pensent à court terme voire moyen terme au mieux. L'important c'est pas tant l'investissement long dans l'innovation, mais bien le cash et seulement le cash à un moment T.

Que la voilure soit diminuée sur certains projets, oui. Mais sur celui des GPU dédiés, après tant d'efforts, et même si la concurrence est rude... je ne comprends pas. Surtout que ça peut être pour eux un marché très porteur justement.
votre avatar
On parle de Gaudí ici, c'est à dire le GPU dédié à l'IA on ne parle pas des autres gammes comme les Arc Graphics.
votre avatar
Le patron de l’entreprise laisse aussi entendre qu’il pourrait se retirer du marché des cartes graphiques dédiées pour se recentrer sur celui des parties graphiques intégrées au CPU.
Ça ne parle pas spécifiquement des GPU visant l'IA. C'est plutôt la phrase suivant qui en parle :
Et Intel n’est pas non plus au meilleur de sa forme sur les GPU pour l’intelligence artificielle, comme l’indique The Verge.
votre avatar
Est-ce qu'il y a une place sur le marché pour le troisième arrivé ?
Qui va acheter une carte graphique avec des GPU Intel alors qu'il connaît les 2 autres Nvidia et AMD (ayant racheté ATI) ?
Je ne suis pas sûr qu'il y ait un marché pour eux, justement.

Et pour le marché des GPU pour l'IA, à mon avis c'est encore pire : même AMD a du mal tellement Nvidia est hégémonique.
votre avatar
Oui, il y a un marché vu les prix/gammes que l'on a depuis 5 ans. Le problème pour intel c'est le rapport performance/prix, tu prends l'Arc A770 elle est à 460 € sur LDLC :fou3:

Perso. même si je suis pro Nvidia si j'ai besoin de monter une conf. à bas prix ou upgrader une vieille conf. perso je vais plutôt m'orienter sur AMD.
votre avatar
Dans l'entrée de gamme, voir le moyen de gamme un APU fait aussi bien voir mieux donc le GPU va se retrouver dans les machines gaming ou haut de gamme
votre avatar
C'est que le placement tarifaire est complètement pété face au duopole AMD/NVIDIA.
Il peut se comprendre pour rentabiliser les coûts en R&D rapidement. Mais pour un nouveau venu ça reste bien trop cher.
Les iGPU de Intel sont quand-même bons globalement. Ils ont tout de même une expérience qui peut être un bel atout pour du dédié, rien que sur le plan consommation.

Je reste persuadé qu'ils devraient maintenir la division, même si les ventes ne sont pas là. Et sortir des produits plus accessibles que ce que propose le duopole actuel (surtout les CG hors de prix de NVIDIA), quitte à faire quelques concessions.
Peut-être que s'inspirer de leur concurrent AMD, qui a fait une percée dans les CPU depuis les Ryzen, serait une bonne chose.

Maintenant, il est clair que le secteur s'est consolidé et que l'on assiste à une situation de plus en plus monopolistique. Et c'est également pour cela qu'ils devraient continuer.
votre avatar
Ce n'est pas la première fois que Intel agit ainsi. Y compris dans le domaine des cartes graphiques dédiées.
votre avatar
- "Apple, un commentaire ici" ?

- "Non non, nous on continue toujours au fer à souder (soudure à la vague en fait), voire mieux, on stack tout ça en multi couches dans le die du CPU qu'on appelle un SOC maintenant car il fait plein de choses différentes aussi et c'est tout bénéf pour l'utilisateur, que tout soit soudé... Ça ne se détache plus en cas de choc ou d'autre d'ailleurs..."

- "et sinon des slots de prévu sur la CM pour de l'extension de RAM si l'utilisateur souhaitait plus tard augmenter la mémoire vive de sa machine ?"

- "NO COMMENT" suivi d'un gros fou-rire à la Sylvester dans les Guignols de l'info... ("Quel con celui-là, toujours rien compris au capitalisme")

Tu veux mieux ? Tu jettes et tu rachètes...
votre avatar
Tu veux mieux ? Tu jettes revends et tu rachètes...
C'est comme cela que fonctionnent les utilisateurs d'Apple (je n'en suis pas).
votre avatar
Oui c'est vrai... J'entends régulièrement parler de la lente dépréciation de la valeur d'un iPhone et de son prix de revente en occaz intéressant (pour le vendeur) comparé à un Samsung Sxx flagship qui lui après 2-3 ans ne vaut plus que quelques cacahuètes...

Et d'ailleurs le site d'Apple propose l'option de rachat de son iPhone actuel pour un nouveau (trade-in option)

En effet... Un (1) point positif pour Apple ici ! :yes:
:bravo:
votre avatar
Nope, j'avais tendance à acheter de l'entrée de gamme et d'attendre que les copains sur PC se débarrassent de leur vieilletés. C'est comme ça que j'ai des disques durs de fou et que mon ordi devient full RAM. Ok, mon Mac a 13 ans… et toutes ces dents. Mon Mac précédent a tenu 10 ans, il a été tué par une installation électrique délabrée et avait résisté à pas mal de voyages en train, métro, métro, bus… pour un ordi en tour.
Ok, je dois avoué que je ne suis pas ravi du virage tout iCloud. D'ailleurs les OS n'apportent rien de plus que des partages réseaux supplémentaires. iPassoire.
Vivement un portable avec un large trackpad comme chez Apple et je quitte le navire.
votre avatar
Oui, quand c'était upgradable, tu pouvais faire ça, mais maintenant, ce n'est plus possible quand la RAM est dans le SOC et le reste soudé sans slot d'extension.
votre avatar
Oui mais on est sauvé car plus on consomme du Neutral Carbon™ plus on est écologique.
Loué soit Apple!
votre avatar
la vague c'est pour les composants traversants... de nos jours les circuits sont soudés par refusion (on pose les composants dans une pate contenant principalement de l'étain rohs et du flux de soudure et ensuite on passe au four, l'étain fond, se positionne par capilarité avec l'aide du flux et ce dernier finit par s'évaporer, les vidéos filmées en macro sont vraiment fascinantes)
votre avatar
Oui désolé. En effet, dans des longs tapis roulants, un peu comme les toasters dans les hôtels, ça rentre d'un côté et ça sort de l'autre... C'est ça ? Et on règle la vitesse pour adapter le profil thermique quand ça passe dans le tunnel ?

Même si j'ai passé quelques années à acheter du composant électronique (passif) à coup de gros fichiers Excel en fait, j'avoue que j'ai été rarement voir sur les lignes de prod comment on les "collait" sur le PCB...

Mais je me rappelle quand même que les machines de pose CMS sur les PCB, ce sont des vraies tueuses ces bêtes là. Hallucinant de vitesse et de précision.
:eeek2:
votre avatar
Pas sûr qu'on utilise la vitesse du tapis pour le profil thermique du tout. Tu as le profil thermique pour ça ;)
votre avatar
Les GPU chez Intel, ça s'en va et ça revient. C'est la deuxième fois qu'ils tentent une percée sur le marché des GPU discrets (qui se souvient du Larrabee ?) et que ça finit en eau de boudin...
votre avatar
Non, les Larrabee n'avaient pas été proposés au grand public.
Avant les cartes Arc, la seule carte discrète vendue était la i740... qui ne brillait guère hormis pour son prix.
Normalement les Battleimage devraient arriver dans quelques semaines, ça serait dommage d'abandonner maintenant.
votre avatar
En effet, ils n'avaient pas été commercialisés (du moins, pas sous cette forme). Mais ils avaient lancé un mouvement, puis ont annulé, puis on relancé, puis sont en train de ré-annuler. Un esprit taquin y verrai un pattern.
votre avatar
Et qui se souvient encore avant du i740 sur AGP en 1998 ?

i740
.
votre avatar
Bah ... Intel quoi. Iris Pro? Abandonné. Optane? Abandonné. Edison? Abandonné. HBM? Abandonné.
Ils tuent les technos avant de les pousser réellement.

Intel va revenir aux barrettes de mémoires sur ses prochains CPU pour portables

Fermer