Connexion
Abonnez-vous

GPU : AMD vise le « leadership en termes de prix » et délaisse le très haut de gamme

Le 11 septembre à 08h22

La confirmation a été donnée par Jack Huynh, vice-président senior et directeur général du groupe commercial Informatique et technologies graphiques chez AMD, lors d’une session de questions/réponses pendant l’IFA de Berlin.

Notre confrère Paul Alcorn de Tom’s Hardware était revenu sur les nombreuses rumeurs indiquant qu’AMD ne proposerait pas de GPU très haut de gamme avec sa prochaine génération RX 8000. Il lui a donc posé la question de la stratégie d’AMD.

Voici sa réponse :

« Ma priorité numéro un à l’heure actuelle est de développer notre activité, pour nous permettre d’atteindre plus rapidement une part de marché de 40 à 50 %. Est-ce que je vise 10 % du marché disponible ou 80 % ? Je suis pour les 80 % parce que je ne veux pas qu'AMD soit une entreprise pour les seules personnes qui peuvent acheter des Porsche et des Ferrari. Nous voulons construire des systèmes de jeu pour des millions d'utilisateurs ».

Après, il existe aussi une autre possibilité : viser à la fois le très haut de gamme et le reste du marché, à la manière de ce que propose NVIDIA. Jack Huynh promet néanmoins que sa société aura le « leadership en termes de prix ». Il ajoute qu’AMD a besoin de montrer qu’elle peut atteindre « 40 % de part » de marché pour attirer les développeurs, et ainsi relancer l’intérêt des joueurs, de manière à relancer un cercle vertueux.

La stratégie d’AMD est donc de resserrer sa gamme de GPU, certainement pour limiter les coûts de développement, et ainsi proposer des produits plus attractifs pour essayer d’augmenter ses parts de marché. Stratégie qui n’est pas nouvelle chez AMD.

Le 11 septembre à 08h22

Commentaires (29)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
Je trouve que c'est une bonne décision pour les joueurs. L'évolution graphique des jeux est moins importante que l'évolution de la débauche de Watt consommés.

Si nvidia est seul sur le marché du très haut de gamme, alors les prix vont s'envoler car plus de concurrence.

Conséquence hypothétique que je souhaiterais: une "moyennisation" de la perf GPU des joueurs, et des studios de dev qui vont devoir optimiser leur code pour que ca tourne sur le plus grand nombre de machine possible.
votre avatar
Il faudrait surtout que AMD se bouge les fesses au niveau des outils de développement et de certains drivers car ils sont clairement à la ramasse depuis des années.
votre avatar
Ah bon ? Mantle a été conçu et développé par les verts ? :keskidit:
votre avatar
Yep, tu voulais surement parler de Vulcain (qui est la suite de Mantle d'AMD) développé par le Chronos Group qui mine de rien à du retard et comme je le souligne surtout dans les outils de développement qui ne sont pas simple à prendre en main.
votre avatar
"dans les outils de développement qui ne sont pas simple à prendre en main."

D'un autre côté, c'était un peu la volonté de donner au dev accès à la carte en mode "bas niveau", donc exit les petits utilitaires/garde fous de OpenGL.
votre avatar
Mantle n'a pas ouvert la voie qu'à Vulkan ... l'ami Dx12 est son p'tit frère.
votre avatar
Mais si les prix s'envolent trop chez Nvidia sur des produits genre RTX5090-RTX5080, une partie de la clientèle ne pourra plus suivre et va revenir sur un produit plus abordable, soit du Nvidia ou du AMD moyenne gamme et c'est là qu'AMD a intérêt à être plus compétitif que Nvidia sur ces produits de moyenne gamme.

En général pour une société qui est sur les 3 segments de marché par exemple avec des produits d'entrée de gamme (bas de gamme mais péjoratif et bas de gamme n'est pas synonyme de mauvaise qualité), milieu et haut de gamme, le haut de gamme rapporte peu mais plus là pour l'image de l'entreprise.

Ex: Renault
La marque la plus rentable du groupe est Dacia. De l'entrée gamme, voitures pas chères car basiques (& fabriquées en Roumanie aussi...) mais volumes de vente importants (et une excellente fiabilité apparemment aussi, car peut-être voitures basiques ?).

A l'opposée du spectre, Renault ne doit pas faire un chiffre d'affaire monstrueux avec les Alpines Renault.
.
votre avatar
Le marché de la voiture est quand même beaucoup plus concurrentiel que celui des CG.
Si tu as de très gros moyens, généralement tu pars directement sur du Nvidia. Si tu as un budget plus contenu, c'est la que tu compares et que tu vas voir que AMD peut être plus intéressant que Nvidia (selon les critères). Dans la voiture si tu as de gros moyens, tu as bien plus de choix quand même.
votre avatar
C'est vrai. Ici le choix c'est entre 2 seulement, voire 3 à la rigueur pour les plus pauvres...
:fumer:
votre avatar
ne veux pas qu'AMD soit une entreprise pour les seules personnes qui peuvent acheter des Porsche et des Ferrari
C'est sûr que des GPU grand public à 2000 € ne se vendront pas comme des petits pains en comparaison de GPU plus abordables. Mais ça aide à montrer ses capacités, imposer une impression de qualité et de performance, et faire rêver le public. De plus la stratégie de NVIDIA, c'est aussi la partie serveur, autant pour le gaming que l'IA, et là y'a du pognon à récupérer.

Je me demande si le grand public verra cet aveu de faiblesse technique. J'espère quand même qu'AMD arrivera à grapiller plus de PDM au moins sur le grand public vu la puissance grandissante de NVIDIA ces dernières années.
votre avatar
Faiblesse technique ? Bouffer 600W juste avec une RTX , je sais pas si c'est une prouesse...
votre avatar
Exactement, nVidia n'a jamais fait dans l'optimisé ... toujours plus de watts, toujours plus de Ghz ... bref, du muscle car. Et pour aller chercher l'pain, c'est la misère.
votre avatar
Et pourtant à l'heure actuelle pour le même nombre de fps une Nvidia de la série RTX 4000 consomme moins qu'une AMD de la série 7000.
Alors oui les plus grosses cartes Nvidia montent plus haut que chez AMD en consommation, mais juste parce qu'elles n'ont pas d'équivalent.
votre avatar
"Exactement, nVidia n'a jamais fait dans l'optimisé ... "

En fait, la progression en perf des ordis et CG a quasiment toujours été lié à une augmentation de conso (sauf en gros, l'époque du pentium m).
Les vieux ordis sont médiocres en termes d'efficacité, mais en termes de conso brute, ils consomment la même chose qu'un ordi au repos (Atari ST - 15-20W).

Pour défendre un peu NVidia, voici quelques exemples de produits à plus faible conso que les brutes qu'on montre en marketing:
Tegra, K1, X1, la switch, les versions RTX pour portable, la GT1030, la NVidia A2000...

Je crois surtout qu'en matière de CG, NVidia vise la rentabilité. Tant que les gens achètent à 300€ les CG, pourquoi se battre dans le segment des moins de 100€ (où la différence avec l'iGPU y compris de Intel ne sera pas décisive).

Par ailleurs, l'efficience des CG n'est souvent pas du côte du haut de gamme, mais plutôt du milieu de gamme (pour les CPU, c'est souvent pareil).
votre avatar
Il ne faut pas confondre les marchés, en centre de calcule, AMD a aussi des produits I.A. dédiés.

NVIDIA a jouis, au début de son ascension en centre de calcule, d'une capacité au recyclage technologique entre GPU grand-publics et GPU datacenter, mais cette période est révolue et les produits DC sont de plus en plus spécialisés et donc découplés du R&D pour les GPU grand public.

Le fait qu'AMD ne joue pas à qui a la plus grosse (carte graphique grand public), n'a a sans doutes que peu ou pas d'influence sur les développements de produits pour les centres de calcule.

Reste que quand on regarde la capitalisation de NVIDIA face à AMD ou même Intel, on se rend vite compte que ces deux derniers sont obligés de la jouer finement pour survivre sur le moyen terme, personne ne peut se permettre d'attaquer NVIDIA sur tous les segments en même temps, il faut choisir ses batailles tout en restant suffisamment présent là où ça compte.
votre avatar
Exactement.
J'ajouterais un marché AMD qu'il ne faut pas oublier : les consoles, donc la PS5 et sa nouvelle version, toujours équipée AMD.
votre avatar
En attendant, sur l'entrée de gamme, on n'a pas trop d'AMD. On ne trouve pas de carte graphique AMD fanless.
votre avatar
Pareil pour nvidia, s'il y a quelques cartes fanless, c'est plus de l'acte de présence que des cartes capables. Les IGP at APU ont tué le marché des cartes bas de gamme fanless.
votre avatar
Tout à fait. Une carte fanless se démarquera peu d'un iGPU.
Les cartes bas de gamme (genre RX6400) ont un gain en perf très limité par rapport à des carte beaucoup plus vieilles (GTX1650).

Perso je joue sur iGPU depuis un moment (je dirais 6-7 ans, y compris ... sur intel HD630).
Si je regarde par rapport à mon Vega 7 intégré, qui supporte FSR et VRR, pour avoir un gain suffisant en perfs permettant de monter la résolution et/ou les détails, il faut en gros 50% à 100% de perfs en plus. Donc des cartes à 200€ mini.

Bref, vive l'iGPU + FSR + VRR.
votre avatar
Vite, qu'il nous ressortent l'équivalent moderne d'une HD4870 : des très bonnes perfs pour 250€.
Honnêtement, vu le tarif du moyen de gamme d'Nvidia (4060Ti), il y a un boulevard!
Mais nvidia a encore 2 atouts sur cette gamme (dont il profite allègrement) :
- l'efficacité de son archi en raytracing.
- l'efficacité energétique de son archi (fps/watt consommé).
Ces deux point gagnent en importance chaque année.
votre avatar
Un point faible vraiment problématique de NVIDIA, c'est la quantité de RAM sur ses cartes...
du foutage de gueule vu le prix. Quand on prétend faire des cartes modernes adaptées à 4k/8k, on met une quantité suffisante de ram. La 3080 à 10Go, la 4070 à 12Go, c'est juste se moquer du monde. Après ils sortent des révisions plus chères avec enfin une quantité de mémoire adéquate, mais les modèles de base sauf les ?090 sont systématiquement sous-équipés.
votre avatar
La RAM graphique avec des bus super large, c'est super cher car super lourd à produire.
Le raytracing nécessite beaucoup de RAM, mais je trouve que le résultat n'est toujours pas à la hauteur. De mon point de vue cela apporte encore très peu aux jeux pour un coût énorme.
votre avatar

Disons que, d'expérience, j'ai pu constater dès 2021 que la 3080 en 4k se mangeait souvent des problèmes de performance sérieux liés à la quantité de ram plutôt que liés à la capacité du gpu lui-même. En 4K, j'ai pu voir des problèmes de textures ne chargeant pas ou chargeant dans un état dégradé, ou de framerate qui chute à 8fps car la carte échange en permanence les textures via le bus PCIE.

Que la RAM graphique soit chère et difficile à produire, je veux bien, mais ce que j’attends d'une marque comme NVIDIA, c'est des produits correctement dimensionnés et équilibrés. Ce n'est pas la peine de dire que la carte fait de la 4k si elle s'étouffe en 4k sur les jeux de l'époque à cause du manque de ram.
votre avatar
Je me demande si ce n’est pas pour laisser de l’espace aux games Quadro utilisées pour du calcul, qui ont elles 16Go en entrée de gamme, ce qui est aujourd’hui le minimum admis pour calculer des scènes un peu complexes en 3d.
Avec 12 point de salut, et la 4080 est nettement plus chère
votre avatar
Possible, mais du coup, ça tue l'intérêt des cartes NVIDIA ... le raytracing devient vraiment un gimmick inutile si à côté de ça la carte n'est même pas capable de faire tenir un jeu d'il y a 3 ans en mémoire...

La 3080 est pour le moment la carte la plus chère que j'ai acheté et aussi une des plus décevantes pour le rapport qualité/prix, le strict minimum chez nvidia pour avoir une carte correctement dimensionnée pour la 4k , c'est la 4070ti avec ses 16Go pour le prix, et du coup la question de la rx 7900xtx, ne fut-ce que pour la quantité extra de ram qui gardera la carte pertinente plus longtemps, se pose donc.

Si AMD se contente de faire des cartes de qualité sous les 1000€ avec des performances correctes, ils risquent de prendre des parts de marché. NVIDIA peut continuer à jouer les marchands de licornes mais ce n'est pas là que les parts de marché comptent.
votre avatar
Il faut ajouter que pendant l'interview, il a dit qu'à terme, les architectures GPU gaming et compute vont refusionner. AMD revient donc en arrière sur la stratégie à 2 architectures (CDNA et RDNA).
votre avatar
Je m'étais renseigné l'année dernière pour refaire une config, et AMD n'était pas vraiment compétitif.

Les cartes Nvidia offraient des performances similaires sans être plus chères, avec en plus des cœurs CUDA, du Ray Tracing et du DLSS 3.5.

Tous les logiciels créatifs tirent parti de ces technologies, il en est de même pour les outils à base d'IA qu'on trouve sur GitHub. Concernant les drivers et la stabilité, j'ai toujours eu l'impression qu'AMD était moins bon que son concurrent.

Est-ce que ça a évolué depuis un an ?
votre avatar
Je serai curieux de savoir ou tu as pris tes sources et comment celles-ci étaient présentées : a perf et à rendu égal (donc pas de ray-tracing et pas de DLSS), les cartes AMD sont bien souvent devant Nvidia en terme de rapport qualité/prix.

Si le PC va être utilisé pour autre chose que du jeu, les cartes Nvidia sont incontestablement au dessus grace à CUDA et NVenc.
votre avatar
C'est vrai que si on a des softs qui ne supportent que le CUDA, on est un peu coincé. Bon il y a bien ZLUDA qui est une couche de traduction utilisant ROCm, mais vu l'attitude d'AMD envers ce projet, ce n'est pas super (même si les benchs sous blender cycles cuda sont étonnement bons)


Pour le jeu, les cartes AMD sont très compétentes et compétitives en dessous de 1000€, et la quantité de ram peut faire la différence par rapport à NVIDIA à gamme équivalente.

GPU : AMD vise le « leadership en termes de prix » et délaisse le très haut de gamme

Fermer