GPU : AMD vise le « leadership en termes de prix » et délaisse le très haut de gamme
Le 11 septembre à 08h22
2 min
Hardware
Hardware
La confirmation a été donnée par Jack Huynh, vice-président senior et directeur général du groupe commercial Informatique et technologies graphiques chez AMD, lors d’une session de questions/réponses pendant l’IFA de Berlin.
Notre confrère Paul Alcorn de Tom’s Hardware était revenu sur les nombreuses rumeurs indiquant qu’AMD ne proposerait pas de GPU très haut de gamme avec sa prochaine génération RX 8000. Il lui a donc posé la question de la stratégie d’AMD.
Voici sa réponse :
« Ma priorité numéro un à l’heure actuelle est de développer notre activité, pour nous permettre d’atteindre plus rapidement une part de marché de 40 à 50 %. Est-ce que je vise 10 % du marché disponible ou 80 % ? Je suis pour les 80 % parce que je ne veux pas qu'AMD soit une entreprise pour les seules personnes qui peuvent acheter des Porsche et des Ferrari. Nous voulons construire des systèmes de jeu pour des millions d'utilisateurs ».
Après, il existe aussi une autre possibilité : viser à la fois le très haut de gamme et le reste du marché, à la manière de ce que propose NVIDIA. Jack Huynh promet néanmoins que sa société aura le « leadership en termes de prix ». Il ajoute qu’AMD a besoin de montrer qu’elle peut atteindre « 40 % de part » de marché pour attirer les développeurs, et ainsi relancer l’intérêt des joueurs, de manière à relancer un cercle vertueux.
La stratégie d’AMD est donc de resserrer sa gamme de GPU, certainement pour limiter les coûts de développement, et ainsi proposer des produits plus attractifs pour essayer d’augmenter ses parts de marché. Stratégie qui n’est pas nouvelle chez AMD.
Le 11 septembre à 08h22
Commentaires (29)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 11/09/2024 à 09h04
Si nvidia est seul sur le marché du très haut de gamme, alors les prix vont s'envoler car plus de concurrence.
Conséquence hypothétique que je souhaiterais: une "moyennisation" de la perf GPU des joueurs, et des studios de dev qui vont devoir optimiser leur code pour que ca tourne sur le plus grand nombre de machine possible.
Le 11/09/2024 à 09h21
Le 11/09/2024 à 10h15
Le 11/09/2024 à 11h24
Le 11/09/2024 à 11h31
D'un autre côté, c'était un peu la volonté de donner au dev accès à la carte en mode "bas niveau", donc exit les petits utilitaires/garde fous de OpenGL.
Le 11/09/2024 à 13h39
Modifié le 11/09/2024 à 09h37
En général pour une société qui est sur les 3 segments de marché par exemple avec des produits d'entrée de gamme (bas de gamme mais péjoratif et bas de gamme n'est pas synonyme de mauvaise qualité), milieu et haut de gamme, le haut de gamme rapporte peu mais plus là pour l'image de l'entreprise.
Ex: Renault
La marque la plus rentable du groupe est Dacia. De l'entrée gamme, voitures pas chères car basiques (& fabriquées en Roumanie aussi...) mais volumes de vente importants (et une excellente fiabilité apparemment aussi, car peut-être voitures basiques ?).
A l'opposée du spectre, Renault ne doit pas faire un chiffre d'affaire monstrueux avec les Alpines Renault.
.
Le 11/09/2024 à 11h39
Si tu as de très gros moyens, généralement tu pars directement sur du Nvidia. Si tu as un budget plus contenu, c'est la que tu compares et que tu vas voir que AMD peut être plus intéressant que Nvidia (selon les critères). Dans la voiture si tu as de gros moyens, tu as bien plus de choix quand même.
Modifié le 11/09/2024 à 16h05
Le 11/09/2024 à 09h05
Je me demande si le grand public verra cet aveu de faiblesse technique. J'espère quand même qu'AMD arrivera à grapiller plus de PDM au moins sur le grand public vu la puissance grandissante de NVIDIA ces dernières années.
Le 11/09/2024 à 09h31
Le 11/09/2024 à 10h13
Le 11/09/2024 à 10h24
Alors oui les plus grosses cartes Nvidia montent plus haut que chez AMD en consommation, mais juste parce qu'elles n'ont pas d'équivalent.
Le 11/09/2024 à 11h36
En fait, la progression en perf des ordis et CG a quasiment toujours été lié à une augmentation de conso (sauf en gros, l'époque du pentium m).
Les vieux ordis sont médiocres en termes d'efficacité, mais en termes de conso brute, ils consomment la même chose qu'un ordi au repos (Atari ST - 15-20W).
Pour défendre un peu NVidia, voici quelques exemples de produits à plus faible conso que les brutes qu'on montre en marketing:
Tegra, K1, X1, la switch, les versions RTX pour portable, la GT1030, la NVidia A2000...
Je crois surtout qu'en matière de CG, NVidia vise la rentabilité. Tant que les gens achètent à 300€ les CG, pourquoi se battre dans le segment des moins de 100€ (où la différence avec l'iGPU y compris de Intel ne sera pas décisive).
Par ailleurs, l'efficience des CG n'est souvent pas du côte du haut de gamme, mais plutôt du milieu de gamme (pour les CPU, c'est souvent pareil).
Le 11/09/2024 à 11h06
NVIDIA a jouis, au début de son ascension en centre de calcule, d'une capacité au recyclage technologique entre GPU grand-publics et GPU datacenter, mais cette période est révolue et les produits DC sont de plus en plus spécialisés et donc découplés du R&D pour les GPU grand public.
Le fait qu'AMD ne joue pas à qui a la plus grosse (carte graphique grand public), n'a a sans doutes que peu ou pas d'influence sur les développements de produits pour les centres de calcule.
Reste que quand on regarde la capitalisation de NVIDIA face à AMD ou même Intel, on se rend vite compte que ces deux derniers sont obligés de la jouer finement pour survivre sur le moyen terme, personne ne peut se permettre d'attaquer NVIDIA sur tous les segments en même temps, il faut choisir ses batailles tout en restant suffisamment présent là où ça compte.
Le 11/09/2024 à 12h03
J'ajouterais un marché AMD qu'il ne faut pas oublier : les consoles, donc la PS5 et sa nouvelle version, toujours équipée AMD.
Le 11/09/2024 à 10h19
Le 11/09/2024 à 11h11
Le 11/09/2024 à 11h44
Les cartes bas de gamme (genre RX6400) ont un gain en perf très limité par rapport à des carte beaucoup plus vieilles (GTX1650).
Perso je joue sur iGPU depuis un moment (je dirais 6-7 ans, y compris ... sur intel HD630).
Si je regarde par rapport à mon Vega 7 intégré, qui supporte FSR et VRR, pour avoir un gain suffisant en perfs permettant de monter la résolution et/ou les détails, il faut en gros 50% à 100% de perfs en plus. Donc des cartes à 200€ mini.
Bref, vive l'iGPU + FSR + VRR.
Le 11/09/2024 à 11h19
Honnêtement, vu le tarif du moyen de gamme d'Nvidia (4060Ti), il y a un boulevard!
Mais nvidia a encore 2 atouts sur cette gamme (dont il profite allègrement) :
- l'efficacité de son archi en raytracing.
- l'efficacité energétique de son archi (fps/watt consommé).
Ces deux point gagnent en importance chaque année.
Le 11/09/2024 à 11h41
du foutage de gueule vu le prix. Quand on prétend faire des cartes modernes adaptées à 4k/8k, on met une quantité suffisante de ram. La 3080 à 10Go, la 4070 à 12Go, c'est juste se moquer du monde. Après ils sortent des révisions plus chères avec enfin une quantité de mémoire adéquate, mais les modèles de base sauf les ?090 sont systématiquement sous-équipés.
Le 11/09/2024 à 11h45
Le raytracing nécessite beaucoup de RAM, mais je trouve que le résultat n'est toujours pas à la hauteur. De mon point de vue cela apporte encore très peu aux jeux pour un coût énorme.
Le 11/09/2024 à 13h09
Disons que, d'expérience, j'ai pu constater dès 2021 que la 3080 en 4k se mangeait souvent des problèmes de performance sérieux liés à la quantité de ram plutôt que liés à la capacité du gpu lui-même. En 4K, j'ai pu voir des problèmes de textures ne chargeant pas ou chargeant dans un état dégradé, ou de framerate qui chute à 8fps car la carte échange en permanence les textures via le bus PCIE.
Que la RAM graphique soit chère et difficile à produire, je veux bien, mais ce que j’attends d'une marque comme NVIDIA, c'est des produits correctement dimensionnés et équilibrés. Ce n'est pas la peine de dire que la carte fait de la 4k si elle s'étouffe en 4k sur les jeux de l'époque à cause du manque de ram.
Le 11/09/2024 à 14h33
Avec 12 point de salut, et la 4080 est nettement plus chère
Le 11/09/2024 à 15h27
La 3080 est pour le moment la carte la plus chère que j'ai acheté et aussi une des plus décevantes pour le rapport qualité/prix, le strict minimum chez nvidia pour avoir une carte correctement dimensionnée pour la 4k , c'est la 4070ti avec ses 16Go pour le prix, et du coup la question de la rx 7900xtx, ne fut-ce que pour la quantité extra de ram qui gardera la carte pertinente plus longtemps, se pose donc.
Si AMD se contente de faire des cartes de qualité sous les 1000€ avec des performances correctes, ils risquent de prendre des parts de marché. NVIDIA peut continuer à jouer les marchands de licornes mais ce n'est pas là que les parts de marché comptent.
Le 11/09/2024 à 14h49
Le 11/09/2024 à 17h28
Les cartes Nvidia offraient des performances similaires sans être plus chères, avec en plus des cœurs CUDA, du Ray Tracing et du DLSS 3.5.
Tous les logiciels créatifs tirent parti de ces technologies, il en est de même pour les outils à base d'IA qu'on trouve sur GitHub. Concernant les drivers et la stabilité, j'ai toujours eu l'impression qu'AMD était moins bon que son concurrent.
Est-ce que ça a évolué depuis un an ?
Le 11/09/2024 à 19h54
Si le PC va être utilisé pour autre chose que du jeu, les cartes Nvidia sont incontestablement au dessus grace à CUDA et NVenc.
Le 12/09/2024 à 10h53
Pour le jeu, les cartes AMD sont très compétentes et compétitives en dessous de 1000€, et la quantité de ram peut faire la différence par rapport à NVIDIA à gamme équivalente.