AMD annonce ses Radeon RX 7800 XT et RX 7700 XT, à partir de 489 euros

AMD annonce ses Radeon RX 7800 XT et RX 7700 XT, à partir de 489 euros

AMD annonce ses Radeon RX 7800 XT et RX 7700 XT, à partir de 489 euros

Après les GeForce RTX 4060 (TI) de NVIDIA, c‘est au tour des nouvelles Radeon d’être annoncées par AMD. Pensées pour « une expérience de jeu en 1440p », elles viennent se placer en dessous des RX 7900 XT(X).

Les deux cartes exploitent l’Architecture RDNA 3, avec 16 Go de mémoire sur 256 bits pour la RX 7800 XT et 12 Go sur 192 bits pour la RX 7700 XT. La première dispose de 60 unités de calcul à 2 124/2 430 MHz (base/boost), contre respectivement 54 unités, 2 171/2 544 Mhz pour la seconde. 

AMD indique un tarif de 549 euros pour la RX 7800 XT et 489 euros pour la 7700 XT, avec une disponibilité au 6 septembre. Nous aurons l’occasion de revenir plus en détails sur cette gamme de carte graphique.

Commentaires (60)


Intéressant :)


Des prix qui semble correcte.


Quand 10 milions de français vivent sous le seuil de pauvreté & plus de 4 français sur 5 vit avec moins de 2 000 € par mois, ta réflexion ça fait rire …..


fullero

Quand 10 milions de français vivent sous le seuil de pauvreté & plus de 4 français sur 5 vit avec moins de 2 000 € par mois, ta réflexion ça fait rire …..


Les carte graphique vont devenir un luxe.


J’avais lu quelque part que les AMD Radeon n’étaient pas efficaces pour faire de la VR (jeux)… est-ce que quelqu’un peut confirmer SVP?



(reply:2149237:mouton_enragé)




Ma 6800xt fait très bien le travail pour de la VR. La 7800xt fera mieux sans aucun doute.


Ce qui manque (à mon goût) aux cartes AMD, c’est pas tant la performance en jeu. C’est surtout l’absence (ou manque de support) pour tout ce qui concerne le calcul par gpu. Je pense surtout à l’encodage hardware. Je suis pas un pro de la vidéo, mais j’apprécie de pouvoir encoder 1h de vidéo au format h.265 en 20min avec une carte NVIDIA.
Et je suppose que ceux qui font du calcul GPU avec Cuda doivent même pas envisager l’alternative AMD.


En fait ce qu’il te manque dans leurs CG “gamer” c’est tout ce qui ne concerne pas le jeu quoi :transpi: (sinon sur le fond je suis d’accord avec toi)


Ça tombe bien, mon actuelle est en train de lâcher


J’ai pas trop suivi AMD sur les CG, mais niveau perf Raytracing (et pathtracing maintenant), ça concurrence bien les séries Nvidia ?



Et il y a un équivalent de DLSS 3 ?


Il y a un concurrent au DLSS qui s’appel le FSR (FidelityFX Super Resolution) chez AMD.
Côté RT, AMD n’a toujours pas d’unité de calcul dédiées comme chez Nvidia, donc les perf ne sont toujours pas équivalente même si AMD a tout de même progressé sur le sujet.



Donc si le RT a une grande importance pour toi, Nvidia sera surement la meilleure option. Si le RT est secondaire, AMD pourra être une alternative tout à fait valable.


k0rnmuz3

Il y a un concurrent au DLSS qui s’appel le FSR (FidelityFX Super Resolution) chez AMD.
Côté RT, AMD n’a toujours pas d’unité de calcul dédiées comme chez Nvidia, donc les perf ne sont toujours pas équivalente même si AMD a tout de même progressé sur le sujet.



Donc si le RT a une grande importance pour toi, Nvidia sera surement la meilleure option. Si le RT est secondaire, AMD pourra être une alternative tout à fait valable.


Oui, j’ai une 3080 actuellement, et j’aime bien le Raytracing sur certains jeux, c’est vraiment super beau :)
Bon, je vais rester en attendant chez Nvidia du coup :)


k0rnmuz3

Il y a un concurrent au DLSS qui s’appel le FSR (FidelityFX Super Resolution) chez AMD.
Côté RT, AMD n’a toujours pas d’unité de calcul dédiées comme chez Nvidia, donc les perf ne sont toujours pas équivalente même si AMD a tout de même progressé sur le sujet.



Donc si le RT a une grande importance pour toi, Nvidia sera surement la meilleure option. Si le RT est secondaire, AMD pourra être une alternative tout à fait valable.


Comme écrit dans mon message ci-dessu, j’ai une 1080, donc pas de RT, donc en soit c’est pas très important pour moi. Mais ils ont vraiement rien de similaire chez AMD ?



Quitte à changer de CG, si je pouvais supprimer mes problèmes ET avoir du RT ou équivalent ca serait ‘tout benef”



… à vrais dire, mon problème de shaders et surement du à l’ancienneté de ma CG non ? Je suppose que avec un 4000 ou équivalent ca irait plus vite …



(hormis cela, pas de problème en jouant sous linux)


M.Rhal

Comme écrit dans mon message ci-dessu, j’ai une 1080, donc pas de RT, donc en soit c’est pas très important pour moi. Mais ils ont vraiement rien de similaire chez AMD ?



Quitte à changer de CG, si je pouvais supprimer mes problèmes ET avoir du RT ou équivalent ca serait ‘tout benef”



… à vrais dire, mon problème de shaders et surement du à l’ancienneté de ma CG non ? Je suppose que avec un 4000 ou équivalent ca irait plus vite …



(hormis cela, pas de problème en jouant sous linux)


Bah les jeux qui supporte le RT sans passer par un truc proprio Nvidia tournent aussi sur AMD.



Certains jeux utilise le RT pour du détail de lumière et reflet comme Forza Horizon 5 qui ne le met que sur le véhicule. Ca permet de plus beau graphisme sans exploser les perfs, et en l’occurrence, FH5 en 1440p sur ma 6800xt tourne à ~100fps.



Donc non il n’y a pas d’équivalent aux Tensor Core ou CUDA Core ou autre puce spécifique utilisées par Nvidia, mais en fonction de comment le jeu a implémenter son RT ça peut quand même fonctionner avec le RT sur AMD.


k0rnmuz3

Il y a un concurrent au DLSS qui s’appel le FSR (FidelityFX Super Resolution) chez AMD.
Côté RT, AMD n’a toujours pas d’unité de calcul dédiées comme chez Nvidia, donc les perf ne sont toujours pas équivalente même si AMD a tout de même progressé sur le sujet.



Donc si le RT a une grande importance pour toi, Nvidia sera surement la meilleure option. Si le RT est secondaire, AMD pourra être une alternative tout à fait valable.


Si, AMD a bien des unités de calcul dédié au Ray Tracing depuis la génération 6000.


Paraplegix

Si, AMD a bien des unités de calcul dédié au Ray Tracing depuis la génération 6000.


My bad, je ne retrouvais plus l’info donc dans le doute je me suis dit que je m’étais planté et que c’était encore exclusif aux cartes Nvidia.
Merci pour la précision :yes:


Le RT c’est plus ou moins la chasse gardée de NVidia, et encore surtout la chasse gardée marketing vu que même chez eux ça ne marche correctement qu’une fois activée les “bidouilles de manouches” genre DLSS sinon leurs GPU ne sont suivent pas plus que ceux d’AMD dès qu’on pousse la résolution/qualité graphique :mdr2:


Récemment ils ont annoncé le DLSS 3.5 chez Nvidia (pour toutes les RTX) et le FSR 3 chez AMD (tous les GPU), qui sortiront en Septembre pour le premier et début 2024 pour le second.



https://community.amd.com/t5/gaming/first-look-at-amd-fidelityfx-super-resolution-3/ba-p/626581


Sur Hardware Unboxed, la comparaison de montée en prix / performance par rapport aux productions, gammes précédentes aboutit à à la conclusion que cette nouvelle itération s’ est appauvri en valeur ajoutée.
Le niveau de performance obtenu de cette nouvelle génération ne suit pas de façon équivalente le prix demandé qui lui a nettement augmenté.
La recommandation est d’ attendre de meilleurs jours si possible.
Sauf qu’ aucune nouvelle fab n’ entrera en service avant 2027 pour faire baisser les prix.
Les APU RYZEN 8000 avec carte graphique intégrée de 40 Unités de Calcul à 3 Ghz pour une date de sortie Q3 2024 dans un an exactement seront la mailleure option dans le futur.


On a des bench fiables ? Ou ce ne sont que les annonces d’AMD pour le moment ?



Ce qui semble intéressant ici c’est qu’il y a plus de ram, donc même si on perd en FPS / qualité elles tiendront plus dans le temps que ma 3070 à 8GO (même si je ne vais pas changer tant qu’elle tiendra le coup)



Attendre de meilleurs jours j’ai des amis qui font ça depuis 2020, ça commence à devenir difficile.


J’ai une RX 7900 XT et je n’ai pas à m’en plaindre. Je tourne à 128 IPS en moyenne sur FFXIV en 4K avec tout au max. J’espère juste que la refonte graphique prévue pour ce jeu en 2024 (DX12 ?) corrigera des ralentissements qui ne sont pour moi que liés au moteur du jeu.



(quote:2149278:N.Master)
Et je suppose que ceux qui font du calcul GPU avec Cuda doivent même pas envisager l’alternative AMD.




Évidemment, tu ne fais pas de CUDA sur AMD. Tu vas plutôt utiliser HIP. Le calcul sur GPU n’est pas réservé à nvidia. Tu as des machines de calcul équipées en Mi200 qui sont très performantes.



Guinnness a dit:


Le RT c’est plus ou moins la chasse gardée de NVidia, et encore surtout la chasse gardée marketing vu que même chez eux ça ne marche correctement qu’une fois activée les “bidouilles de manouches” genre DLSS sinon leurs GPU ne sont suivent pas plus que ceux d’AMD dès qu’on pousse la résolution/qualité graphique :mdr2:




Tu bidouille pendant des heures les dizaines de paramètres pour au final te rendre compte que ta carte ne peut pas charger les textures par manque de mémoire et te renvoie direct à Windows :transpi:


À noter que sous Linux, les cartes AMD fonctionnent très bien sans avoir à installer des pilotes spécifiques contrairement aux cartes Nvidia et c’est un sacré avantage !


J’ai déjà cette remarque pas mal de fois, merci pour la confirmation.



Donc aucun problème pour les jeux ET Wayland ( Sway , hyprland ( conf nécéssaire avec Nvidia)) ?



Pour l’instant ma vielle 1080 me va encore mais devoir faire toute la conf pour hyprland et surtout attendre à chaque mise à jours de EldenRing ou Baldur’s Gate le temps que le calcule des shaders se fasse … :censored:


Comment ça sans driver, “Out of the box” ?



Autre question vu que ça m’intéresse, des dernières sources que j’ai eu, NVidia avait quand même un avantage sur ses drivers propriétaires non (sur Linux) ? Et AMD n’avait pas des soucis sur ce même os, du genre qu’il fallait attendre x version pour avoir un truc stable ?



Je pense à upgrade mon GPU pour les jeux avec peut-être un passage sur une distrib Linux même si c’est toujours en réflexion :D


Spezetois

Comment ça sans driver, “Out of the box” ?



Autre question vu que ça m’intéresse, des dernières sources que j’ai eu, NVidia avait quand même un avantage sur ses drivers propriétaires non (sur Linux) ? Et AMD n’avait pas des soucis sur ce même os, du genre qu’il fallait attendre x version pour avoir un truc stable ?



Je pense à upgrade mon GPU pour les jeux avec peut-être un passage sur une distrib Linux même si c’est toujours en réflexion :D


Les versions de pilotes spécifiques chez AMD ne concernent pas forcément (que)Linux, quand j’ai eu ma 6800XT j’ai eu la surprise d’avoir des plantages systématiques de rfactor2 au chargement des circuits, renseignement pris tous les pilotes postérieurs à ceux de Mai 2022 avaient un bug qui faisait planter ce jeu (mais aucun autres, enfin parmi ceux que j’ai) donc j’ai dû bloquer cette version jusqu’à il me semble Février ou Mars 2023 ou le bug a enfin été corrigé (à priori les tors étaient partagés entre les pilotes CG et le jeu, d’où un certain temps pour en venir à bout)


Exactement, et avec un noyau 6.5 (sorti hier), on découvre de nouvelles capacités aux machines qui les font tourner :D


Pire que ça les pilotes libres fonctionnent mieux que les proprios:transpi:
Après c’est un cas particulier vu qu’AMD contribue fortement aux pilotes libres, et d’ailleurs il me semble que les pilotes proprios sont dépréciés ou en voie de l’être.



Après honnêtement pour avoir eu du Nvidia pendant des années je n’ai jamais eu de soucis avec les pilotes proprios (les libres par contre sont merdiques mais Nvidia refusant de divulguer quoi que ce soit c’est logique)


P’tite question économie d’énergie : ça vaut le coup d’upgrade ma “vieille” RX570 pour une 7600 (voir une future 7500) ?



Vu qu’elles n’ont pas beaucoup de TDP d’écart (167 vs 150) je sais pas si je vais beaucoup y gagner.



Je ne cherche pas la puissance, mais juste une CG à peu près potable.


Une RX 7600 c’est 165w, niveau performance c’est environ x2.1 de plus qu’une RX 570.


Arona

Une RX 7600 c’est 165w, niveau performance c’est environ x2.1 de plus qu’une RX 570.


Merci pour l’ordre de grandeur. Du coup, même si elle est 2x plus puissante, je vois que je ne vais pas gagner en conso… la RX570 fait dans les 75W en idle, contre 100 pour la RX6700.



Enfin, vu qu’ils mesurent le système complet (d’après les tests que j’ai pris pour source) c’est peut-être pas représentatif…


renaud07

Merci pour l’ordre de grandeur. Du coup, même si elle est 2x plus puissante, je vois que je ne vais pas gagner en conso… la RX570 fait dans les 75W en idle, contre 100 pour la RX6700.



Enfin, vu qu’ils mesurent le système complet (d’après les tests que j’ai pris pour source) c’est peut-être pas représentatif…


Pour ce qui est de la consommation idle, c’est un sujet assez “chaud” en ce moment pour les cartes graphiques AMD.



Il semblerait que ça soit plus lié a la configuration d’écran qu’à la carte graphique en elle même.



Par exemple actuellement j’ai une 7900 XTX qui idle a ~80W avec mes 2 écrans a leur fréquence maximales (100 et 75hz). Mais si je passe mes 2 écrans a 60Hz, l’idle passe a ~15-20W.



C’est lié a un problème de fréquence de rafraichissement d’écran qui ne sont pas “naturels” pour la carte graphique et qui oblige la fréquence de la ram et donc a une plus grosse consommation de la carte. Je saurais pas refaire toutes l’explication mais j’avais vu passer un message d’un mec qui se présentait comme un ancien dev driver de carte graphique chez AMD et qui expliquait que c’était principalement pour éviter des soucis avec des écrans pour éviter de faire des artefacts si les fréquence de je sait pas quoi était trop “juste” par rapport a ce qui était requis.



Et ce problème ne serait pas exclusif a AMD, Nvidia a probablement des soucis similaires (ils supportent peut être plus d’écrans).


Paraplegix

Pour ce qui est de la consommation idle, c’est un sujet assez “chaud” en ce moment pour les cartes graphiques AMD.



Il semblerait que ça soit plus lié a la configuration d’écran qu’à la carte graphique en elle même.



Par exemple actuellement j’ai une 7900 XTX qui idle a ~80W avec mes 2 écrans a leur fréquence maximales (100 et 75hz). Mais si je passe mes 2 écrans a 60Hz, l’idle passe a ~15-20W.



C’est lié a un problème de fréquence de rafraichissement d’écran qui ne sont pas “naturels” pour la carte graphique et qui oblige la fréquence de la ram et donc a une plus grosse consommation de la carte. Je saurais pas refaire toutes l’explication mais j’avais vu passer un message d’un mec qui se présentait comme un ancien dev driver de carte graphique chez AMD et qui expliquait que c’était principalement pour éviter des soucis avec des écrans pour éviter de faire des artefacts si les fréquence de je sait pas quoi était trop “juste” par rapport a ce qui était requis.



Et ce problème ne serait pas exclusif a AMD, Nvidia a probablement des soucis similaires (ils supportent peut être plus d’écrans).


Merci pour cette info. Sacrée différence en effet ! On pourrait s’attendre à ce que ça double, mais quadrupler :eeek2:



Pour le coup, j’ai pas d’écran à 100 Hz, mais je pensais les changer dans pas longtemps pour un truc plus rapide… (j’ai un vieux 1600x900 en VGA et un 1680x1050 au mieux en DVI à 60hz… qui ont plus de 10 ans). Passer en 1080p, serait pas du luxe :transpi:


renaud07

Merci pour cette info. Sacrée différence en effet ! On pourrait s’attendre à ce que ça double, mais quadrupler :eeek2:



Pour le coup, j’ai pas d’écran à 100 Hz, mais je pensais les changer dans pas longtemps pour un truc plus rapide… (j’ai un vieux 1600x900 en VGA et un 1680x1050 au mieux en DVI à 60hz… qui ont plus de 10 ans). Passer en 1080p, serait pas du luxe :transpi:


Vue les prix un 2k (1440p) c’est plus agréable (je parle pour de la bureautique)


ben51

Vue les prix un 2k (1440p) c’est plus agréable (je parle pour de la bureautique)


Merci pour la suggestion. Mais l’affichage est pas trop petit dans cette def ? (pour un 22”) Car je ne suis pas fan du tout du hidpi (utilisant Linux, y’a beaucoup trop de problème avec). D’où ma limitation au 1080p.



J’ai récemment acheté un portable 15” en 1080p et niveau lisibilité/fatigue, il ne faut pas plus petit (et encore j’ai une très bonne vue). Si c’est équivalent, ça irait, sinon c’est pas la peine…


renaud07

Merci pour la suggestion. Mais l’affichage est pas trop petit dans cette def ? (pour un 22”) Car je ne suis pas fan du tout du hidpi (utilisant Linux, y’a beaucoup trop de problème avec). D’où ma limitation au 1080p.



J’ai récemment acheté un portable 15” en 1080p et niveau lisibilité/fatigue, il ne faut pas plus petit (et encore j’ai une très bonne vue). Si c’est équivalent, ça irait, sinon c’est pas la peine…


Réponse à moi-même : ça nous fait du 133ppp contre 146 pour le 15” 1080, donc ça devrait aller :chinois:



Enfin, encore faut-il trouver du 1440p en 22” ce qui semble très rare. La question ne va pas se poser donc… ça sera 1080p ou du 24” mini (mais faut voir si ça rentre, contrainte de place toussa…)


renaud07

Réponse à moi-même : ça nous fait du 133ppp contre 146 pour le 15” 1080, donc ça devrait aller :chinois:



Enfin, encore faut-il trouver du 1440p en 22” ce qui semble très rare. La question ne va pas se poser donc… ça sera 1080p ou du 24” mini (mais faut voir si ça rentre, contrainte de place toussa…)


Je te conseille de ne pas prendre du 1440p avant le 27”.


Arona

Je te conseille de ne pas prendre du 1440p avant le 27”.


Une petite explication du pourquoi serait bienvenue :chinois: Mais 27” ça va être difficile à caser… avec mon bureau devant une fenêtre qui bloque celle-ci et je dois pouvoir le bouger facilement. Sans compter que même à l’utilisation ça risque d’être trop grand.



C’est sûr qu’il vaut mieux le voir en vrai. Côté specs, déjà, fini le TN ça sera un IPS ou VA. Pour le reste, vu l’utilisation que j’en ai (bureautique/multimédia), je m’en fous un peu :D



Niveau budget, je tapais en effet dans les 200. Ça me ferais mal de mettre plus étant donné que mon écran actuel m’a coûté… 0€ Et je me rends compte que j’aime bien le 1610 en fait. Je crois qu’il faut que je cherche dans les gammes pro/business, car ils ont souvent tous les réglages de hauteur/inclinaison/rotation (dernier point très important dans mon cas).


renaud07

Une petite explication du pourquoi serait bienvenue :chinois: Mais 27” ça va être difficile à caser… avec mon bureau devant une fenêtre qui bloque celle-ci et je dois pouvoir le bouger facilement. Sans compter que même à l’utilisation ça risque d’être trop grand.



C’est sûr qu’il vaut mieux le voir en vrai. Côté specs, déjà, fini le TN ça sera un IPS ou VA. Pour le reste, vu l’utilisation que j’en ai (bureautique/multimédia), je m’en fous un peu :D



Niveau budget, je tapais en effet dans les 200. Ça me ferais mal de mettre plus étant donné que mon écran actuel m’a coûté… 0€ Et je me rends compte que j’aime bien le 1610 en fait. Je crois qu’il faut que je cherche dans les gammes pro/business, car ils ont souvent tous les réglages de hauteur/inclinaison/rotation (dernier point très important dans mon cas).


C’est purement subjectif. J’ai une très bonne vue, et même si j’arrive à utiliser mon écran de portable 16” 1610 en 2560x1600, ça fait assez petit.



J’ai utilisé un 27” en 2560x1440 pendant près de 7 ans, c’est pour moi clairement une densité bien équilibrée comme un 24” en 1920x1080.



Au boulot j’ai généralisé le double écran en 24” 1920x1200.


Arona

C’est purement subjectif. J’ai une très bonne vue, et même si j’arrive à utiliser mon écran de portable 16” 1610 en 2560x1600, ça fait assez petit.



J’ai utilisé un 27” en 2560x1440 pendant près de 7 ans, c’est pour moi clairement une densité bien équilibrée comme un 24” en 1920x1080.



Au boulot j’ai généralisé le double écran en 24” 1920x1200.


Dans windows (et d’autres OS) tu peux changer l’échelle de résolution pour palier au problème de texte trop petit.
Dans paramètres d’affichage -> mise à l’échelle et disposition.


k0rnmuz3

Dans windows (et d’autres OS) tu peux changer l’échelle de résolution pour palier au problème de texte trop petit.
Dans paramètres d’affichage -> mise à l’échelle et disposition.


Bien sur mais je préfère rester sur 100% pour avoir un espace de travail maximisé et certaines applications n’apprécient pas le basculement d’échelle lorsque je débranche le dock.


renaud07

Merci pour la suggestion. Mais l’affichage est pas trop petit dans cette def ? (pour un 22”) Car je ne suis pas fan du tout du hidpi (utilisant Linux, y’a beaucoup trop de problème avec). D’où ma limitation au 1080p.



J’ai récemment acheté un portable 15” en 1080p et niveau lisibilité/fatigue, il ne faut pas plus petit (et encore j’ai une très bonne vue). Si c’est équivalent, ça irait, sinon c’est pas la peine…


Je rejoins ben51 sur le 1440p.



Si tu a l’occasion, va dans des magasins qui serait susceptible de vendre ce genre d’écran et de les voir en exposition (genre ldlc, boulanger, fnac ). ça sera plus simple pour te faire une idée de ce que ça pourrais représenter en terme de densité d’affichage.



Perso je recommanderais toujours de prendre la plus grosse définition possible, et ensuite voir pour une plus grosse fréquence de rafraichissement.



ça va dépendre de ton budget,, mais il y a de bon écrans 1440p pour 200€ environ. Il est peut être aussi possible de regarder du coté d’écrans d’occasion/reconditionné.



En fonction du temps que tu passe dessus, et de l’utilisation que tu en a (même si c’est juste consulter des mails et lire NextINpact), ça peut être un bien plus agréable une plus grosse définition.


renaud07

Merci pour la suggestion. Mais l’affichage est pas trop petit dans cette def ? (pour un 22”) Car je ne suis pas fan du tout du hidpi (utilisant Linux, y’a beaucoup trop de problème avec). D’où ma limitation au 1080p.



J’ai récemment acheté un portable 15” en 1080p et niveau lisibilité/fatigue, il ne faut pas plus petit (et encore j’ai une très bonne vue). Si c’est équivalent, ça irait, sinon c’est pas la peine…


Effectivement si tu est limité à du 22” le 1440p c’est peut-être pas le plus indiqué.
Mais d’ici ce soir je te faire un retour sur un 16” en 1600p ^^
Bon y a déjà un retour.
Mais en gros pour de petit écran avec de “grosse” résolution faut regardé du coté des écran portable



(quote:2149355:M.Rhal)
Donc aucun problème pour les jeux ET Wayland ( Sway , hyprland ( conf nécéssaire avec Nvidia)) ?



Pour l’instant ma vielle 1080 me va encore mais devoir faire toute la conf pour hyprland et surtout attendre à chaque mise à jours de EldenRing ou Baldur’s Gate le temps que le calcule des shaders se fasse … :censored:




De mon côté, je suis monté comme ça :




  • Ryzen 5950x / Radeon rx6800xt / 32 Go RAM / moniteur 3440x1440

  • Linux 6.5 / Mesa 23.1.6



Je tourne tout les tomb raider (crystal dynamics) en natif via steam. Mes autres triple-A tournent avec proton (wine/dxvk/…). J’obtiens des perfs équivalentes aux même jeux sous Windows voire des fois supérieures. Mais surtout avec un développement continu du noyau (une version tous les 2 mois), on observe des sautes de perfs quasi systématiquement.




Spezetois a dit:


Comment ça sans driver, “Out of the box” ?



Oui tout à fait, le driver amdgpu est inclus dans le noyau. Pour la partie OpenGL / Vulkan, la plupart des distribs typées poste de travail incluent les pilotes Mesa par défaut.



Autre question vu que ça m’intéresse, des dernières sources que j’ai eu, NVidia avait quand même un avantage sur ses drivers propriétaires non (sur Linux) ? Et AMD n’avait pas des soucis sur ce même os, du genre qu’il fallait attendre x version pour avoir un truc stable ?



Ca, c’était partiellement vrai avant 2000 :D
Les pilotes proprios AMD sous Linux servent principalement à fournir le HIP. Par rapport à mon usage, c’est intéressant pour Blender & Co. Sinon, la grande majorité des utilisateurs utilisent les pilotes libres Mesa.
D’ailleurs, Phoronix ne fait plus de comparos des pilotes AMD proprios / libres car la différence devenait ténue avec un léger avantage aux Mesa.



Je pense à upgrade mon GPU pour les jeux avec peut-être un passage sur une distrib Linux même si c’est toujours en réflexion :D




D’toute manière, tu peux essayer avant d’upgrade la CG. Avec un Linux, il suffit de changer la CG et de démarrer la machine pour jouer versus les reboots multiples liés aux désinstallation / nettoyage et réinstallation de pilotes avec un Windows.


Tu es sur quelle distrib par curiosité ?


eglyn

Tu es sur quelle distrib par curiosité ?


KDE Neon plus :




  • un noyau compilé par mes soins (sources provenant de kernel.org)

  • PPA Kisak Fresh pour les derniers Mesa stables.


Pas grand chose à voir mais vu que t’as l’air de connaître le sujet, à tout hasard tu sais si le switch entre iGPU et GPU dédié est bien géré sous linux? Et si ça dépends de la combinaison Intel/AMD/NVIDIA?



Je dois bientôt changer de laptop pour un avec iGPU+dédié et j’aimerai bien pouvoir en profiter pour repasser sur nux mais je je suis resté sur des mauvais souvenirs de 2010 où le Switch GPU ça marchait juste pas :transpi:


SKN

Pas grand chose à voir mais vu que t’as l’air de connaître le sujet, à tout hasard tu sais si le switch entre iGPU et GPU dédié est bien géré sous linux? Et si ça dépends de la combinaison Intel/AMD/NVIDIA?



Je dois bientôt changer de laptop pour un avec iGPU+dédié et j’aimerai bien pouvoir en profiter pour repasser sur nux mais je je suis resté sur des mauvais souvenirs de 2010 où le Switch GPU ça marchait juste pas :transpi:


Ben disons que la situation sur l’Optimus (Intel / nVidia) s’est amélioré mais n’est toujours pas aussi stable qu’on pourrait le souhaiter.
Après, si PC portable, maintenant on trouve des Ryzen … et ça fait gentiment le taf.



[3615MyLife]
Je suis passé d’un hp G7 elitebook 850 avec un Core i7 10th Gen à un G8 855 avec un ryzen 5850u. Le rapport de vitesse entre les 2 est juste hallucinant : 2 à 3 fois plus rapide sur les opérations usuelles (compilations, développement, …) … et jusqu’à 11 fois plus rapide sur des traitements massivement parallélisés (programme en Go si je me souviens bien).
Avec le G8, je compile le noyau Linux en 20 / 25 minutes, là où les Xeon du DC mettent 1 heure.


TNZfr

Ben disons que la situation sur l’Optimus (Intel / nVidia) s’est amélioré mais n’est toujours pas aussi stable qu’on pourrait le souhaiter.
Après, si PC portable, maintenant on trouve des Ryzen … et ça fait gentiment le taf.



[3615MyLife]
Je suis passé d’un hp G7 elitebook 850 avec un Core i7 10th Gen à un G8 855 avec un ryzen 5850u. Le rapport de vitesse entre les 2 est juste hallucinant : 2 à 3 fois plus rapide sur les opérations usuelles (compilations, développement, …) … et jusqu’à 11 fois plus rapide sur des traitements massivement parallélisés (programme en Go si je me souviens bien).
Avec le G8, je compile le noyau Linux en 20 / 25 minutes, là où les Xeon du DC mettent 1 heure.


Je pense en effet sur du ryzen avec un igpu qui me suffira 90% du temps pour la bureautique / dev / lecture video, sachant que pour ces tâches là le facteur le plus important pour moi c’est l’économie d’énergie ([mylife] électricité limitée en camping-car suivant la météo.. là en Bretagne j’ai pas vu le soleil depuis 4jours la batterie est à 60% en regardant 4heures vidéo par jour, le PC consomme à peu près 50w [/mylife])



Mais à côté de ça vu que je suis casse couille j’aime bien faire tourner des jeux (gestion, 4x, un jeu première personne une fois tous les 36 du mois..) avec une bonne qualité, mais quand je vois comment ma vieille R9 380 de la maison souffle simplement sur du frostpunk j’ai des doutes qu’un igpu me suffise pour ça (après j’avoue que j’ai toujours été largué par les évolutions des gpu donc si ça se trouve ce serait mieux que ma carte :transpi: ). Sinon peut-être simplement passer sur du eGPU (qui me permettrait de déporter le prix dans le temps, et de pouvoir faire évoluer plus facilement le bouzin) mais là encore c’est question du support linux qu’il faut que creuse…



Bref c’est pas vraiment le sujet, et mon envie de retour à linux arrange pas mes interrogations ^^



Spezetois a dit:


Comment ça sans driver, “Out of the box” ?




Comme déjà indiqué par d’autres, oui, les pilotes open source sont d’un très bon niveau !



Et ça fait plaisir d’avoir une carte fonctionnelle sans prise de tête et sans télémétrie (spyware ?) intégrée aux pilotes fournis par les fabricants…



fullero a dit:


Sauf qu’ aucune nouvelle fab n’ entrera en service avant 2027 pour faire baisser les prix.




Je ne vois pas le rapport avec les nouvelles fab, d’ailleurs celle de TSMC en Arizona devrait être opérationnelle en 2025. La demande en semi-conducteur n’est plus la même que pendant la période des confinements, les problèmes de capacité de production ont été corrigés. Ceux qui se cachent derrière la capacité de production sont les industries automobiles en Europe et aux USA du fait du retour de bâton des restrictions imposées à la Chine par les USA.



Guinnness a dit:


et d’ailleurs il me semble que les pilotes proprios sont dépréciés ou en voie de l’être.




Non, pas vraiment, les pilotes proprio permettent certaines choses que les pilotes libres ne permettent pas, probablement lié à des brevets.



Pour le grand public, c’est le décodage / encodage matériel de vidéo qui est concerné :
https://forum.manjaro.org/t/upstream-mesa-removal-of-avc-hevc-vc-1-hardware-acceleration-amd-gpus/128385



ben51 a dit:


Les carte graphique vont devenir un luxe.




Et c’est grave ? Tu peux toujours acheter des cartes d’occasion, ou juste ne pas te précipiter sur les derniers modèles… Si tu es juste, il y a d’autres priorités que la dernière CG qui de toute façon changera dans 6 mois.


Globalement mon pc a plus de 7 ans



ben51 a dit:


Les carte graphique vont devenir un luxe.




Ça l’est depuis à peu près toujours… L’ATI Rage Xpert@Home devait être le composant le plus cher de mon premier PC monté et encore c’était pas du haut de gamme…



Beaucoup d’ordi n’ont désormais plus que le GPU intégré au CPU et cela suffit pour la plupart des utilisateurs & usages.


Quand on parle de 1440p c’est pour les écrans large type 21:9 comme j’ai ou un autre format ?


Les 16:9 …. 2560x1440 (4 x 720p)



renaud07 a dit:


Je crois qu’il faut que je cherche dans les gammes pro/business, car ils ont souvent tous les réglages de hauteur/inclinaison/rotation (dernier point très important dans mon cas).




Si tu cherche le confort de ce coté la, réserve une partie de ton budget (ou dégage en plus) pour t’acheter un bras ajustable si ça s’intègre bien dans ton bureau, ça coute environ 40€ et comparé au bras fournis par les écrans c’est bien mieux.


J’y ai pensé plusieurs fois, mais le problème comme toujours c’est la fenêtre qui gêne :transpi: Sinon il y bien longtemps que j’y serais passé vu le prix que ça coûte.



:chinois: C’est vrai que pour du travail prolongé, c’est mieux que ça soit pas trop petit. J’ai en effet remarqué que je fatigue plus vite sur mon portable que le fixe.



Idem. Je ne l’utilise pas non plus à cause de certaines apps, même sous Win qui a un très largement meilleur support que Linux. Je préfère avoir l’interface à 100% quitte à prendre moins défini. Sans compter, maintenant que je le sais, la conso des CG qui fait un bond spectaculaire en matière de conso plus on augmente la résolution et la fréquence, passer de 20 à 80W pour afficher le bureau… non merci, mes factures d’elec sont déjà bien assez chères…


Fermer