Connexion
Abonnez-vous

AMD annoncera Zen 3 le 8 octobre, les Radeon RX 6000 le 28 octobre

C'est parti ma Lili !

AMD annoncera Zen 3 le 8 octobre, les Radeon RX 6000 le 28 octobre

Le 09 septembre 2020 à 16h16

AMD était silencieux ces dernières semaines, mais semble (enfin) s'être décidé à parler. Des annonces sont prévues autour de Zen 3 et RDNA 2. Deux dates ont été annoncées : les 8 et 28 octobre prochains.

« Zen 3 sera lancé en 2020 ». C'était la promesse d'AMD. Même si les partenaires ont gardé le plus gros des secrets de cette architecture, qui devrait être une sorte de Zen 2 +, la grande annonce sera pour le mois prochain.

Elle se fera à 18 h (heure française). Ce ne sera que le début des festivités pour le constructeur qui s'occupera de ses prochaines Radeon RX 6000 basées sur l'architecture RDNA2 dès le 28 octobre. Là aussi l'annonce est attendue à 18 h, et d'ores et déjà présentée comme « un nouvel horizon pour Radeon Graphics ».

En parler dès aujourd'hui est tout sauf anodin, NVIDIA ayant dévoilé ses GeForce RTX de série 30, attendues pour une mise sur le marché dès le 17 septembre. Dès lors, l'objectif d'AMD est d'inciter les consommateurs à attendre en leur promettant monts et merveilles (sans trop en dire pour le moment).

Ces déclarations confirment nos précédentes informations de lancement courant octobre/novembre. Reste maintenant à découvrir ce qui sera annoncé, les prix et la disponibilité de tout ce beau monde. Lisa Su a elle-même déclaré que cette fin d'année serait marquante pour ses équipes et les joueurs... on a hâte de le vérifier !

Commentaires (79)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

J’ai hâte de voir tout ça !!



Je compte changer de carte graphique d’ici la fin d’année, plus qu’à attendre les tests….

votre avatar

Et Nvidia va donc mettre sur le marché la 3070 le 28 octobre pour pourrir le lancement. :roll:

votre avatar

Arka_Voltchek a dit:


Et Nvidia va donc mettre sur le marché la 3070 le 28 octobre pour pourrir le lancement. :roll:


ils peuvent toujours, mais entre faire une annonce (avec le cortège de tests et de com’) et en avoir dans les étales (ou chez les VPC) c’est une autre chose.



La 3070 semble bien positionnée, mais le plus malin il me semble c’est de la lancer en septembre et avoir une dispo dans la foulée. Les gens vont basculer rapidement dessus et AMD sera pris de court.

votre avatar

La production de GPU pour NVIDIA sur le process 8nm de SAMSUNG va rester faible a cause des mauvais yields, il y aura du mieux début 2021

votre avatar

Arka_Voltchek a dit:



Ils attendaient sans doute pour caler, mais ça dépend aussi de la disponibilité dans le channel qui ne se modifie pas d’un claquement de doigts. Après la question pour la 3070 c’est surtout de trouver une solution pour répondre à ce qui sera sans doute l’argumentaire d’AMD ; petit prix, grosse mémoire même si ça ne sert pas. Pour une part du marché sensible au marketing et aux prix plancher ça peut marcher (mais je doute que NVIDIA court après cette clientèle outre mesure.




xillibit a dit:


La production de GPU pour NVIDIA sur le process 8nm de SAMSUNG va rester faible a cause des mauvais yields, il y aura du mieux début 2021


Vu ce qui est en arrivage chez les revendeurs, c’est plus une problématique de ne pas voir tout le stock (même quand il sera plus important courant octobre) partir en fumée trop rapidement que des spéculations sur les rendements de samsung sur fond de rumeurs en téléphone arabe ;)

votre avatar

Moi j’avoue être assez déçus des cartes graphiques AMD, entre les profils personnalisés qui sautent une fois sur deux, le bug de son sur le HDMI si on se connecte sur un ampli home cinéma, le rapport perf/watt pas top et globalement les features annexes plus pauvre que chez Nvidia, il leur reste que le rapport perf/euros en jeu uniquement pour rattraper le coup.
Je vais surement garder ma RX 5700XT encore un moment mais bon à l’usage, j’ai eu plus de problème avec cette carte qu’avec ma GTX980.

votre avatar

J’espère que la gamme 6XXX sera plus aboutie niveau pilote comparée à la gamme 5XXX. :/
J’avais pris une RX580 en me disant, je changerais sur la prochaine génération de gpu ati pour avoir quelque chose de top pour flight simulator/star citizen, mais le nombre de pb remonté sur la gamme 5XXX (freesync and co) m’a repoussé niveau achat…



Espérons donc que cette gamme 6XXX sera plus tentante.
(je reste chez amd pour les pilotes libres sous nux :o )

votre avatar

Les problèmes de pilotes viennent généralement de la personne qui les installent, j’avais une RX 480 sous W10 et maintenant une RX 5700 sous Linux, aucuns problèmes de pilotes sur les deux cartes, juste sur la dernière, un problème extérieur concernant les ventilos qu’il a fallu que je débranche et rebranche pour que tout refonctionne impeccablement.



Curieux de voir ce que donneront RDNA2 et Zen3.

votre avatar

QTrEIX a dit:


Les problèmes de pilotes viennent généralement de la personne qui les installent, j’avais une RX 480 sous W10 et maintenant une RX 5700 sous Linux, aucuns problèmes de pilotes sur les deux cartes, juste sur la dernière, un problème extérieur concernant les ventilos qu’il a fallu que je débranche et rebranche pour que tout refonctionne impeccablement.Curieux de voir ce que donneront RDNA2 et Zen3.


ta rx 5700 fonctionne parfaitement sous windows?
Les problèmes remontés c’était toujours sous windows, sous linux bizarrement tout était justement parfait.



Mais ça concernait surtout des soucis avec freesync (tu as aussi un écran freesync)?

votre avatar

Ah ba voilà… bravo. Bon ba je vais attendre encore :D

votre avatar

QTrEIX a dit:


Les problèmes de pilotes viennent généralement de la personne qui les installent,


Lol, ça veut dire quoi ça, l’installation d’un pilote sous Windows c’est suivant, suivant, suivant…. comment veux-tu qu’on se goure ?



Faut arrêter d’être dans le déni, y’avait des bugs de pilotes en début d’année, point. Ça dépend peut-être du hardware et des jeux ça je suis d’accord, tout le monde n’a pas été touché j’en conviens. Pas de bol moi j’en ai fait l’expérience avec une 5700XT, donc retour sur la 1070.



Comme beaucoup j’attends de voir l’offre RX6000. Si c’est trop cher je retenterai peut-être ma chance sur du 5600XT/5700/5700XT quand les prix auront baissé.

votre avatar

Burn2 a dit:


ta rx 5700 fonctionne parfaitement sous windows? Les problèmes remontés c’était toujours sous windows, sous linux bizarrement tout était justement parfait.Mais ça concernait surtout des soucis avec freesync (tu as aussi un écran freesync)?


Je ne peux pas te répondre parce que j’ai basculé sous Linux avant d’avoir acheté la RX 5700, mais de ce que je sais, c’est qu’Internet et ses forums peuvent donner l’impression que la série 5XXX a subi beaucoup de retour parce que ce sont les mêmes qui en parlent partout, tandis que les autres qui n’ont pas de problèmes ne viennent pas l’annoncer, logique.



J’ai un écran Freesync 144hz, aucuns problèmes, de ce que je sais, les pilotes open-sources AMD sont meilleurs que les pilotes open-sources Nvidia pour Linux, mais ça dépends peut-être des cas, pour Nvidia il est conseillé d’installer les pilotes propriétaires, moins intuitif à installer que sous W10, tandis que les pilotes open-sources AMD font presque aussi bien que leurs cousins propriétaires et qu’elles sont pré-installés, y a rien besoin de faire.

votre avatar

“C’est parti ma Lili !”



Celle là David, j’avoue qu’il fallait la placer ! :D

votre avatar

QTrEIX a dit:


Je ne peux pas te répondre parce que j’ai basculé sous Linux avant d’avoir acheté la RX 5700, mais de ce que je sais, c’est qu’Internet et ses forums peuvent donner l’impression que la série 5XXX a subi beaucoup de retour parce que ce sont les mêmes qui en parlent partout, tandis que les autres qui n’ont pas de problèmes ne viennent pas l’annoncer, logique.J’ai un écran Freesync 144hz, aucuns problèmes, de ce que je sais, les pilotes open-sources AMD sont meilleurs que les pilotes open-sources Nvidia pour Linux, mais ça dépends peut-être des cas, pour Nvidia il est conseillé d’installer les pilotes propriétaires, moins intuitif à installer que sous W10, tandis que les pilotes open-sources AMD font presque aussi bien que leurs cousins propriétaires et qu’elles sont pré-installés, y a rien besoin de faire.


Justement le problème se pose sous windows comme je l’ai dis.
D’ailleurs si tu regardes le changelog des pilotes amd windows, tu pourras voir des problèmes toujours mentionnés comme “connus” et depuis le début.
Et ça concerne justement freesync.
cf:
“With Radeon FreeSync enabled on Radeon RX 5000 series system configurations, task switching to another display or application may cause the display to flicker for a few moments.
With Radeon FreeSync enabled on Radeon RX 5000 series system configurations, task switching to another display or application may cause the display to flicker for a few moments.
Brightness flickering may be experienced on some VP9 video content playback through applications or web browsers on Radeon RX 5000 series graphics product system configurations.
Enhanced Sync may cause a black screen to occur when enabled on some games and system configurations. Any users who may be experiencing issues with Enhanced Sync enabled should disable it as a temporary workaround.
Performance Metrics Overlay and the Performance Tuning tab incorrectly report higher than expected idle clock speeds on Radeon RX 5700 series graphics products. Performance and power consumption are not impacted by this incorrect reporting.
With HDR enabled, Windows® desktop may experience flickering, and performing a task switch while in a game may cause colors to become washed out or over saturated.
Audio may experience instability when connected through an Audio Video Receiver via HDMI® on Radeon RX 5000 series graphics products.
Modifying the HDMI Scaling slider may cause FPS to become locked to 30.
Some games may exhibit stutter intermittently during gameplay on Radeon RX 5000 series graphics products.
AMD will continue to monitor and investigate any new reports of black screen or system hang issues during extended periods of gameplay closely. Users are encouraged to use the new Bug Reporting Tool for any issues they may encounter. “



Je suis le topic HFR ou les gens racontent leurs soucis, et ceux à ne jamais avoir de problème sont plus que rares. Parfois ça varie selon les jeux, certains problèmes ont été résolus, mais on n’est pas sur du 100%
ça reste toujours valable. Et si amd le mentionne toujours ce n’est pas pour rien.



Maintenant pour le côté openSouce sous linux, la question ne se pose pas, et c’est justement pour ça que j’ai un gpu amd… J’attends juste une gamme plus performante que ma 580 qui n’ait pas de soucis de pilote sous windows.

votre avatar

Burn2 a dit:


ta rx 5700 fonctionne parfaitement sous windows? Les problèmes remontés c’était toujours sous windows, sous linux bizarrement tout était justement parfait.Mais ça concernait surtout des soucis avec freesync (tu as aussi un écran freesync)?


J’ai deux rx 5700 elles fonctionnent niquel. Sauf que le driver AMD a un souci quand tu active le mGPU ça flingue complètement l’explorateur au passage aussi. Donc activation alt+f4 kill puis relaunch de explorer.exe et ne pas oublier de réduire la fenêtre de l’installeur qui est figé.



Le bug lors de l’activation du mGPU est le seul que j’ai constaté.

votre avatar

Burn2 a dit:


Maintenant pour le côté openSouce sous linux, la question ne se pose pas, et c’est justement pour ça que j’ai un gpu amd… J’attends juste une gamme plus performante que ma 580 qui n’ait pas de soucis de pilote sous windows.


Tu joues sous Windows ou Linux ? J’ai pas bien compris, passez d’une RX 580 à une RX 5700 ou un RX 5700 XT fait déjà une belle différence, mais aujourd’hui oui, autant attendre RDNA2.



Concernant les problèmes de pilotes qu’il y a eu la plupart du temps sous Windows, cela pourrait t-il aussi venir du modèle de la carte ? J’ai une Sapphire Pulse, le blower d’origine je ne le sentais pas, et Sapphire est avec PowerColor la seule marque en Europe à construire des cartes pour AMD et en être un partenaire officiel, les autres marques font de la copie de ce qu’ils font pour Nvidia, PowerColor est plus localisé sur le marché américain.

votre avatar

QTrEIX a dit:


Tu joues sous Windows ou Linux ? J’ai pas bien compris, passez d’une RX 580 à une RX 5700 ou un RX 5700 XT fait déjà une belle différence, mais aujourd’hui oui, autant attendre RDNA2.Concernant les problèmes de pilotes qu’il y a eu la plupart du temps sous Windows, cela pourrait t-il aussi venir du modèle de la carte ? J’ai une Sapphire Pulse, le blower d’origine je ne le sentais pas, et Sapphire est avec PowerColor la seule marque en Europe à construire des cartes pour AMD et en être un partenaire officiel, les autres marques font de la copie de ce qu’ils font pour Nvidia, PowerColor est plus localisé sur le marché américain.


Je joue sous windows, mais j’utilise linux au quotidien, windows n’étant là que pour jouer. :o
Donc il faut que tout soit opérationnel sous windows sans bug freesync, mais que ça fonctionne au poil sous linux (d’ou le choix d’amd avec les pilotes libres).



Sinon non, j’ai vu passer des soucis sur des sapphires pulse aussi. Regarde la liste référencé comme “connu” par amd, s’ils mentionnent ces bugs là c’est que c’est connu.

votre avatar

Quel quantité de Vram minimum faut il viser sur ces nouvelles carte graphiques pour jouer en 4K 60 FPS et être tranquille au moins 5 ans avec les futurs jeux ?

votre avatar

Bonne chance pour avoir l’air convaincant face a NVidia (non fanboy).



En plus leur gamme, c’est le bordel total. Ils sont pas foutu d’avoir un gamme clair c’est incroyable.



Entre les RX 5X00,, les 5X0, La radeon VII au milieu et les RX vega 6456, mais serieux ??? C’est possible d’etre plus nul a * niveau organisation ?

votre avatar

sofien69100 a dit:


Quel quantité de Vram minimum faut il viser sur ces nouvelles carte graphiques pour jouer en 4K 60 FPS et être tranquille au moins 5 ans avec les futurs jeux ?


La 4K à 60 ips ce n’est pas principalement une question de quantité de mémoire. Sinon la Radeon VII serait la reine du bal.




rmfx a dit:


Bonne chance pour avoir l’air convaincant face a NVidia (non fanboy).En plus leur gamme, c’est le bordel total. Ils sont pas foutu d’avoir un gamme clair c’est incroyable.Entre les RX 5X00,, les 5X0, La radeon VII au milieu et les RX vega 6456, mais serieux ??? C’est possible d’etre plus nul a * niveau organisation ?


C’est pourtant simple : RX 500, Radeon VII, Vega c’est en fin de vie et plutôt à éviter. Les RX 5000 sont là pour couvrir une bonne partie de la gamme, on verra jusqu’où iront les RX 6000.

votre avatar

Super nouvelle. Quels sont les délais habituels entre les annonces et l’approvisionnement réel chez les fournisseurs ?

votre avatar

revker a dit:



Il n’y a pas de règles, ça dépend pour chaque lancement. On aura la date le jour des annonces sans doute.

votre avatar

David_L a dit:


Il n’y a pas de règles, ça dépend pour chaque lancement. On aura la date le jour des annonces sans doute.


Merci.

votre avatar

J’ai hâte de voir ce que va proposer zen 3. En espérant surtout qu’ils auront amélioré leur problème de latence mémoire

votre avatar

David_L a dit:


C’est pourtant simple : RX 500, Radeon VII, Vega c’est en fin de vie et plutôt à éviter. Les RX 5000 sont là pour couvrir une bonne partie de la gamme, on verra jusqu’où iront les RX 6000.


Oui, enfin, je suis plutôt d’accord avec lui, là où chez Nvidia on a:



10xx, 20xx, et maintenant 30xx



Chez AMD je ne vois pas la logique entre les RX 500, radeon VII (??), et les 5000 ? Une 580 et moins bien qu’une 5700xt ? avec juste la nomenclature on ne sait pas trop…



Surtout qu’AMD à tendance à sortir des cartes souvent entrée / milieu de gamme qui ne sont donc pas forcément mieux que la génération précédente.

votre avatar

Burn2 a dit:


Je joue sous windows, mais j’utilise linux au quotidien, windows n’étant là que pour jouer. :o Donc il faut que tout soit opérationnel sous windows sans bug freesync, mais que ça fonctionne au poil sous linux (d’ou le choix d’amd avec les pilotes libres).Sinon non, j’ai vu passer des soucis sur des sapphires pulse aussi. Regarde la liste référencé comme “connu” par amd, s’ils mentionnent ces bugs là c’est que c’est connu.


Sous Linux tu as Proton, un Wine modifié par Steam et qui pour ma part fonctionne très bien pour mes jeux Windows, tu l’installes via Steam en activant le Steam Play, tu as un dépot Github avec toutes les infos et le site ProtonDB t’indique les jeux qui fonctionnent ou pas, mal ou qui nécessitent un peu de bidouille supplémentaire. Maintenant, il faudrait que GOG se décide à sortir une version native de Galaxy, en attendant, j’ai trouvé une alternative qui semble correcte, GameHub.



Le modèle de la carte n’a donc aucuns rapport, ça pourrait venir aussi d’Adrelanin ? J’en ai lu sur Reddit se plaindre qu’Adrelanin plante ou que certaines fonctionnalités ne fonctionnent pas, le truc, c’est que je pense que certains ne doivent pas désinstallés correctement leurs précédents drivers.

votre avatar

eglyn a dit:



Sur la précédente architecture (GCN, jusqu’à Polaris) les numérotations étaient en 200, 300, 400, 500. Vega a changé un peu les choses avec les Vega56/64 et la VII qui était une sorte de contraction de “Vega 2” symbolisant le 7 nm. Avec RDNA/Navi, AMD a décidé de se recaler sur du RX 5000 puis désormais 6000. C’est moins consistant dans le temps, mais ça reste cohérent pour chaque génération.

votre avatar

C’est clair.



Autant, ils sont plus clairs qu’Intel sur les processeurs, autant sur les cartes graphiques, c’est effectivement le bordel.




eglyn a dit:


Oui, enfin, je suis plutôt d’accord avec lui, là où chez Nvidia on a:10xx, 20xx, et maintenant 30xxChez AMD je ne vois pas la logique entre les RX 500, radeon VII (??), et les 5000 ? Une 580 et moins bien qu’une 5700xt ? avec juste la nomenclature on ne sait pas trop…Surtout qu’AMD à tendance à sortir des cartes souvent entrée / milieu de gamme qui ne sont donc pas forcément mieux que la génération précédente.


votre avatar

eglyn a dit:


Oui, enfin, je suis plutôt d’accord avec lui, là où chez Nvidia on a:10xx, 20xx, et maintenant 30xxChez AMD je ne vois pas la logique entre les RX 500, radeon VII (??), et les 5000 ? Une 580 et moins bien qu’une 5700xt ? avec juste la nomenclature on ne sait pas trop…


C’est pas faux, autant la nomenclature Ryzen est très simple, autant pour Radeon un peu moins, Polaris, Vega et Navi, c’est de l’architecture GCN, seulement pour Navi, AMD l’a tellement modifié qu’ils ont préférés changer le nom en RDNA, la série RX4XX/5XX n’a sortie que de l’entrée de gamme et du moyen de gamme, pour Vega, la dernière de la série est la Radeon VII (VII = Vega 2) qui est un modèle haut de gamme, pour la série RX 5XXX, le modèle haut de gamme est la XT 50th Anniversary, et puisque tu écris que les nouveaux modèles ne sont pas forcément mieux que les générations précédentes, c’est aussi le cas pour Nvidia, la 1080ti équivaut grossomodo à une 2070S sans le Ray Tracing, seulement, la 1080ti coûtait un bras et il faut aussi regarder du côté de la consommation.



Mieux vaut s’attendre à un refresh de RDNA1 pour éviter d’être déçu, si c’est mieux encore, alors c’est super.

votre avatar

revker a dit:


C’est clair.Autant, ils sont plus clairs qu’Intel sur les processeurs, autant sur les cartes graphiques, c’est effectivement le bordel.


D’expérience, c’est compliqué d’assurer une cohérence dans le temps, et des dénominations claires. Surtout avec les contraintes qui sont celles de proposer des produits assez diversifiés. C’est le même souci sur les Ryzen avec le 5, 7, 9, le X/XT, etc. Une décision peut sembler bonne à un moment mais avoir moins de sens pour la gamme suivante, etc. On ne peut pas tout anticiper.

votre avatar

C’est assez hallucinant tous les commentaires sur sites spécialisés qui focalisent sur la Vram…



Si les performances sont la, qu’est ce qu’on en a à foutre sérieux ? Surtout que les vitesses de communication de données évoluent à quantité égale…



Sinon j’attends malheureusement pas de révolution de la part d’amd.



Sur cette génération je vois surtout une explosion de la consommation et des systèmes de refroidissement qui deviennent démesurés.

votre avatar

Arka_Voltchek a dit:


Et Nvidia va donc mettre sur le marché la 3070 le 28 octobre pour pourrir le lancement. :roll:


Mouaiiiiis…
Quand je lis les premiers retours sur les 3080, on est aux alentours de +25% de perfs (M’étonnerai pas que la 3070 soit du même acabit, voir pire.), soit une évolution assez classique pour une CG mais très loin des perfs x2 dont Nvidia se vantait à l’annonce des cartes.



Et quand on voit en même temps l’explosion des tarifs justifié par un soi-disant changement de gamme par les fanboys ( :roll: ), perso, je préfère largement attendre la concurrence.



Je me méfie des annonces des fabricants, toujours à promettre monts et merveilles pour se retrouver au final avec un pétard mouillé…

votre avatar

Nerg34 a dit:


…Sinon j’attends malheureusement pas de révolution de la part d’amd.Sur cette génération je vois surtout une explosion de la consommation et des systèmes de refroidissement qui deviennent démesurés.


Refroidissement énorme est souvent synonyme de chauffe importante.
Ça ne laisse rien présager de bon sur la durée de vie de la carte.

votre avatar

js2082 a dit:


Mouaiiiiis… Quand je lis les premiers retours sur les 3080, on est aux alentours de +25% de perfs (M’étonnerai pas que la 3070 soit du même acabit, voir pire.), soit une évolution assez classique pour une CG mais très loin des perfs x2 dont Nvidia se vantait à l’annonce des cartes.Et quand on voit en même temps l’explosion des tarifs justifié par un soi-disant changement de gamme par les fanboys ( :roll: ), perso, je préfère largement attendre la concurrence.Je me méfie des annonces des fabricants, toujours à promettre monts et merveilles pour se retrouver au final avec un pétard mouillé…


Le monde se divise en deux catégories, l’annonce des constructeurs, du marketing calculé, et la réalité parfois bien différente :D




js2082 a dit:


Refroidissement énorme est souvent synonyme de chauffe importante. Ça ne laisse rien présager de bon sur la durée de vie de la carte.


On verra bien, mais il est claire qu’une gravure plus fine ne signifie pas forcément une consommation plus faible, puisque les constructeurs en profitent pour mettre plus de transistors.

votre avatar

js2082 a dit:


Mouaiiiiis…



QTrEIX a dit:


Le monde se divise en deux catégories, l’annonce des constructeurs, du marketing calculé, et la réalité parfois bien différente :D


D’expérience : il vaut mieux attendre des tests complets et divers, plutôt que de se baser sur le marketing ou les rumeurs foireuses ;)

votre avatar

Je trouve qu’AMD traîne trop à divulguer la puce Big Navi. nVidia a quand même créé du hype autour de la série 3000, et pas mal de monde risque de se ruer dessus, sans intervention concrète d’AMD pour attirer les regards vers ses produits.

votre avatar

eglyn a dit:


Oui, enfin, je suis plutôt d’accord avec lui, là où chez Nvidia on a:10xx, 20xx, et maintenant 30xxChez AMD je ne vois pas la logique entre les RX 500, radeon VII (??), et les 5000 ? Une 580 et moins bien qu’une 5700xt ? avec juste la nomenclature on ne sait pas trop…Surtout qu’AMD à tendance à sortir des cartes souvent entrée / milieu de gamme qui ne sont donc pas forcément mieux que la génération précédente.


Je pense pas qu’on puisse dire que c’est si simple chez Nvidia, entre les Ti, les Super, la série 16 sans RTX, c’est pas non plus limpide.
Plus certain modèle avec une dénomination identique mais dont la configuration a évolué sous le manteau entre temps.
Et sur la gamme Ryzen mobile c’est pas la joie non plus, il est parfois bien difficile de s’y retrouver dans la jungle des dénominations.



Sur le papier les nouvelles cartes Nvidia ont l’air bien, maintenant on attends toujours les vrais test en condition réelle et surtout une disponibilité chez les revendeurs à des prix pas trop éloigné de ce qui a été annoncé.
Même chose pour les pour les prochaines cartes AMD, tant que les tests ne sont pas là, il faudra attendre pour juger sur pièce.



Mais personnellement, je garde une préférence pour Nvidia, donc même si ils sont un peu plus chère cela ne suffira plus à faire pencher la balance coté AMD.
Le prix c’est bien, la tranquillité d’usage, c’est mieux, j’ai plus envie de passer mon temps à bricoler mon PC pour qu’il fonctionne au poil, j’ai juste envie que ça fonctionne quand l’envie de lancer un jeu me prend.

votre avatar

David_L a dit:


D’expérience : il vaut mieux attendre des tests complets et divers, plutôt que de se baser sur le marketing ou les rumeurs foireuses ;)


Exacte et c’est ce que mon message voulait insinuer, j’ajoute qu’il vaut mieux un peu se méfier des premiers tests, parfois fait avec des pilotes pas encore bien optimisés ou problèmes divers :)

votre avatar

Il est certain qu’entre le marketing et la réalité il y a souvent un monde.



Mais le changement d’architecture de nVidia s’annonce prometteur.

votre avatar

js2082 a dit:


Mouaiiiiis… Quand je lis les premiers retours sur les 3080, on est aux alentours de +25% de perfs (M’étonnerai pas que la 3070 soit du même acabit, voir pire.), soit une évolution assez classique pour une CG mais très loin des perfs x2 dont Nvidia se vantait à l’annonce des cartes.Et quand on voit en même temps l’explosion des tarifs justifié par un soi-disant changement de gamme par les fanboys ( :roll: ), perso, je préfère largement attendre la concurrence.Je me méfie des annonces des fabricants, toujours à promettre monts et merveilles pour se retrouver au final avec un pétard mouillé…


Elle est supposée faire x2 par rapport à la 2080, pas la 2080 Ti, ce n’est pas du tout la même chose.
Les 1ers retours que j’ai entendus laissent entendre que même si ça n’arrive pas forcément à du x2, on n’en serait pas bien loin même sans DLSS 2.0 ni ray tracing (genre +70% à +90%). On verra bien, mais +25% sans DLSS 2.0 ni ray tracing par rapport à une 2080 Ti pour 60% du prix, ça me parait pas mal du tout, que ce soit proche ou non des promesses de NVidia.
Quant à l’explosion des tarifs, elle était plutôt sur les 2 générations précédentes, là ça repart plutôt à la baisse, même si ça reste trop cher.

votre avatar

Xploited_Titan a dit:


Je trouve qu’AMD traîne trop à divulguer la puce Big Navi. nVidia a quand même créé du hype autour de la série 3000, et pas mal de monde risque de se ruer dessus, sans intervention concrète d’AMD pour attirer les regards vers ses produits.


Il y a pas qui se moque de la chauffe des nouvelles RTX



AMD ne peut pas en dire plus avant le lancement, mais je trouve que la date de lancement des NAVI 2x est trop loin du lancement de ZEN 3

votre avatar

QTrEIX a dit:


C’est pas faux, autant la nomenclature Ryzen est très simple, autant pour Radeon un peu moins, Polaris, Vega et Navi, c’est de l’architecture GCN, seulement pour Navi, AMD l’a tellement modifié qu’ils ont préférés changer le nom en RDNA, la série RX4XX/5XX n’a sortie que de l’entrée de gamme et du moyen de gamme, pour Vega, la dernière de la série est la Radeon VII (VII = Vega 2) qui est un modèle haut de gamme, pour la série RX 5XXX, le modèle haut de gamme est la XT 50th Anniversary, et puisque tu écris que les nouveaux modèles ne sont pas forcément mieux que les générations précédentes, c’est aussi le cas pour Nvidia, la 1080ti équivaut grossomodo à une 2070S sans le Ray Tracing, seulement, la 1080ti coûtait un bras et il faut aussi regarder du côté de la consommation.Mieux vaut s’attendre à un refresh de RDNA1 pour éviter d’être déçu, si c’est mieux encore, alors c’est super.


Oui, ce que je voulais dire c’est que quand même chez Nvidia, les 2 premiers chiffre donnent la génération, et les 2 derniers la puissance en gros. Donc, on a direct une idée de la carte.



Je ne comprend pas pourquoi AMD n’est pas passé sur des 600 au lieu de 5000; mais je pense qu’ils sont capables de sortir une série 600 remarque 😅

votre avatar

Galak_ a dit:


Elle est supposée faire x2 par rapport à la 2080, pas la 2080 Ti, ce n’est pas du tout la même chose. Les 1ers retours que j’ai entendus laissent entendre que même si ça n’arrive pas forcément à du x2, on n’en serait pas bien loin même sans DLSS 2.0 ni ray tracing (genre +70% à +90%). On verra bien, mais +25% sans DLSS 2.0 ni ray tracing par rapport à une 2080 Ti pour 60% du prix, ça me parait pas mal du tout, que ce soit proche ou non des promesses de NVidia. Quant à l’explosion des tarifs, elle était plutôt sur les 2 générations précédentes, là ça repart plutôt à la baisse, même si ça reste trop cher.


Qu’il est loin le temps où tu avais une Geforce 2 Ultra représentant le haut de gamme qui coutait max 300 euros en fin 2000/début 2001…
:vieuxconcétaitmieuxavant:



(pour info, même avec l’inflation, le HdG de l’époque c’était l’équivalent de 400 euros)aujourd’hui)

votre avatar

eglyn a dit:


Oui, ce que je voulais dire c’est que quand même chez Nvidia, les 2 premiers chiffre donnent la génération, et les 2 derniers la puissance en gros. Donc, on a direct une idée de la carte.Je ne comprend pas pourquoi AMD n’est pas passé sur des 600 au lieu de 5000; mais je pense qu’ils sont capables de sortir une série 600 remarque 😅


Il y a eu des RX640, sur certains marchés ?



C’est très bien 6000, c’est au-dessus des 3000 de Nvidia

votre avatar

Patatt a dit:


Moi j’avoue être assez déçus des cartes graphiques AMD,[…] le bug de son sur le HDMI si on se connecte sur un ampli home cinéma, […]


Aucun problème de mon coté avec une vieille R9 Fury. Tu rencontre quoi comme soucis ?



Pour les histoires de nom de cartes, cela a toujours été le bazar des 2 cotés.
Entre nVidia qui ne sais pas compter (6XX, 7XX,9XX,10XX,20XX,30XX)
Et AMD qui change trop souvent de dénomination ( R9 XXX / R VEGA / RX 5XXX / RX 6XXX)
On n’est pas sorti.
Par contre pour les 2s en général une gamme est cohérente dans sa numérotation.
Cela permet de voir que nVidia a fait exploser les prix des XX60 / XX70. Et que AMD a suivit.



Je suis au final assez enthousiaste tout de même par cette nouvelle gen ( le fait d’avoir une 980Ti pour jouer en 4K doit surement aidé) Mais je m’étonne que la consommation ne fasse pas plus parler d’elle. 350W ! pour la RTX 3080 sauf erreur. Quand je pense que l’on se moquait gentillement des Vega :D
J’ai une bonne alim alors ça passera (quand je me serais décider a changer) mais tout de même je trouve cela énorme.

votre avatar

SirGallahad a dit:


Aucun problème de mon coté avec une vieille R9 Fury. Tu rencontre quoi comme soucis ?Pour les histoires de nom de cartes, cela a toujours été le bazar des 2 cotés. Entre nVidia qui ne sais pas compter (6XX, 7XX,9XX,10XX,20XX,30XX) Et AMD qui change trop souvent de dénomination ( R9 XXX / R VEGA / RX 5XXX / RX 6XXX) On n’est pas sorti. Par contre pour les 2s en général une gamme est cohérente dans sa numérotation. Cela permet de voir que nVidia a fait exploser les prix des XX60 / XX70. Et que AMD a suivit.Je suis au final assez enthousiaste tout de même par cette nouvelle gen ( le fait d’avoir une 980Ti pour jouer en 4K doit surement aidé) Mais je m’étonne que la consommation ne fasse pas plus parler d’elle. 350W ! pour la RTX 3080 sauf erreur. Quand je pense que l’on se moquait gentillement des Vega :D J’ai une bonne alim alors ça passera (quand je me serais décider a changer) mais tout de même je trouve cela énorme.


350W pour la 3090
250W pour la 3080

votre avatar

QTrEIX a dit:


(…) J’en ai lu sur Reddit se plaindre qu’Adrelanin plante ou que certaines fonctionnalités ne fonctionnent pas, le truc, c’est que je pense que certains ne doivent pas désinstallés correctement leurs précédents drivers.


Je ne voudrais pas médire ou quoi, mais ça fait des années qu’on n’a plus besoin de désinstaller son pilote de carte graphique pour le mettre à jour… en tous cas chez Nvidia. Ça va faire un petit écran noir pendant 5 à 10 secondes lors de la mise à jour et c’est tout ce que ça va causer comme agacement. S’il faut encore passer par un processus aussi primitif pour assurer une mise à jour correcte côté AMD, c’est pas terrible terrible.

votre avatar

eglyn a dit:


Oui, enfin, je suis plutôt d’accord avec lui, là où chez Nvidia on a:10xx, 20xx, et maintenant 30xxChez AMD je ne vois pas la logique entre les RX 500, radeon VII (??), et les 5000 ? Une 580 et moins bien qu’une 5700xt ? avec juste la nomenclature on ne sait pas trop…Surtout qu’AMD à tendance à sortir des cartes souvent entrée / milieu de gamme qui ne sont donc pas forcément mieux que la génération précédente.


Je suis futur proof, j’ai gardé ma 8800GTS quelque part.

votre avatar

Arona a dit:


350W pour la 3090 250W pour la 3080


Non c’est un TDP de 320 Watts pour la RTX3080

votre avatar

xillibit a dit:


Non c’est un TDP de 320 Watts pour la RTX3080


350W 3090
320W 3080
220W 3070



En effet!

votre avatar

Ah oui 320W quand même. 850W d’alimentation ne semble plus si énorme du coup.

votre avatar

js2082 a dit:


Qu’il est loin le temps où tu avais une Geforce 2 Ultra représentant le haut de gamme qui coutait max 300 euros en fin 2000/début 2001… :vieuxconcétaitmieuxavant:(pour info, même avec l’inflation, le HdG de l’époque c’était l’équivalent de 400 euros)aujourd’hui)


Certes mais à l’époque ton HDG suffisait à peine à faire tourner les jeux à fond en petite résolution et était assez vite largué et ton MDG ne permettait pas de tout faire bien tourner day 1. Un MDG d’aujourd’hui est bien plus confortable et durable qu’un HDG de l’époque. C’est facile de faire dire ce qu’on veut en ne prenant que les chiffres qui nous arrangent.



Ma TNT16 demandait pas mal de concessions day 1, ma Ti 4200 a vite montré ses limite, ma 8800 GTS payé 265€ était plus confortable mais a vite demandé pas mal de concessions, ma GTX 560 Ti payée moins de 200€ permettait encore de s’en sortir correctement 3 ans après avec quelques concessions et m’a duré 5 ans, et je râle quand je ne peux pas faire tourner tout en high en 1440p avec ma GTX 1070 qui a déjà 4 ans (mais que j’ai certes payée 380€).

votre avatar

revker a dit:


Ah oui 320W quand même. 850W d’alimentation ne semble plus si énorme du coup.


Ca part toujours en délire sur la conso. Même avec une CG à 320W tu ne vas jamais dépasser les 550W de conso sur ta config (à moins d’overclocker méchamment). Avec une 1070, un i5 2500K @ 4.2 GHz, 6 HDD et pas mal de ventilos, rhéobus et autres joyeusetés, ma config n’a jamais dépassé 300W.
Avoir une alim surdimensionnée est même contre productif, en ayant une conso moyenne qui n’est pas dans la plage optimale de l’alim (certes ça reste marginal sur une bonne alim).
Une alim de 850W ne sert pas à grand chose sur une config mono CPU et mono GPU, à moins peut-être de vouloir battre des records d’OC.



Je trouve aussi que ça s’est emballé sur la conso de ces 30XX, en voyant pas mal de monde dire que la conso augmente. Les gens n’ont retenu que les 350W de la 3090, mais la 3070 a un TPD de 220W pour des perfs supposées proches d’une 2080 Ti qui a un TPD de 260W, donc il devrait bien y avoir une amélioration des perfs par watt.

votre avatar

xillibit a dit:


Non c’est un TDP de 320 Watts pour la RTX3080


TGP : le TDP c’est une valeur de dimensionnement thermique des ventirads. TGP c’est la consommation globale de la carte.




Galak_ a dit:


Ca part toujours en délire sur la conso. Même avec une CG à 320W tu ne vas jamais dépasser les 550W de conso sur ta config (à moins d’overclocker méchamment).


Oui après le rendement maximal d’un alimentation est dans les environs de 50% Mais je suis d’accord : surdimensionner dans le vide n’a aucun intérêt.

votre avatar

David_L a dit:


TGP : le TDP c’est une valeur de dimensionnement thermique des ventirads. TGP c’est la consommation globale de la carte.Oui après le rendement maximal d’un alimentation est dans les environs de 50% Mais je suis d’accord : surdimensionner dans le vide n’a aucun intérêt.


Ouep mais le rendement maximal, en plus d’une différence marginale sur une alim correcte, il vaut mieux le privilégier sur la config au repros/légère charge, il vaut mieux gagner 5% de conso sur les 95+% du temps où le GPU n’est pas en forte charge que sur les 2-3% tout au plus où il est en charge, sauf éventuellement si le PC ne sert qu’à jouer (et qu’on joue majoritairement à des jeux gourmands).
Et c’est là qu’avoir une alim à 850W qui va tourner à faible régime, soit là où le rendement est le moins bon, sur la config au repos à 70-120W n’a pas de sens si la config ne dépasse jamais 550W.

votre avatar

SirGallahad a dit:


Aucun problème de mon coté avec une vieille R9 Fury. Tu rencontre quoi comme soucis ?Pour les histoires de nom de cartes, cela a toujours été le bazar des 2 cotés.


J’ai des micro coupure de son régulièrement, et c’est dépendant de l’application, par exemple sur du Youtube si je ne fait rien d’autre pas de problème.
Sur du Spotify, ça coupe de temps en temps 2-3 fois par tranche de 5min je dirais, du coup j’utilise la fonction Spotify de l’ampli pour la musique.
En jeu, cela devient injouable tellement le son coupe régulièrement, du coup, je ne joue plus sur ma TV.



Je n’ai de soucis de son sur l’ampli qu’avec mon PC, toutes les autres sources fonctionnent correctement.



J’ai lu qu’une solution de contournement était d’utiliser un adaptateur Display Port HDMI actif, j’en ai trouvé un à 15€, on verra bien.

votre avatar

js2082 a dit:


Mouaiiiiis… Quand je lis les premiers retours sur les 3080, on est aux alentours de +25% de perfs (M’étonnerai pas que la 3070 soit du même acabit, voir pire.), soit une évolution assez classique pour une CG mais très loin des perfs x2 dont Nvidia se vantait à l’annonce des cartes.Et quand on voit en même temps l’explosion des tarifs justifié par un soi-disant changement de gamme par les fanboys ( :roll: ), perso, je préfère largement attendre la concurrence.Je me méfie des annonces des fabricants, toujours à promettre monts et merveilles pour se retrouver au final avec un pétard mouillé…


Selon Cowcowland, les performances sur tests synthétiques c’est bien +25% face a une 2080Ti et +50% face à une 2080Super mais en jeux on approche les +60% voir les +80% si DLSS supporté : https://www.cowcotland.com/news/73261/carte-graphique-nvidia-geforce-rtx-3080-des-premiers-benchs-montrent-des-performances-stratospheriques.html



Vivement les tests Inpact-Hardaware (Aller David :sm: )

votre avatar

David_L a dit:


Oui après le rendement maximal d’un alimentation est dans les environs de 50% Mais je suis d’accord : surdimensionner dans le vide n’a aucun intérêt.


On est pas plutôt sur du 80-95% de rendement?




Galak_ a dit:


Et c’est là qu’avoir une alim à 850W qui va tourner à faible régime, soit là où le rendement est le moins bon, sur la config au repos à 70-120W n’a pas de sens si la config ne dépasse jamais 550W.


Le problème quand on tire trop juste l’alim, c’est qu’on peut se retrouver avec une alim qui sort en théorie beaucoup sur le 5V (par exemple pour alimenter des ports USB2) mais pas assez sur le 12V … ou l’inverse.



Et par habitude, je garde toujours au moins 20% de marge.



Exemple connu: les dell optiplex 3010: l’alim est trop juste sur le 5V, si on branche souvent des appareils USB2 à charger (iPhone, batteries), on grille l’alim. Pourtant, il me semble que ce sont des 180W, largement suffisantes pour des I3/I5 avec carte graphique intégrée.

votre avatar

bonjour,
je vais attendre de savoir le prix de l équivalent 6xxx par rapport a la 3070 et si l équivalent est presque aussi cher que la 3070, je prendrais la 6xxx de la gamme du dessous ^^

votre avatar

(quote:50069:brice.wernet)
On est pas plutôt sur du 80-95% de rendement?


il parle du taux de charge où le rendement est le meilleur, pas du rendement lui-même
par ex : une alim 400w fournira 200w @ 95% de rendement, mais pour fournir 50w ou 350w, le rendement sera plus faible du genre 85% au mieux, 50% au pire (si on tombe sous les 50%, on doit pouvoir parler de chauffage d’appoint plutôt que d’alimentation XD)

votre avatar

Je plains les acheteurs de la 2080 TI même si c’est une carte encore surpuissante surtout si on ne s’aventure pas au-delà de 2K en résolution.



M’enfin, c’est pour ça que je n’achète jamais le meilleure modèle, je me contente souvent du XX70 ou parfois du XX80.

votre avatar

(quote:50069:brice.wernet)
On est pas plutôt sur du 80-95% de rendement?


Il parlait du pourcentage de charge auquel l’alim a le meilleur rendement, qui est autour des 50%.




(quote:50069:brice.wernet)
Le problème quand on tire trop juste l’alim, c’est qu’on peut se retrouver avec une alim qui sort en théorie beaucoup sur le 5V (par exemple pour alimenter des ports USB2) mais pas assez sur le 12V … ou l’inverse.Et par habitude, je garde toujours au moins 20% de marge.Exemple connu: les dell optiplex 3010: l’alim est trop juste sur le 5V, si on branche souvent des appareils USB2 à charger (iPhone, batteries), on grille l’alim. Pourtant, il me semble que ce sont des 180W, largement suffisantes pour des I3/I5 avec carte graphique intégrée.


Je parlais de bonnes alims de marque, pas d’alim OEM de PC de bureautique. Garder un peu de marge ok, mais la moitié des mecs qui te disent ça prennent des 750W ou plus sur des config qui ne dépassent jamais les 400 ou 500W. Même en tapant sur de la 2080 Ti tu dépasses difficilement les 400W sur une conf standard, et t’es sous les 250-300W avec les cartes milieu de gamme les plus répandues. Beaucoup gagneraient à s’acheter un petit wattmètre à 20 balles pour réaliser que leur config consomme beaucoup moins qu’ils le pensent.

votre avatar

(quote:50031:Aristide Rutilant)
Je ne voudrais pas médire ou quoi, mais ça fait des années qu’on n’a plus besoin de désinstaller son pilote de carte graphique pour le mettre à jour… en tous cas chez Nvidia. Ça va faire un petit écran noir pendant 5 à 10 secondes lors de la mise à jour et c’est tout ce que ça va causer comme agacement. S’il faut encore passer par un processus aussi primitif pour assurer une mise à jour correcte côté AMD, c’est pas terrible terrible.


Vraiment ? Sous Windows, désinstaller correctement les précédant pilotes pour partir sur une base saine est pour moi du bon sens, surtout si tu passes de Nvidia à AMD ou inversement, je veux bien te croire mais ce n’est pas ce que je ferai.



PS : Je me suis embrouillé les pinceaux je crois, je parle de désinstallés les pilotes uniquement si tu changes de marques, évidemment pour des mises à jours de pilotes sur un même GPU, pas besoin de désinstallés les anciennes.

votre avatar

(quote:50069:brice.wernet)
On est pas plutôt sur du 80-95% de rendement?


Je parle de 50 % de charge. C’est là que le rendement est le meilleur. Mais bon, si l’alim est correcte, le rendement est bon même quand elle est peu/beaucoup chargée. Mais trop chargée elle peut devenir bruyante, là aussi tout dépend de la conception.




horrus a dit:


bonjour, je vais attendre de savoir le prix de l équivalent 6xxx par rapport a la 3070 et si l équivalent est presque aussi cher que la 3070, je prendrais la 6xxx de la gamme du dessous ^^


Ah ben ça, personne n’en doutait. Je pense que même si la 3070 a un bien meilleur perf/prix tu prendras quand même une RX 6000 :D




revker a dit:


Je plains les acheteurs de la 2080 TI même si c’est une carte encore surpuissante surtout si on ne s’aventure pas au-delà de 2K en résolution.M’enfin, c’est pour ça que je n’achète jamais le meilleure modèle, je me contente souvent du XX70 ou parfois du XX80.


Je ne vois pas trop pourquoi. Après ça dépend quand. Quelqu’un qui l’a acheté il y a deux ans en a bien profité et il n’y a pas eu mieux sur le marché depuis. Celui qui l’a acheté il y a 15 jours forcément…. le souci c’est surtout de ne pas avoir anticipé la revente à la limite.



Mais sur le fond, dire ce que tu dis, c’est dire aux constructeurs de ne jamais faire de gros bons en perf/prix. Je doute que ce soit une bonne idée.

votre avatar

Xploited_Titan a dit:


Je trouve qu’AMD traîne trop à divulguer la puce Big Navi. nVidia a quand même créé du hype autour de la série 3000, et pas mal de monde risque de se ruer dessus, sans intervention concrète d’AMD pour attirer les regards vers ses produits.



xillibit a dit:


Il y a pas qui se moque de la chauffe des nouvelles RTXAMD ne peut pas en dire plus avant le lancement, mais je trouve que la date de lancement des NAVI 2x est trop loin du lancement de ZEN 3


Je crois simplement qu’AMD a mis plus de temps à développer leurs cartes graphiques car il était plus urgent de finaliser les APU pour les consoles qui vont sortir avant Noël (et assurer les stocks pour éviter les embrouilles avec Microsoft et Sony).



Et puis entretenir le suspense permet de bien faire monter la sauce, en espérant qu’ils ne vont pas nous décevoir le 28 octobre. Mais c’est un pari. Dans tous les cas, ils ont beaucoup plus à perdre à se foirer sur les APU consoles que sur les GPU discrets grand public.




(quote:50031:Aristide Rutilant)
Je ne voudrais pas médire ou quoi, mais ça fait des années qu’on n’a plus besoin de désinstaller son pilote de carte graphique pour le mettre à jour… en tous cas chez Nvidia. Ça va faire un petit écran noir pendant 5 à 10 secondes lors de la mise à jour et c’est tout ce que ça va causer comme agacement. S’il faut encore passer par un processus aussi primitif pour assurer une mise à jour correcte côté AMD, c’est pas terrible terrible.


Normalement il n’y a plus besoin de le faire avec AMD, mais il arrive en effet que ça foire et qu’il vaille mieux faire une réinstallation propre. Perso, j’ai seulement eu besoin de le faire une fois, parce que j’ai dû installer un pilote plus ancien pour utiliser Parsec (ne fonctionne qu’avec les pilotes recommandés WHQL, pas avec les mises à jour mensuelles “optionnelles”). Je remarque aussi que ça a l’air de mieux tourner avec mon écran FreeSync branché en DP au lieu de HDMI.

votre avatar

SirGallahad a dit:


Aucun problème de mon coté avec une vieille R9 Fury. Tu rencontre quoi comme soucis ?


C’est vrai qu’ATI ont été les premiers à proposer des cartes avec la sortie son via HDMI (je pouvais le faire avec ma Radeon HD3950) et que ça fonctionne en général super bien, mais il me semble avoir lu sur Reddit que le bug de coupure du son sur la génération actuelle est un problème physique et qu’ils n’y peuvent rien avec les pilotes. Et là, je dois avouer que si mon PC de jeu (avec une RX 5700XT, justement) était connecté à mon home cinema dans le salon, j’aurais dégagé la carte pour une 2070 Super fissa, bien que je sois un fan d’AMD. Mais bon, comme je joue sur un bureau avec un casque pseeudo-7.1 USB, je n’ai pas ce problème.

votre avatar

QTrEIX a dit:


Sous Linux tu as Proton, un Wine modifié par Steam et qui pour ma part fonctionne très bien pour mes jeux Windows, tu l’installes via Steam en activant le Steam Play, tu as un dépot Github avec toutes les infos et le site ProtonDB t’indique les jeux qui fonctionnent ou pas, mal ou qui nécessitent un peu de bidouille supplémentaire. Maintenant, il faudrait que GOG se décide à sortir une version native de Galaxy, en attendant, j’ai trouvé une alternative qui semble correcte, GameHub.Le modèle de la carte n’a donc aucuns rapport, ça pourrait venir aussi d’Adrelanin ? J’en ai lu sur Reddit se plaindre qu’Adrelanin plante ou que certaines fonctionnalités ne fonctionnent pas, le truc, c’est que je pense que certains ne doivent pas désinstallés correctement leurs précédents drivers.


Heu oui mais non.
Je ne vais pas jouer à flightsimulator sous linux, ni à star citizen sous linux. :o

votre avatar

Patatt a dit:



Ah oui effectivement ! C’est super gênant.
Même une réinstall propre avec DDU ne change pas le problème ?
Et sans l’ampli, tu a aussi le problème ?

votre avatar

js2082 a dit:


Mouaiiiiis… Quand je lis les premiers retours sur les 3080, on est aux alentours de +25% de perfs (M’étonnerai pas que la 3070 soit du même acabit, voir pire.), soit une évolution assez classique pour une CG mais très loin des perfs x2 dont Nvidia se vantait à l’annonce des cartes.Et quand on voit en même temps l’explosion des tarifs justifié par un soi-disant changement de gamme par les fanboys ( :roll: ), perso, je préfère largement attendre la concurrence.Je me méfie des annonces des fabricants, toujours à promettre monts et merveilles pour se retrouver au final avec un pétard mouillé…


Perso j’attends aussi les bench même si passer sur une 3070 pour remplacer ma 2060 devrait le faire quoi qu’il arrive :D
Mais ton test là… ok c’est un premier retour mais la plateforme n’est pas la même : ni le logiciel, ni le cpu… Donc oui faut faire attention aux annonces, mais faut pas partir dans les délires non plus. Et c’est aussi valable pour la concurrence justement.

votre avatar

SirGallahad a dit:


Ah oui effectivement ! C’est super gênant. Même une réinstall propre avec DDU ne change pas le problème ? Et sans l’ampli, tu a aussi le problème ?


Non rien à faire, réinstallation complète de windows etc.. c’est dans la liste des bug connus d’AMD depuis un moment.
Je n’ai pas pris le temps de tester sans l’ampli, j’y ai pensé à un moment, mais bon à l’usage c’est quand même pas super pratique, ce n’est pas une configuration que j’ai envie d’utiliser, l’overlay de l’ampli ainsi que le “hub” hdmi c’est quand même pratique.



J’ai reçus l’adaptateur DP=>HDMI actif, plus de problème de son, mais plus de HDR non plus, et un adaptateur actif compatible HDR, c’est plus de 50€ :non:
Donc bon je préfère me passer du HDR et ne plus avoir de soucis de son, tant pis.

votre avatar

Xploited_Titan a dit:


Je trouve qu’AMD traîne trop à divulguer la puce Big Navi. nVidia a quand même créé du hype autour de la série 3000, et pas mal de monde risque de se ruer dessus, sans intervention concrète d’AMD pour attirer les regards vers ses produits.


Une semaine après l’annonce de Nvidia, AMD annonce ses prochaines générations de cartes graphique même pas deux mois après les puces de Nvidia, je ne vois pas trop ce qu’il te faut niveau délais…

votre avatar

QTrEIX a dit:


PS : Je me suis embrouillé les pinceaux je crois, je parle de désinstallés les pilotes uniquement si tu changes de marques, évidemment pour des mises à jours de pilotes sur un même GPU, pas besoin de désinstallés les anciennes.


Pour l’avoir fait dernièrement, ça ne semble pas risqué tu changes de CG. Par contre, prendre une image Windows AMD (APU) et la placer sur un Intel, c’est pas immédiat. Mais Windows fait du bon travail et au bout de 3 redémarrage tout est OK. Ensuite, DriverStoreExplorer est ton ami pour virer
les pilotes.




Galak_ a dit:


Même en tapant sur de la 2080 Ti tu dépasses difficilement les 400W sur une conf standard, et t’es sous les 250-300W avec les cartes milieu de gamme les plus répandues.


Tout à fait d’accord (j’ai une 350W depuis 2013 pour un i5 3570K et une GTX 1050 + 2 disques).
Je n’ai jamais compris les alims à plus de 700W.



Mais gare à être trop radin! Car si peu d’applis/jeux utilisent 100% sur tous les composants (IE GPU à 100% + CPU à 100% + activité disque + USB3 qui charge), il faut quand même que l’alim le tienne “au cas où”.

votre avatar

et moi qui n’ai pas de flashback sur ma carte mère, cte loose :( obligé de ramener ma mobo chez le revendeur pour qu’ils fassent la maj, gigabyte c’est sympa, mais perso, un de ces 4 je retournerais chez asus.

votre avatar

gallean a dit:



Chez ASUS c’est comme chez GB : il y a du Flashback, mais sur les modèle à partir d’un certain prix seulement.

votre avatar

David_L a dit:


Chez ASUS c’est comme chez GB : il y a du Flashback, mais sur les modèle à partir d’un certain prix seulement.


j’ai changé mes barrettes 2400 crucial pour les 3200 g.skill pas de bol xmp intel, c’est vraiment chiant cette gen :p (reboot, j’ai tenté de les mettre en 1.35, je verrais si ça stabilise la chose)

votre avatar

Patatt a dit:


Non rien à faire, réinstallation complète de windows etc.. c’est dans la liste des bug connus d’AMD depuis un moment. Je n’ai pas pris le temps de tester sans l’ampli, j’y ai pensé à un moment, mais bon à l’usage c’est quand même pas super pratique, ce n’est pas une configuration que j’ai envie d’utiliser, l’overlay de l’ampli ainsi que le “hub” hdmi c’est quand même pratique.J’ai reçus l’adaptateur DP=>HDMI actif, plus de problème de son, mais plus de HDR non plus, et un adaptateur actif compatible HDR, c’est plus de 50€ :non: Donc bon je préfère me passer du HDR et ne plus avoir de soucis de son, tant pis.


J’ai exactement le méme soucis avec ma 5600xt.. obligé de repasser sur ma “vieille” 1060 en attendant le fix.. tu aurais un lien vers l’adaptateur qui a résolu le soucis pour toi?

votre avatar

Nuw a dit:


J’ai exactement le méme soucis avec ma 5600xt.. obligé de repasser sur ma “vieille” 1060 en attendant le fix.. tu aurais un lien vers l’adaptateur qui a résolu le soucis pour toi?


Y a une grosse différence entre la 5600xt et la 1060? Avec ma 1070 qui a maintenant plus de 4 ans j’arrive encore a jouer a tout avec les paramétrages graphique haut, entre autre Warzone a 110fps avec tout au max par exemple.



J’ai l’impression que la 3070, c’est un peu le véritable successeur de la GTX1070, la GTX1670 étant une carte un peu bâtarde qui n’a rien apporté de plus et la RTX2070 une carte raytracing v1 non abouti.



A voir dans les tests, et le comparatif avec les futur AMD.

votre avatar

Nuw a dit:


J’ai exactement le méme soucis avec ma 5600xt.. obligé de repasser sur ma “vieille” 1060 en attendant le fix.. tu aurais un lien vers l’adaptateur qui a résolu le soucis pour toi?


https://www.amazon.fr/gp/product/B01M3VSC2G/ref=ppx_yo_dt_b_asin_title_o00_s00?ie=UTF8&psc=1
Après utilisation ce week-end, je n’ai effectivement plus de problème de son quand je passe sur la TV.

votre avatar

ForceRouge a dit:


Y a une grosse différence entre la 5600xt et la 1060? Avec ma 1070 qui a maintenant plus de 4 ans j’arrive encore a jouer a tout avec les paramétrages graphique haut, entre autre Warzone a 110fps avec tout au max par exemple.J’ai l’impression que la 3070, c’est un peu le véritable successeur de la GTX1070, la GTX1670 étant une carte un peu bâtarde qui n’a rien apporté de plus et la RTX2070 une carte raytracing v1 non abouti.A voir dans les tests, et le comparatif avec les futur AMD.


Y’a 60% environ selon les jeux, sur ma build SFF itx, c’est surtout une question de conso/chaleur, la 5600xt étant moins sollicitée pour les memes perfs. Ca me permet aussi de revendre la 1060 avant qu’elle ne vale plus grand chose.




Patatt a dit:


https://www.amazon.fr/gp/product/B01M3VSC2G/ref=ppx_yo_dt_b_asin_title_o00_s00?ie=UTF8&psc=1 Après utilisation ce week-end, je n’ai effectivement plus de problème de son quand je passe sur la TV.


:chinois: :smack: :merci: je regarde ca

AMD annoncera Zen 3 le 8 octobre, les Radeon RX 6000 le 28 octobre

Fermer