Zumb
est avec nous depuis le 10 novembre 2010 ❤️
Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?
48 commentaires
AMD dévoile ses Radeon RX Vega : mise en vente à partir du 14 août, dès 399 dollars
Le 31/07/2017Le 31/07/2017 à 20h 46
Mettre le gamin au second plan? De quelle manière? Comment c’est possible?
Parce que je lis cet argument souvent, mais je ne vois pas comment on fait pour créer un GPU “dont on met le gaming au second plan”, c’est à dire, performante pour les pros, mais nul en jeu.
On a souvent entendu ça, parce que les unités de calcul AMd sont plus facile à intégrer en grand nombre, et que du coup, les cartes AMD ont plus de puissances brutes que les NVidia, qui compensent avec un meilleur scheduler.
Mais ça n’a rien à voir avec une question de priorité, c’est un choix de design, qui est plus un pari à long terme.
Le 31/07/2017 à 18h 18
Figure toi que c’est exactement ce que j’ai fait.
J’ai pris le rapport tflops sur fps de la furxyX, qui est la carte AMD avec le plus mauvais rapport.
Je trouvé un coefficient de “rendement” sur quelques titres.
Avec une simple règle de trois, j’ai calculé le fps théorique sur le même titre des Vega, en imaginant que ce même rapport tflops/fps ne se soit absolument pas amélioré depuis la FuryX.
Voici ma feuille de calcul:
SW Battle Front 4K DX11 (HardwareCanuck)
Fury X:
8601.648
coeff 179.2
1080: 887356coeff 158.44
1080TI: 11340
RX Vega 56
10500
58.59 ?? (10500⁄179.2)
RX Vega 64
12660
70.64 ??? (12660⁄179.2)
RX Vega 64 Liquid
13700
76.45 ??? (13700⁄179.2)
The Division 4K DX11 (AnandTech)
FuryX" />601.636
coeff 238.93
1080:
40.8
1080TI:
54.7
RX Vega 56
10500
43.94 ??? (10500⁄238.93)
RX Vega 64
12660
52.98 ??? (12660⁄238.93)
RX Vega 64 Liquid
13700
57.33 ??? (13700⁄238.93)
BF4 4K DX11 (AnandTech)
FuryX" />601.651.1
coeff : 168.32
1080:
74.9
1080TI:
99.7
RX Vega 56
10500
62.38 ??? (10500⁄168.32)
RX Vega 64
12660
75.213 ??? (12660⁄168.32)
RX Vega 64 Liquid
13700
81.39 ???? (13700⁄168.32)
Le 31/07/2017 à 16h 32
On a un champion de l’argumentaire technique!
Je ne peux que m’incliner devant un tel exposé, devant un tel étalage de connaissance et d’argumentaire.
Le 31/07/2017 à 15h 17
Le gaming mode de la FE n’existe pas. Le bouton gaming mode ne fait rien du tout.
Le draw bining rasterizer mode est désactivé dans la FE. Les fonction de gestion d’énergie sont totalement désactivées également. Voir le post sur le site d’AnandTech.
Les pilotes n’ont absolument aucune optimisation pour le jeu. Ca reviendrait à faire tourner une 1080Ti avec les pilotes d’une quadro.
Les tflops sont toujours valables, l’affichage en jeu, c’est du calcul. La ou c’est plus compliqué pour le jeu que pour les applis pro, c’est que cette charge est d’une variable, et de deux, non prédictible.
Historiquement, depuis CGN et la 7970, AMD utilise un scheduler matériel. Il n’y a que 4 files, une groupe de rendering compute unit. Chaque image est globalement découpé en quatre et envoyé les les groupes, en gros.
Si l’image à calculé est homogène, ça marche très bien, mais ce n’est pas le cas pour un jeu. Si un quart de l’image concentre toute la complexité et que le reste est tout noir, alors le CPU va tomber à 25% de charge le temps que l’image soit calculé.
Ce système est conservé avec Vega, mais il y a une nouvelle fonctionnalité qui permet de rééquilibrer les files à la volée pour limiter cet effet.
Le scheduler utilisé par NVidia est 100% logiciel, et tourne avec le CPU. Ca génère un peu d’overhead CPU, mais en contrepartie, il est bien plus intelligent, et permet d’utiliser la puissance du GPU bien plus efficacement, ce qui explique que les cartes NVidia ont tendance à tourner plus vite, malgré une puissance brute inférieure.
L’IPC est un peu irrelevant dans le cas d’un GPU. Mais j’ai fait mon calcul en prenant le cas pire, à savoir l’IPC de Fiji. Or, on sait qu’il a augmenté, parce qu’en calcul pro, l’IPC a beaucoup augmenté entre Fiji et la FE.
tl;dr: Si les tflops, ça compte, et c’est la vie. Et ni le firmware, ni les pilotes ne sont prêt dans le cas de la FE. Pour Fiji, j’en sais rien, mais je ne pense pas que ça sera opti à 100% le jour de la release (toujours le cas le pire. Il est aussi possible que ça soit prêt, que ces fonctions aurait put fonctionner pour la FE, mais qu’elles ai été desactivé dans la fE, pour des raisons de stabilité, stabilité qui aurait été obtenu depuis. Pure spéculation, on va prendre le cas le pire, driver pas prêt).
Le 31/07/2017 à 14h 42
Non, AMD a comparé Vega, un modèle non spécifié, à la 1080.
Ils n’ont jamais précisé qu’il s’agissait de la 64.
Le mode d’adressage et le scheduler ayant été complètement, le firmware et les pilotes nécessitent une réécriture complète par rapport à Fiji, ou Polaris.
Les performances dépendent de la qualité de cette réécriture, et je pense qu’AMD ne précise pas de quel modèle il s’agit, parce qu’ils ne savent pas quel performance ils pourront sortir au jour J.
Mais à terme, il est évident que Vega 64 sera plus puissant que la 1080TI.
La seule question reste la conso réelle en charge, qui détermine le dimensionnement du refroidissement, et le bruit.
Moi, je suis sous flotte, je m’en fout, mais les modèle de ref risquent d’être bruyant, sans doute au niveau de Hawaï.
Le 31/07/2017 à 13h 25
Aller chercher la 1080 avec le modèle le plus véloce?
Certainement pas, vu le Tflops annoncé.
En imaginant qu’il n’y ai aucun gain de rendement entre la puissance brute et la perf en jeu par rapport à la FuryX (ce qui est improbable, vu la refonte du scheduler, mais prenons le cas le pire), alors c’est la 56 qui va chercher la 1080 (en passant dessus), et les 64 s’intercalent au niveau et au dessus de la 1080TI.
Je me suis amusé à faire le calcul en 4K (toujours sous directX11, pour prendre le cas le pire) en prenant comme base SW BattleFront par Hardware Canuck, The Division et BF4 testé par AnandTech, on obtient la même chose, à peu de chose près.
Il suffit de prendre la puissance Tflops de la FuryX comme base, et son framerate en jeu, on obtient son rendement en perf sur ce titre. Avec une basique règle de trois, on peut déduire une estimation de la puissance des Vega sur le même titre, en imaginant que leur rendement n’ai pas augmenté.
Les nouveaux propriétaires bientôt tenus de pré-raccorder leur logement à la fibre optique
Le 31/08/2016Le 02/09/2016 à 15h 28
Le 01/09/2016 à 18h 56
Le 01/09/2016 à 18h 47
Le 01/09/2016 à 12h 42
Le 01/09/2016 à 12h 34
Le 01/09/2016 à 12h 31
Le 01/09/2016 à 10h 58
Le 01/09/2016 à 10h 46
Le 31/08/2016 à 20h 53
Le 31/08/2016 à 20h 43
Le 31/08/2016 à 20h 39
Le 31/08/2016 à 20h 37
[MàJ] AMD : les pilotes Crimson Edition 16.7.2 sont certifiés WHQL
Le 20/07/2016Le 20/07/2016 à 21h 00
Très haut débit : le gouvernement facilite l’accès au génie civil
Le 02/05/2016Le 02/05/2016 à 09h 27
iPad Pro de 9,7″ : une « Apple SIM intégrée », qu’en pensent les opérateurs français ?
Le 25/03/2016Le 25/03/2016 à 13h 57
Enquête ouverte après une « quasi-collision » entre un drone et un avion de ligne
Le 04/03/2016Le 04/03/2016 à 10h 26
Un drone capable de voler à 1600 m d’altitude, c’est pas en vente à un particulier, en principe. Les Phantoms & co sont très très loin de ce genre de perf.
Des députés veulent contraindre les cinémas, discothèques et salles de concert à baisser le son
Le 03/03/2016Le 03/03/2016 à 11h 09
Le 03/03/2016 à 10h 21
Instagram : un chercheur a trouvé une faille, mais serait allé trop loin selon Facebook
Le 18/12/2015Le 18/12/2015 à 19h 53
C’est surtout complètement con de la part de Facebook/Instagram. Le message envoyé au public, c’est: “si vous trouvez une faille ultra critique pour permet de compromettre l’intégralité de notre infra, si vous voulez du pognon, vendez ça à la NSA ou à la mafia russe, mais nous, on vous filera juste un paquet de cahouèttes et une tape sur l’épaule”.
Enfin, il est juste scandaleux qu’une faille sur un frontend compromette l’intégralité d’une infra. L’architecte qui a mis ça en place devrait retourner jouer aux billes. Et de fait, le mec a eu raison de continuer. L’architecture en elle même constitue la seconde faille, qui vaudrait donc, à minima un second chèque de 2500$ en suivant la logique de facebook.
État d’urgence : après les perquisitions, les saisies administratives d’ordinateurs
Le 09/12/2015Le 09/12/2015 à 17h 50
Et bien dépose plainte.
Le 09/12/2015 à 17h 47
Aucun lieu de culte n’est financé par de l’argent publique, c’est interdit par la loi. Et si,ça se faisait quand même, ça serait très facile à prouver et punir. C’est mal de colporter les trolls de Buisson.
AMD veut « redéfinir l’industrie » du GPU avec le Radeon Technologies Group
Le 10/09/2015Le 10/09/2015 à 20h 11
Le 10/09/2015 à 19h 28
Qui va donc racheter AMD cette semaine ?
Le 04/07/2015Le 06/07/2015 à 08h 22
J’explique simplement pourquoi spéculer sur un éventuel rachat d’AMD est hors sujet, et je donne mes sources.
Dans le même paragraphe, avec le fameux “moi président d’AMD”, qui n’est d’ailleurs pas “moi président d’AMD”, mais “moi acheteur d’AMD”, ce qui n’a rien à voir, j’explique pourquoi, AMHA, le rachat d’AMD est hros sujet.
Mais comme tu n’as rien compris ni au post, ni à l’article, ni à la situation d’AMD ou d’Intel, et qu’un niveau de réthorique aussi faible que le mien est déjà trop élevé pour toi, tu réponds à côté de la plaque.
Je t’aide: la plaque, c’est coment un acheteur potentiel, qu’il soit Microsoft,, Apple ou qui que ce soit d’autre, pourrait réussir à rachetter AMD, tout en en faisant quelque chose, donc sans perdre de licence x86, sans mettre Intel en situation de monopole, et en tentant de vendre des produits sur un marché pas déjà complètement saturé.
Trouve une réponse à ça, et on en reparle.
Le 05/07/2015 à 21h 43
T’as soit pas lu mon post, soit tu l’as pas compris.
J’explique pourquoi AMD ne sera jamais racheté, et c’est une démonstration par l’absurde, en montrant ce qui ce passerait si ça arrivait.
Il est ou le monde des bisounours, et ton argumentaire, il est ou?
D’ailleurs, ton post, il sert à quoi?
Le 04/07/2015 à 21h 02
Le 04/07/2015 à 19h 49
Moi, je parie que AMD ne mourra jamais et ne sera jamais racheté par personne.
AMD à une licence x86 qui provient d’un échange croisé de licence, c’est par ce biais qu’Intel a une licence AMD64. Pour rappel 100% des CPU Intel actuel sont des AMD64, depuis l’échec de l’Itanium.
Or cet accord croisé stipule que la branche CPU d’AMD ne peut changer de structure. Elle ne peut être divisée, cédée. Elle ne peut être rachetée par personne sans rendre cette accord caduc.
Si j’avais 2M$, j’aurais racheté AMD dans l’instant pour le transformer en patent troll, laisser tomber le x86 et la fabrication de CPU, et laisser Intel dans la merde fasse aux loi antitrust, tout en exigeant d’eux des royalties monumentales en % pour l’utilisation de la licence AMD64. Ca devrait pouvoir rapporter quelques milliards de dollars chaque année, siphonnés directement des poches d’Intel.
Le fait est que personne ne laisserait faire une chose pareille, ni Bruxelles, ni Washington, et bien sur, ni Intel.
Tout ça pour dire, que AMD peut accumuler des pertes jsqu’à la fin des temps, ils ne seront ni vendu, ni liquidé.
Si il le faut, Intel injectera du fric jusqu’à plus soif pour les maintenir en vie, en état de challenger sous perfusion, comme l’a fait Microsoft avec Apple à une époque, pour conserver l’accord de licence croisée, et pour éviter de se faire tronçonner à cause de lois antitrusts.
AMD lève le voile sur les Radeon Fury, X et Nano ainsi que la gamme R7/R9 300
Le 16/06/2015Le 16/06/2015 à 21h 43
Sachant que sur ta TV, les entrée HDMI sont limité en 4K à 60Hz, en 3D, t’as donc plus que 30Hz en 4K sur chaque œil. CQFD.
En tout cas, t’es très loin de 120 img/s.
Le 16/06/2015 à 20h 04
Donne la ref de ta TV pour voir.
Le 16/06/2015 à 20h 04
http://www.tomshardware.fr/articles/moniteur-ultrahd-bdm4065uc,1-54724.html
En bonus, pas de redevance.
De rien.
Le 16/06/2015 à 20h 01
Sans déconner les mecs qui sortent le rapport perf / watt pour une carte qui bouffe de toute façon plus de 250W en charge, ça me fait doucement rigoler.
Sur l’ensemble de la machine, ça représente 50 W sur 5 ou 600, donc 10%, mortel comme gain.
Sur que c’est mieux que rien, mais en argument n°1, c’est ridicule.
Le 16/06/2015 à 19h 58
Ca existe pas un TV 120Hz.
Un TV 120 Hz, fait du 30 Hz, avec une image noire intercalé un coup sur deux, un marketeux appelle ça du 60 Hz, 120 avec la 3D.
Mais chaque œil n’a toujours que 30 img/s, même en mode super 120 Hz.
FreeSync d’AMD : les pilotes sont disponibles, les résultats des tests tombent
Le 23/03/2015Le 23/03/2015 à 10h 39
Ben si il y a une solution générique, c’est l’aAdaptive Sync, satndard VESA utilisé par AMD sous le nom FreeSync.
Après, si certains constructeurs décident de ne pas le supporter pour utiliser des formats proprios, c’est un autre problème.
Synology évoque ses prochains NAS : EDS14, DS414play, DS414j et DS414slim
Le 21/03/2014Le 21/03/2014 à 10h 03
Le 21/03/2014 à 09h 36
Sur les Mac Pro, Boot Camp ne supporte plus que Windows 8.1
Le 19/03/2014Le 20/03/2014 à 08h 20
Le 19/03/2014 à 15h 36
Le 19/03/2014 à 14h 46
Le 19/03/2014 à 13h 44
Le 19/03/2014 à 13h 34
@Citan666: bien sur que je suis un boulet qui ne sais pas de quoi je parle. C’est pour ça, que j’imagine que toi, en tant que grand client Apple, tu saurais nous dire quelles applis seraient capable d’utiliser les 2 GPU sous MacOSX.
Apple a conçu une machine pour qu’elle soit vendue, pas pour qu’elle correspondent à un besoin client. En ça, ils ont raison, c’est d’ailleurs ce que font tout les autres constructeurs également.
Les acheteurs qui se prétendent pro et qui achètent des machines sans connaitre leurs capacités, par contre….
Quand au paragraphe sur l’écosystème, pardon, mais c’est juste du flan, pour être poli.
Tu mets pas 4000€ min pour un écosystème Apple. Si tu veux juste un écosystème, et que tu t’en fout des perfs, et que tu sais ce que tu fais, tu prends un imac, qui coute au moins deux fois moins cher. T’as un top écran, un bel écosystème, et il te reste plein de fric pour acheter autre chose, ou éviter de gaspiller ton fond d’investissement (vu que t’es un pro, n’est ce pas, t’es sensé acheter des outils rentable).
La, tu essaie juste de justifier l’injustifiable, à savoir que le crossfire sous MacOSX n’est pas géré nativement, et que du coup, pour pouvoir l’utiliser, tu dois booter sur un OS concurrent. Mais comme la plupart des client Apple ne le savent pas, vu qu’ils s’en foutent de la technique, on peut juste les enfiler avec du gravier, ils sont content avec leur dual GPU, même si il n’y a qu’une seule carte (bas de gamme, à 4000€), qui tourne.
Sauf si bien sur tu me dis que tu fais des calculs de rendu en arrière plan, tout en jouant à Diablo III.
Donc les vrais users du macPro, ceux qui savent ça, ben ils peuvent s’assoir sur le version boite de Windows 7 et vont devoir racheter un Windows 8.1 64 e, version boite. CQFD.
Le 19/03/2014 à 12h 52
Le 19/03/2014 à 08h 46
L’intérêt de faire tourner Windows la dessus, plutôt que d’utiliser Paralel desktop, peut être surtout parce que OSX ne supporte pas vraiment le crossfire, à savoir, il délègue la gestion du crossfire à l’appli, qui le plus souvent, elle ne le gère pas.
Je suis près à parier que la majorité des acheteurs ignorent ce détail, d’autant plus croustillant que la machine n’existe qu’en crossfire.
Mais les acheteurs de cet engin ne sont plus à ça près, devoir racheter une licence Windows 8.1 x64 quand on a déjà une version boite de Windows 7.
Surtout si on aime pas ModernUI.
Je doute que la licence à 100€ soit accessible aux pros…