FreeSync, le G-Sync gratuit d’AMD : un effet d’annonce de plus ?
L'art de la guerre
Le 07 janvier 2014 à 09h41
11 min
Sciences et espace
Sciences
Que faire lorsque votre concurrent annonce une technologie que vous n'aviez pas prévue ? Dites que vous avez vous aussi une solution ! Rien n'est prêt, vous n'avez aucune idée de la disponibilité commerciale ? Qu'importe, la presse fera passer le message et donnera ainsi l'illusion d'un mouvement. Une stratégie chère à AMD, qui recommence avec son FreeSync : la promesse d'un équivalent gratuit du G-Sync de NVIDIA.
Ces dernières années, les difficultés financières d'AMD semblent avoir eu un effet assez dévastateur sur la capacité de la société à innover, notamment sur les possibilités annexes de ses produits. Et cela s'est ressenti de manière assez dure ces derniers mois.
Concevoir des CPU et des GPU, c'est aussi penser à tout un écosystème
Sur le marché des cartes graphiques où elle a réussi à mettre en place une architecture qui a évolué jusqu'à sa version actuelle, GCN, elle a surtout marqué des points grâce à des prix planchers et autres jeux offerts. Les performances étaient au rendez-vous, mais au prix de pilotes parfois un peu problématiques (voir les soucis de Frame pacing par exemple) et d'une consommation parfois assez élevée. Mais au final, le public a pu continuer à répondre présent.
La société a néanmoins négligé au passage des éléments pourtant importants comme lors du récent lancement de ses Radeon R9 290(X) qui a été doublement gâché par une stratégie marketing et commerciale douteuse (annonces dans tous les sens, précommande sans prix, etc.) et un système de refroidissement totalement inadapté. Un point heureusement corrigé (tardivement) par l'arrivée des modèles des partenaires de la marque.
Du ventirad proposé par AMD à celui de Sapphire par exemple... il y a un monde
Sur le terrain des CPU, la gamme FX a été complètement abandonnée et ne devrait pour le moment pas connaître de suite. Seuls les APU continuent d'être un tant soit peu séduisants bien que les dernières générations soient en retard et que leur évolution n'ait pas toujours été au niveau de ce que l'on pouvait espérer. Mais en misant surtout sur la partie graphique et des tarifs abordables, AMD a tout de même réussi à sauver les meubles. C'est par contre moins rose du point de vue de la mobilité où ses produits ne finissent que dans des modèles d'entrée de gamme, et passent totalement à côté de l'évolution du marché au niveau des tablettes des hybrides, là où Intel a encore réussi de beaux paris, notamment avec Bay Trail et le T100TA d'ASUS qui a connu un certain succès pendant les fêtes de fin d'année par exemple.
Dans les deux cas, on sent que le manque d'investissement dans les projets fini par poser problème, et malgré un recentrage des priorités, le fait de vouloir attaquer des géants comme Intel et NVIDIA sur tous les fronts finit par poser problème sur l'ensemble des gammes, malgré de beaux succès comme l'intégration des FirePro dans les Mac Pro par exemple. Certains paris sur l'avenir sont certes en cours, notamment avec l'intégration de solutions ARM pour les serveurs, de nouvelles architectures qui sont sans doute en préparation pour le monde des CPU et des GPU, mais dans le cas de ces derniers, le problème est parfois ailleurs, notamment sur les usages annexes.
L'innovation ? Aussi simple qu'un PowerPoint
Car le plus détestable ces derniers temps est sans doute la façon dont AMD tente de contrer les initiatives concurrentes au niveau des innovations qu'elles annoncent, en agitant les bras en l'air. Ainsi, à chaque fois la stratégie est à peu près la même : si cela commence à intéresser du monde, on annonce que l'on est déjà sur le coup avec quelques présentations PowerPoint en renfort, puis dans certains cas on va jusqu'à faire quelques démonstrations à la presse. On a même vu l'un de ces projets aboutir, mais sans jamais vraiment fonctionner comme l'on pourrait s'y attendre : Enduro.
Cela a été l'une des premières fois que cette stratégie de contre-attaque a été appliquée par AMD, pour combattre l'arrivée d'Optimus chez NVIDIA. Après plusieurs mois d'annonces et de démonstrations à la presse, cela a finalement vu le jour. Les performances n'étaient pas au rendez-vous, tout comme le fonctionnement dans la pratique, et malgré de nombreuses mises à jour des pilotes, le résultat est encore loin de la perfection ou même du niveau de ce que propose la concurrence.
Mais ce n'était pas la seule initiative du genre. On se souvient en effet de Lightning Bolt, la solution qui devait révolutionner la connectique et faire plier le Thunderbolt d'Intel tout en étant plus abordable. Annoncée depuis maintenant près de deux ans, elle n'a tout simplement jamais vu le jour, et nous ne l'avons d'ailleurs jamais vu en démonstration malgré qu'il soit devenu DockPort en novembre dernier. Et Turbo Dock ? Passé aux oubliettes.
La 3D est tendance et NVIDIA propose 3D Vision ? Annonçons HD3D qui n'est qu'un lien dans notre pilote pour des développeurs tiers (IZ3D, TriDef, etc.) qui feront tout le boulot à notre place. Résultat : assez peu d'écrans supportés, un pilote payant à acheter, et un support dans les jeux aléatoire, surtout pour ceux qui ne voulaient pas bidouiller. Mais au final, qu'importe : la 3D n'intéresse plus personne.
Intel lance le WiDi ou Wireless Display ? AMD répond avec son... Wireless Display. Dans la pratique, cela ne fait que reprendre l'intégration de Miracast au sein de Windows 8.1 avec une surcouche logicielle qui ne semble pas changer grand-chose dans la pratique selon nos premiers essais (mais d'autres arrivent), mais ce n'est pas grave. Cela permet d'annoncer que l'on dispose d'une solution concurrente, meilleure :
Plus récemment on a aussi vu la même stratégie appliquée au logiciel. La société a ainsi dévoilé son Media SDK pour répondre à l'outil éponyme d'Intel quelques années après son introduction. Afin de proposer une alternative à GeForce Experience on a aussi eu le droit à Gaming Evolved, qui n'avait semble-t-il pas convaincu nos confrères de PC World.fr qui écrivaient récemment à son propos : « Une coquille vide, c’est bien l’impression qu’AMD nous a laissé sur ce dossier : beaucoup de vent, pour un logiciel qui ne fait pas le quart de la moitié de ce qu’il devrait. En fait, Raptr devrait prendre exactement le même chemin que le fameux HD3D, qu’AMD avait lancé pour contrer 3D Vision, et qui demandait un logiciel tiers (TriDef 3D), et restait contraignant, que ce soit dans son installation, ou dans le choix d’un matériel compatible. Dommage, car l’idée de base demeurait intéressante. »
Lorsqu'AMD se donne la peine, cela donne des résultats intéressants
Et l'on pourrait sans doute continuer comme cela encore longtemps. Heureusement, cela n'est pas toujours le cas et AMD sait créer la surprise. Ce fût notamment le cas avec Eyefinity qui a au final été une assez grande réussite puisque la technologie était plus souple que ce que proposait NVIDIA tout en étant parfaitement fonctionnel. On aurait sans doute apprécié une meilleure évolution avec le temps, mais cela ne reste qu'un détail puisque la concurrence ne propose pas vraiment mieux.
L'XGP : la bonne époque
On avait aussi été assez enthousiaste par la technologie XGP mise en avant il y a quelques années et qui permettait de disposer d'un portable avec une carte graphique externe, mais sur laquelle AMD n'a finalement pas été vraiment suivi par les constructeurs. Dommage. Plus récemment, c'est l'investissement dans Mantle qui nous a semblé être une bonne idée, bien que pour le moment, il soit impossible de se faire une idée puisque le patch prévu pour Battlefield 4 a été retardé.
Free Sync : on vous jure, on a un équivalent de G-Sync gratuit, il arrivera... un jour
Mais malgré cela, cette pratique continue. Le dernier exemple en date est G-Sync. Alors qu'AMD continue de retarder la résolution de ses problèmes de frame pacing via ses pilotes, on apprend que NVIDIA a travaillé depuis quelques temps sur la création d'un module à intégrer aux écrans qui veut changer la donne sur la gestion de la communication avec le GPU. Ainsi, plutôt que de chercher à compenser le manque de synchronisation de ces deux éléments par des solutions logicielles, le caméléon a décidé de permettre à l'un de n'afficher une image que lorsqu'elle est calculée par l'autre. Une gestion bien plus fluide des choses que l'on aurait pu s'attendre à voir débarquer sur le marché depuis longtemps, mais qu'importe.
Problème : ce module a été pensé par NVIDIA, il ne fonctionnera donc qu'avec les GeForce de la marque qui a réussi à s'associer avec plusieurs fabricants. ASUS et Philips ont ainsi déjà annoncé leurs solutions à l'occasion du CES et tous deux ont un défaut : leur tarif. Avec un surcoût de 200 euros grosso modo sur un modèle standard, cette technologie est encore assez chère. AMD a donc trouvé sa façon de contrer cette annonce : annoncer qu'elle dispose d'un équivalent... gratuit !
Cela s'est fait à l'occasion de sa présentation organisée au CES principalement autour de Kaveri et prend la forme d'une démonstration effectuée sur deux portables, dans les deux cas la synchronisation verticale est activée, mais l'une des machines est capable de jouer avec le VBLANK, qui sépare la fin du calcul d'une image du début du calcul de la suivante :
Un standard VESA existerait d'ailleurs afin de permettre cette possibilité (il reste encore à identifier), qui peut être implémenté au niveau de la carte graphique, mais ne nécessite pas de modification matérielle au niveau de l'écran. Cela a d'ailleurs surtout été implémenté pour le monde mobile et AMD aurait déjà intégré le nécessaire au sein de ses puces de la génération Kabini / Kaveri, et n'aurait donc plus besoin que d'adapter ses pilotes pour le proposer. Tout serait d'ailleurs déjà présent dans ces derniers selon AnandTech.
Les constructeurs d'écrans : ces idiots
La promesse est belle et la possibilité de profiter gratuitement d'un équivalent de G-Sync en intéressera sans doute plus d'un. On se demande d'ailleurs pourquoi diable les constructeurs sont allés perdre leur temps avec NVIDIA si un équivalent gratuit existe via une norme connue et établie par le VESA. La volonté de proposer des modèles plus chers ? Cela semble bien compliqué pour au final une minorité d'exemplaires vendus. En effet, que représenteront dans le volume des différentes marques les modèles estampillés G-Sync et proposé à plus de 500 $ ?
Mais au vu des annonces précédentes de ce genre, à quoi peut-on réellement s'attendre ? En effet, comme le confirment nos confrères de Hardware.fr présents sur place : « AMD ne sait pas encore quand, ni comment, cette technique d'affichage sera proposée aux utilisateurs de Radeon, ni quels écrans intégreront réellement cette possibilité. AMD semble avoir été surpris par G-SYNC qui ressemble selon ses responsables à une manière pour Nvidia de gagner quelques mois sur le timing prévu d'arrivée d'une technologie standard. » De son côté, AnandTech précise qu'aucun test poussé n'a pour le moment pu être effectué et qu'aucune stratégie commerciale ne semble pour le moment prévue autour de FreeSync.
FreeSync : on fera le point dans six mois
Il faudra donc attendre avant de crier victoire. Attendre que cette possibilité soit effective dans un pilote public, utilisable avec n'importe quelle Radeon récente de la marque, gérée par de nombreux écrans disponibles sur le marché et donc testable par le plus grande nombre. On pourra alors savoir si AMD a effectivement sauvé tout le monde du surcoût d'une technologie matérielle comme G-Sync, ou si ce n'était qu'un coup marketing douteux de plus. Rendez-vous dans six mois pour un premier bilan.
FreeSync, le G-Sync gratuit d’AMD : un effet d’annonce de plus ?
-
Concevoir des CPU et des GPU, c'est aussi penser à tout un écosystème
-
L'innovation ? Aussi simple qu'un PowerPoint
-
Lorsqu'AMD se donne la peine, cela donne des résultats intéressants
-
Free Sync : on vous jure, on a un équivalent de G-Sync gratuit, il arrivera... un jour
-
Les constructeurs d'écrans : ces idiots
-
FreeSync : on fera le point dans six mois
Commentaires (96)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 07/01/2014 à 11h07
Le 07/01/2014 à 11h16
Le 07/01/2014 à 11h17
Cela a été l’une des premières fois que cette stratégie de contre-attaque a été appliquée par AMD, pour combattre l’arrivée d’Optimus chez NVIDIA. Après plusieurs mois d’annonces et de démonstrations à la presse, cela a finalement vu le jour. Les performances n’étaient pas au rendez-vous, tout comme le fonctionnement dans la pratique, et malgré de nombreuses mises à jour des pilotes, le résultat est encore loin de la perfection ou même du niveau de ce que propose la concurrence.
Certes, Enduro est moins au point que Optimus, mais quand tu payes 300€ de moins pour avoir une 7970m au lieu d’une 680m pour les mêmes perf, tu t’en fous un peu " />
Le 07/01/2014 à 11h22
Le 07/01/2014 à 11h33
Le 07/01/2014 à 11h41
Le 07/01/2014 à 11h45
Si Nvidia préfère innover en attendant la normalisation, on attend toujours les descendants des lunettes ELSA d’il y a 15 ans.
Le 07/01/2014 à 11h46
Le 07/01/2014 à 11h49
David a sorti la plume au vitriole, mais ce qui est dit dans cet article est vrai. AMD na rien à opposer à bon nombre de fonctionnalités présentes chez les verts.
Le lancement des séries Rx a aussi été un gros fiasco.
Il ne tient qu’à AMD de faire mentir l’article en sortant un truc exploitable dans un temps raisonnable.
Enfin il est aussi évoqué l’intérêt limité du G-Sync, à cause de son prix, équivalent à celui d’un GPU milieu de gamme.
Autant je peux comprendre l’achat d’un GPU nVidia pour de la 3D stereoscopique, autant je vois pas les clients opter massivement pour du nVidia en raison de l’existence de G-Sync.
Le 07/01/2014 à 12h06
Du coup si le Free Sync d’AMD c’est juste une modification du comportement du VBLANK ça n’a rien à voir avec G-Sync.
Le dossier de HFR sur G-Sync explique clairement que sans modification hardware de l’écran il est impossible d’arriver au même résultat que G-Sync.
Le 07/01/2014 à 12h20
Sacré bashing. u_u
Le 07/01/2014 à 13h11
La 3D est tendance et NVIDIA propose 3D Vision ? Annonçons HD3D qui n’est qu’un lien dans notre pilote pour des développeurs tiers (IZ3D, TriDef, etc.)[…]
Crédibilité PCInpact -1000. J’ai lu “bashing” quelque part me semble-t-il…" />
HD3D dispose d’un SDK http://developer.amd.com/tools-and-sdks/graphics-development/amd-quad-buffer-sdk… et le support d’appli stéréoscopique n’a pas obligatoirement besoin de passer par un driver tiers, qui plus est régulièrement fournit gratuitement avec les moniteurs 3D et maintenu tout aussi gratuitement.
Le 07/01/2014 à 13h43
Euh, pour ceux qui ont lu l’article de Hardware.fr, il est clairement dit que l’écran doit être compatible ! Mais comme c’est une norme VESA, certains écrans sont déjà compatibles ou du moins, il suffirait d’une mise à jour (mais on peut parier qu’ils préféreront vendre de nouveaux écrans !).
Du coup, G-Synch a un coup, mais pour un fabricant, c’est beaucoup plus rentable pour le moment. Ils proposent la technologie dès maintenant et ont une très bonne raison de faire exploser les prix à la hausse !
Et puis David, les problème de framespacing, c’est uniquement en multi-GPU, bref, ça touche personne… Pour le reste, je suis assez d’accord, même si au final, les R9 font à peine plus de bruit que les HD79xx… (mais ça, personne ne le fait remarquer !).
Le 07/01/2014 à 13h44
au moins Amd ils font des standards et le filent a Vesa. Nvidia et les solutions fermées, physx, g-sync… Voir aussi ca récemment de la part d’Amd www.semiaccurate.com/2013/10/11/amd-solves-4k-display-problems-vesa-display-id-v1-3/
Le 07/01/2014 à 14h35
omg mais cet article à charge de merde pas du tout parti pris quoi … et vous appelez ca du journalisme ?
Heureusement qu’il y a les articles de Hardware.fr ….
et les commentaires de certains pour rectifier un peu l’équilibre
Le 07/01/2014 à 14h51
Le 07/01/2014 à 20h59
Le 07/01/2014 à 22h10
Le 07/01/2014 à 22h33
Le 07/01/2014 à 22h55
Le 07/01/2014 à 23h26
Si le journalisme n’était pas critique ça ne serait plus du journalisme, mais de la simple diffusion de news ni plus ni moins.
C’est comme pour la presse écrite, , par exemple libération est plus de gauche comme le figaro est plutot conservateur et de droite.
Et en décalage il y a le satyrique le canard enchaîné qui ne se prive pas de flinguer tout le monde (ou le tristement connu charlie hebdo).
Si il n’y a pas une once de critique ou de parti pris dans ton argumentaire tu n’avances pas ou tu ne crées pas de débat, à partir de la tu constate et point barre.
Si l’article ne te plait et que tu penses que c’est du AMD BASHING c’est que peut-être tu as un parti pris pour AMD. Donc diriges toi vers un site plus approprié.
Moi ici même si on sent plus de mécontentement envers AMD que Nvidia à travers cet article c’est aussi un choix de l’auteur ou simplement implicite il avance des arguments crédibles et ça me va. Si j’ai besoin d’un autre avis je vais voir ailleurs et point barre.
Ou sinon amenez de vrais arguments et étayez les avec des exemples concrets et qui feront taire la partie adverse.
C’est comme un peu les débats du moment , parce qu’une personne critique telle ou telle culture sur des points qui ne collent pas avec la sienne ou celle de son pays (je ne parle pas de Dieudonné , mais de l’atmosphère générale), qu’il est raciste. Merde j’ai envie de dire ! Libre a soi d’exprimer sa pensée et son jugement tant que sa rentre dans le respect des autres et des lois. Aux gens de savoir discerner la ou l’auteur a un parti pris ou non.
Donc David merci à toi pour tes post critiques :)
Etant ancien pro-ATI , je suis plus qu’objectif sur ce que je peux lire actuellement, ATI était la grande époque avec une vraie concurrence à Nvidia, je me souviens de ma X800XT et de ma X1950XTX qui franchement donnaient du fil à retordre à Nvida.
il n’y a plus de ligne claire de toute façon pour AMD depuis que la marque s’est cassée la gueule au passage au multi-cpu. A part courir derrière Intel, le rachat d’ATI a permis à AMD de souffler et d’avoir une R&D performante et du cash flow disponible rapidement grâce aux GPU. Le reste c’est un trou sans fond qui a pompé les ressources d’AMD tout simplement face au géant Intel. La suite on la connait.
Le 08/01/2014 à 02h24
Le 08/01/2014 à 06h16
Je suis a 100% d’accord que AMD crée des technologie qui ne sont pas aboutie,
mais accorder moi aussi le fait d’être dubitatif au fait que Nvidia fait souvent
le hardware inutile et propriétaire a savoir le SLI via NF200, Le Physx, La 3D Vision et bien d’autres …
Du coup mon cœur balance et je ne serais pas surpris que le G-Sync soit aussi une fumisterie ou le fait que AMD joue les illusionnistes.
Le 08/01/2014 à 07h36
Article d’une mauvaise foi désolante.
Le DockPort n’est n’i un coup de bluff, ni vaporware :
http://www.hardware.fr/news/13520/vesa-rajoute-usb-3-0-displayport.html
Un consortium de standardisation a une certaine inertie, c’est tout.
Ce sera pareil pour FreeSync : des choses sont en cours au VESA, ça tourne déjà sur portable, mais nvidia a juste voulu faire un coup de pub pour s’attribuer une techno qui sera en fait un standard. Le fait qu’AMD mette un pan sur le bec de nvidia semble donc mérité.
Le 08/01/2014 à 08h04
Le 08/01/2014 à 08h40
@David: si tu crois qu’on ne voit pas votre petit jeu, tu te trompes.
-Ne pas parler de la fameuse vidéo qui révèle bien des choses sur la manière dont intel se fout de la figure de ses clients.
-Vous êtes le site qui a le plus parlé d’un éventuel rachat d’AMD alors qu’en fait non, toujours pas
-Quand AMD s’invite à l’IDF alors que c’est uniquement pour vanter les mérites des GPU et non des CPU, vous montez tout de suite au front alors qu’il n’y a aucune raison de le faire.
-Quand intel développe thunderbolt, vous faites tout de suite l’apologie de cette technologie propriétaire alors que la plupart des consommateurs n’en ont rien à faire, surtout si elle est si coûteuse.
-même remarque pour les smartphones. La comm’ que vous faites à chaque fois que sort un nouveau modèle à base d’atom ! (alors qu’initialement, votre coeur de métier, ce ne sont pas les smartphones! Les tablettes oui, à la rigueur)
-et j’en passe…
Au moins, vous n’êtes`pas les seuls: certains de vos confrères agissent exactement comme vous. Mais pour l’objectivité, il faudra revoir votre copie.
Le 08/01/2014 à 09h06
Le 08/01/2014 à 10h30
Si j’ai bien compris, vu que rien n’est vraiment expliqué dans l’article, FreeSync modifie à la volée le taux de rafraichissement de l’écran (via une norme VESA) pour coller au mieux au framerate, et avoir un VSync optimal, alors que G-Sync, lui, pilote directement l’affichage de chaque image, pour l’afficher dès qu’elle a été calculée par la CG.
Si c’est bien ça, il est clair que le G-Sync est plus efficace, mais le gain devient assez négligeable par rapport au Freesync, surtout vu les contraintes (prix et matériel)
Le 08/01/2014 à 11h48
Le 08/01/2014 à 12h12
Le 08/01/2014 à 12h59
Le 08/01/2014 à 15h37
Je ne commenterai pas le fond n’ayant pas les connaissances suffisantes pour juger, je ne parlerai donc que de la forme.
Le métier d’un journaliste est d’avant tout informer de manière impartiale, rapporter des faits, des propos.
Commencer par mettre en avant d’anciens problèmes fondés ou non liés à des technologies ou des annonces tiens plus du réquisitoire que de l’information.
Une nouvelle de ce type ne mérite pas un article aussi long. Un paragraphe expliquant ce qui a été annoncé suivi d’une petite partie donnant le contexte et le fait qu’on ne connaisse pas la date de sortie. Enfin une conclusion indiquant l’avis du journaliste.
Ici on commence par une énumération de problèmes réels ou non avant d’en venir à la vraie information.
On me vante depuis des années l’indépendance de PCI, je commence à douter de l’indépendance de ses journalistes.
Le 07/01/2014 à 10h32
Le 07/01/2014 à 10h32
Salauds de AMD qui préfère les effets d’annonce plutôt que de proposer une technologie propriétaire verrouillée. " />
…ou pas ?
Le 07/01/2014 à 10h33
mais il ne faudrait pas oublier que NVidia est le spécialiste des technologies propriétaires conçues en parallèle des standards.
C’est pas si simple. Par exemple CUDA est sorti avant OpenCL et surtout bien avant que Apple refile le bébé à Khronos. L’ouverture d’OpenCL ne sait fait qu’à ce moment là, pas avant et CUDA avait déjà acquis une bonne maturité. Après la notion de “standard” ca veut dire quoi ? Par ce que lorsque l’on me sort que du .docx c’est standard….Nvidia investie beaucoup de $ dans la R&D. Il veulent donc voir les bénéfices de ce travail et de ces investissements. Après, oui on peut critiquer la “captation” du client, mais alors dans ce cas tu as Intel, Microsoft, Apple, Google, Oracle et puis tous les autres quoi.
Le 07/01/2014 à 10h36
Le 07/01/2014 à 10h36
Petite quesiton, amd n’offre plus de jeu avec ses cartes ? J’ai commandé une R9 270x sur materiel.net (enfin avec le reste de la config avec) et le support m’a dit qu’il y’a aucun jeu offert avec :(
Il me semble avoir lus dans une news qu’ils offrais BF4 avec les R9 " />
Le 07/01/2014 à 10h37
Le 07/01/2014 à 10h38
Comme d’hab, Pcinpact dénigre AMD, ils ont pas dis que AMD proposé les premiers GPU 28 nm, 3 mois d’avance sur leur concurrent ??
Pour dire les R9 290(X) sont les rois de la chauffe, ils sont pas mal ! Mais les GTX 480 ?? A cette époque c’était pas grave :).
Par contre c’est pas demain que l’on va voir marquer ici, Nvidia voudrait il nous arnaquer avec leur titan à 1000 euros ??
Ou bien Intel se fiche t’il des consommateurs on ne proposant pas de I3K ??
Mais non ils sont gentilles eux !!
Le 07/01/2014 à 10h41
Le 07/01/2014 à 10h41
Le 07/01/2014 à 10h42
Mais comme tu le dis, AMD manque de moyen, du coup pourquoi vouloir concurrencer tout le monde à la fois et ne pas se concentrer un peu ?
Tu n’as peut être pas tort sur ce point.
Mais jusqu’à preuve du contraire, OpenGL et OpenCL, c’est géré par NVIDIA qui prend part à leur développement non ?
je pense que c’est juste dans leur intérêt ^^.
Le 07/01/2014 à 10h44
Y a un truc que personne ne peut nier pour AMD : leurs cartes sont meilleures pour miner de la crypto-monnaie " />. Mais ce n’est pas volontaire " /> .
Le 07/01/2014 à 10h46
Le 07/01/2014 à 10h47
Le 07/01/2014 à 10h48
Donc en gros on a :
d’un côté, NVidia qui nous invite à payer (encore) plus chère et à devenir un client fidèle avec des technos dépendantes…
et de l’autre, AMD qui nous invite à attendre en nous expliquant que des standards existent déjà plus ou moins et qu’il suffit juste de prendre le temps de les exploiter.
ça devient vraiment pas agréable d’être client avec des choix pareils…
Le 07/01/2014 à 10h52
Ce qui est dit dans l’article c’est que le manque d’informations fournies par AMD est louche.
AMD ne sait pas encore quand, ni comment, cette technique d’affichage sera proposée aux utilisateurs de Radeon, ni quels écrans intégreront réellement cette possibilité.
“Ca fait des années que l’on bosse dessus mais on a rien de prévu d’ailleurs on sais même pas comment ça fonctionne”
C’est peut-être un manque de communication entre ceux qui bossent dessus et le marketing, mais si dans 1an ou 2 les écran Gsync sont a peine plus cher qu’un écran sans, AMD aura dépensé des millions dans un projet qui sera abandonné ou pas rentable.
Le 07/01/2014 à 10h57
Si cette techno est dispo sur PS4/XBO elle sera peut être poussée par Sony/Microsoft, notamment quand on connait leurs éternels souci niveau fluidité-tearing.
Le 07/01/2014 à 09h47
Et oui, le manque de marge récurrent d’AMD est en train de le rattraper, et j’ai bien peur que face à la fois à Nvidia et Intel, il ne tire ses dernières cartouches de concurrent “direct”.
Et plus le temps va passer, pire ce sera…
Le 07/01/2014 à 09h51
AMD semble avoir été surpris par G-SYNC qui ressemble selon ses responsables à une manière pour Nvidia de gagner quelques mois sur le timing prévu d’arrivée d’une technologie standard. »
Cette mauvaise foi " />
Le 07/01/2014 à 09h53
Surement aussi qu’ils se rendent compte que les concepteurs de jeux ne joueront pas dans la cours de Mantle. Plus de temps de dev, intégration compliquée ?
Alors que chez Nvidia, l’écran suffit pour que ça soit constamment applicable …
Le 07/01/2014 à 09h56
Je l’ai acheté leur Amilo avec le XGP.
Ca n’a jamais correctement fonctionné faute de pilotes.
Et ne parlons pas des ports usb supplementaires sur l’XGP qui plantaient la machine lorsqu’on branchait un truc dessus.
J’ai confiance en AMD sur la montée en puissance, mais absolument pas sur l’innovation.
Le 07/01/2014 à 09h58
c’est repartit pour le bashing AMD par PCINpact …
Le 07/01/2014 à 10h03
AMD annonces des truc qui ne sortent pas réellement et souvent en réponse à la cncurence? Bha oui comme un très grand nombre de sociétés.
Ici on verra bien ce qui va se passer mais G-synch vu le prix non merci.
Le 07/01/2014 à 10h04
Le 07/01/2014 à 10h05
Apparemment leur techno est en cours de dev avec des résultats déjà visibles et probants :http://www.hardware.fr/news/13517/ces-amd-freesync-g-sync-gratuit.html
Le 07/01/2014 à 10h06
Le 07/01/2014 à 10h08
Le 07/01/2014 à 10h10
Le 07/01/2014 à 10h13
Le 07/01/2014 à 10h19
Le 07/01/2014 à 10h23
Excellent article. On espère le rachat d’AMD par une société disposant de beaucoup de cash et prête à investir massivement en R&D matérielle et logicielle… Mais qui ?
Parce qu’en face NVIDIA fait un quasi sans-faute sur les CG et se diversifie plutôt bien sur les puces mobiles. Vu la tendance on pourrait craindre qu’avec Hawaii XT, c’est l’une des dernières fois qu’AMD force NVIDIA à rogner sur ses marges…
Le 07/01/2014 à 10h24
L’autre explication serait que la prochaine évolution du standard displayport n’est pas encore finalisée (et devrait l’être courant 2014) par le consortium dont fait partie AMD…
Possible que soit 1/ il était trop tôt pour en parler avant 2/ amd essaye de forcer la mains du consortium pour accélérer les choses suite a gsync…
quoiqu’il en soit, amd parles de dalles qui seraient déjà compatibles avec la techno, aurait fait la démo sur un portable; mais j’ai pas lu ailleurs qu’ils disaient que ca ne “nécessite pas de modification matérielle au niveau de l’écran”…
j’irais pas jusqu’à croire que toutes les CG amd et tous les vieux écrans accepteront cette technologie; mais la promesse de pas être bagué a un constructeur de carte graphique pour tirer le maximum du prochain écran qu’on achètera, ca, j’ai envie d’y croire :o
Le 07/01/2014 à 10h26
Le 07/01/2014 à 10h30
Le 07/01/2014 à 10h30
Dans le standard VESA et notamment dans l’embedded Display Port 1.3 (eDP 1.3), il y a le Panel Self Refresh, qui ressemble quand même beaucoup dans l’implémentation (mais pas dans le but) à G-SYNC. Par contre c’est quelque chose de spécifique aux PC portables. Ce n’est donc peut-être pas un hasard si AMD a choisi un PC portable pour faire la démo.
Le 07/01/2014 à 10h30
Le 07/01/2014 à 10h31
Je doute qu’AMD annonce cela pour rien, c’est pas une techno développé dans leur coin mais quelque chose fait par un consortium et qui est finalisé donc à moins que AMD ne mentent en inventant des travaux en ci qui me concerne ça renforcera mon opinion sur Nvidia.
On verra si c’est aussi poussé que le G-synch mais même si gsynch est un peu mieux, pourquoi claquer 200€ surtout que cela nous lie à un seul constructeur de GPU.
Le 07/01/2014 à 10h31
Le 07/01/2014 à 10h31
Le 07/01/2014 à 14h53
Le 07/01/2014 à 15h34
Le 07/01/2014 à 15h36
Le 07/01/2014 à 15h37
Le 07/01/2014 à 15h38
Le 07/01/2014 à 15h45
Bah Nvidia les fabricants de consoles ont réglé le problème " />
Le 07/01/2014 à 16h14
Le 07/01/2014 à 16h23
Le 07/01/2014 à 18h09
Qu’est-ce que c’est cet article purement subjectif ? T’as été payé combien par Nvidia pour pondre ça ?
Le 07/01/2014 à 18h51
La démo d’AMD est complètement pourrie, d’un côté la vsync est activée donc bloqué à 30fps d’office, à droite c’est désactivé. Si on désactive aussi la vsync à gauche, on a exactement la même fluidité, du coup je n’ai pas vu l’intérêt de cette démo, à part prendre les gens pour des cons…
Le 07/01/2014 à 19h12
ça n’est que du pipeau.
Si je comprend bien et comme dit dans quelques commentaires précédents, le g-sync permet de faire varier le taux de rafraichissement de l’écran et ainsi le synchroniser avec le nombre de fps qu’envoie la carte graphique. Ce qui donne en pratique un jeu fluide dès 40fps.
Là le truc d’amd ne devrait permettre au gpu que de calculer le nombre d’images necessaire à l’ecran.
Mis à part des économies d’energie (et une chauffe moindre pour le gpu) je ne vois pas à quoi ça peut servir.
Le 07/01/2014 à 19h36
Le 07/01/2014 à 19h37
Quand AMD annonce Mantle, ça va pas, c’est pas bien, c’est une techno fermée qui va va couper le marché en deux et nuire au développement DX/Open GL.
Quand ils lancent les R290/290X qui divisent les prix dans le HDG par 2, ça va pas, les fréquences sont pas assez stables, le ventilo fait trop de bruit, c’est pas du vrai haut de gamme!
Quand Nvidia lance sa titan a 1000 euros ou sa 780, c’est trop de la balle, ça c’est du vrai haut de gamme avec en plus les bons driver, le super physx (qui est pas du tout une techno fermée) et 3D vision qui est en pleine bourre.
Quand Nvidia annonce son G-Synch qui coute une blinde, c’est trop de la balle, c’est la solution miracle attendue, ça vaudra bien le coup de changer son ecran pc!
De tout façon, bientôt, tout le monde sera content car AMD aura disparu et Nvidia pourra continuer à “offrir” ses super techno propriétaires et ses GPU avec ventilo chromé, Intel ses super puces qui évoluent plein pot à chaque génération. Et à prix d’ami bien sur!
Ah oui, juste un truc, avant de pondre un article mettant autant en évidence les lacunes d’AMD, il aurait peut-être été opportun de vérifier l’existence du standard vesa non? Je dis ça je dis rien…
Le 07/01/2014 à 19h39
Le 07/01/2014 à 19h50
Le 07/01/2014 à 20h05
encore un qui parle de cpu limited sans savoir de quoi il s’agit…
ca fait des années qu’il n’y a plus de cpu limited, à moins d’utiliser un P4.
Surtout que le modèle dont il parle a un APU, manquerait plus que ça que le CPU bride le GPU
Le 08/01/2014 à 15h56
Le 08/01/2014 à 16h36
Je crois que t’as pas compris que l’objectif de base de V-Synch comme G-Sync était d’éliminer le tearing quand le framerate descend en dessous de la fréquence de rafraichissement de l’écran (généralement 60Hz).
ActivSynch permet simplement d’éliminer le tearing quand la carte GFX génère plus de 60 images par seconde et d’éliminer le stuttering (mais du coup pas le tearing) quand la carte GFX génère moins de 60fps.
Si tu ne vois pas de tearing, c’est que t’es tout le temps au-dessus de 60fps (ou que le tearing ne te dérange pas).
Et c’est normal que la vidéo de comparaison d’AMD avec le V-Sync activé affiche 30fps car c’est précisément ce que fait le V-Sync : afficher la même image 2 fois. Et 60⁄2=30. Tu as donc bien 30fps quand le V-Synch est activé, même si la carte GFX est capable d’en envoyer 40 ou 50. Avec G-Sync (ou FreeSync) tu as autant d’image que la carte GFX peut en envoyer (soit 40 ou 50). D’où d’un coté une vidéo à 30 fps et de l’autre une vidéo à 40fps.
Le 08/01/2014 à 16h59
En fait, AMD aurait mis un 3è portable avec du V-Sync Off, la vidéo aurait touné 40-45fps, comme celle avec FreeSync, mais avec du tearing.
Le 08/01/2014 à 19h58
Le 09/01/2014 à 06h58
Merci d’avoir confirmé :)
Le 09/01/2014 à 09h13
Le 09/01/2014 à 10h05
Le 09/01/2014 à 11h56
Dacoco974>Ecran 120Hz ou 144Hz ?
Le 09/01/2014 à 15h25
Le 09/01/2014 à 16h49
Bon, ben… qu’est-ce que tu veux que je te dise… tu défis tous les relevés techniques et la crédibilité de beaucoup de sites spécialisés (notemment HFR) :)