Connexion
Abonnez-vous

FreeSync, le G-Sync gratuit d’AMD : un effet d’annonce de plus ?

L'art de la guerre

FreeSync, le G-Sync gratuit d'AMD : un effet d'annonce de plus ?

Le 07 janvier 2014 à 09h41

Que faire lorsque votre concurrent annonce une technologie que vous n'aviez pas prévue ? Dites que vous avez vous aussi une solution ! Rien n'est prêt, vous n'avez aucune idée de la disponibilité commerciale ? Qu'importe, la presse fera passer le message et donnera ainsi l'illusion d'un mouvement. Une stratégie chère à AMD, qui recommence avec son FreeSync : la promesse d'un équivalent gratuit du G-Sync de NVIDIA.

Ces dernières années, les difficultés financières d'AMD semblent avoir eu un effet assez dévastateur sur la capacité de la société à innover, notamment sur les possibilités annexes de ses produits. Et cela s'est ressenti de manière assez dure ces derniers mois.

Concevoir des CPU et des GPU, c'est aussi penser à tout un écosystème

Sur le marché des cartes graphiques où elle a réussi à mettre en place une architecture qui a évolué jusqu'à sa version actuelle, GCN, elle a surtout marqué des points grâce à des prix planchers et autres jeux offerts. Les performances étaient au rendez-vous, mais au prix de pilotes parfois un peu problématiques (voir les soucis de Frame pacing par exemple) et d'une consommation parfois assez élevée. Mais au final, le public a pu continuer à répondre présent.

 

La société a néanmoins négligé au passage des éléments pourtant importants comme lors du récent lancement de ses Radeon R9 290(X) qui a été doublement gâché par une stratégie marketing et commerciale douteuse (annonces dans tous les sens, précommande sans prix, etc.) et un système de refroidissement totalement inadapté. Un point heureusement corrigé (tardivement) par l'arrivée des modèles des partenaires de la marque.

 

 Radeon R9 290X Sapphire R9 290(X) Tri-X

Du ventirad proposé par AMD à celui de Sapphire par exemple... il y a un monde

 

Sur le terrain des CPU, la gamme FX a été complètement abandonnée et ne devrait pour le moment pas connaître de suite. Seuls les APU continuent d'être un tant soit peu séduisants bien que les dernières générations soient en retard et que leur évolution n'ait pas toujours été au niveau de ce que l'on pouvait espérer. Mais en misant surtout sur la partie graphique et des tarifs abordables, AMD a tout de même réussi à sauver les meubles. C'est par contre moins rose du point de vue de la mobilité où ses produits ne finissent que dans des modèles d'entrée de gamme, et passent totalement à côté de l'évolution du marché au niveau des tablettes des hybrides, là où Intel a encore réussi de beaux paris, notamment avec Bay Trail et le T100TA d'ASUS qui a connu un certain succès pendant les fêtes de fin d'année par exemple.

 

Dans les deux cas, on sent que le manque d'investissement dans les projets fini par poser problème, et malgré un recentrage des priorités, le fait de vouloir attaquer des géants comme Intel et NVIDIA sur tous les fronts finit par poser problème sur l'ensemble des gammes, malgré de beaux succès comme l'intégration des FirePro dans les Mac Pro par exemple. Certains paris sur l'avenir sont certes en cours, notamment avec l'intégration de solutions ARM pour les serveurs, de nouvelles architectures qui sont sans doute en préparation pour le monde des CPU et des GPU, mais dans le cas de ces derniers, le problème est parfois ailleurs, notamment sur les usages annexes.

L'innovation ? Aussi simple qu'un PowerPoint

Car le plus détestable ces derniers temps est sans doute la façon dont AMD tente de contrer les initiatives concurrentes au niveau des innovations qu'elles annoncent, en agitant les bras en l'air. Ainsi, à chaque fois la stratégie est à peu près la même : si cela commence à intéresser du monde, on annonce que l'on est déjà sur le coup avec quelques présentations PowerPoint en renfort, puis dans certains cas on va jusqu'à faire quelques démonstrations à la presse. On a même vu l'un de ces projets aboutir, mais sans jamais vraiment fonctionner comme l'on pourrait s'y attendre : Enduro.

 

 

Cela a été l'une des premières fois que cette stratégie de contre-attaque a été appliquée par AMD, pour combattre l'arrivée d'Optimus chez NVIDIA. Après plusieurs mois d'annonces et de démonstrations à la presse, cela a finalement vu le jour. Les performances n'étaient pas au rendez-vous, tout comme le fonctionnement dans la pratique, et malgré de nombreuses mises à jour des pilotes, le résultat est encore loin de la perfection ou même du niveau de ce que propose la concurrence.

 

Mais ce n'était pas la seule initiative du genre. On se souvient en effet de Lightning Bolt, la solution qui devait révolutionner la connectique et faire plier le Thunderbolt d'Intel tout en étant plus abordable. Annoncée depuis maintenant près de deux ans, elle n'a tout simplement jamais vu le jour, et nous ne l'avons d'ailleurs jamais vu en démonstration malgré qu'il soit devenu DockPort en novembre dernier. Et Turbo Dock ? Passé aux oubliettes. 

 

La 3D est tendance et NVIDIA propose 3D Vision ? Annonçons HD3D qui n'est qu'un lien dans notre pilote pour des développeurs tiers (IZ3D, TriDef, etc.) qui feront tout le boulot à notre place. Résultat : assez peu d'écrans supportés, un pilote payant à acheter, et un support dans les jeux aléatoire, surtout pour ceux qui ne voulaient pas bidouiller. Mais au final, qu'importe : la 3D n'intéresse plus personne.

 

Intel lance le WiDi ou Wireless Display ? AMD répond avec son... Wireless Display. Dans la pratique, cela ne fait que reprendre l'intégration de Miracast au sein de Windows 8.1 avec une surcouche logicielle qui ne semble pas changer grand-chose dans la pratique selon nos premiers essais (mais d'autres arrivent), mais ce n'est pas grave. Cela permet d'annoncer que l'on dispose d'une solution concurrente, meilleure : 

 

AMD Richland

 

Plus récemment on a aussi vu la même stratégie appliquée au logiciel. La société a ainsi dévoilé son Media SDK pour répondre à l'outil éponyme d'Intel quelques années après son introduction. Afin de proposer une alternative à GeForce Experience on a aussi eu le droit à Gaming Evolved, qui n'avait semble-t-il pas convaincu nos confrères de PC World.fr qui écrivaient récemment à son propos : « Une coquille vide, c’est bien l’impression qu’AMD nous a laissé sur ce dossier : beaucoup de vent, pour un logiciel qui ne fait pas le quart de la moitié de ce qu’il devrait. En fait, Raptr devrait prendre exactement le même chemin que le fameux HD3D, qu’AMD avait lancé pour contrer 3D Vision, et qui demandait un logiciel tiers (TriDef 3D), et restait contraignant, que ce soit dans son installation, ou dans le choix d’un matériel compatible. Dommage, car l’idée de base demeurait intéressante.  »

Lorsqu'AMD se donne la peine, cela donne des résultats intéressants

Et l'on pourrait sans doute continuer comme cela encore longtemps. Heureusement, cela n'est pas toujours le cas et AMD sait créer la surprise. Ce fût notamment le cas avec Eyefinity qui a au final été une assez grande réussite puisque la technologie était plus souple que ce que proposait NVIDIA tout en étant parfaitement fonctionnel. On aurait sans doute apprécié une meilleure évolution avec le temps, mais cela ne reste qu'un détail puisque la concurrence ne propose pas vraiment mieux.

 

L'XGP : la bonne époque

 

On avait aussi été assez enthousiaste par la technologie XGP mise en avant il y a quelques années et qui permettait de disposer d'un portable avec une carte graphique externe, mais sur laquelle AMD n'a finalement pas été vraiment suivi par les constructeurs. Dommage. Plus récemment, c'est l'investissement dans Mantle qui nous a semblé être une bonne idée, bien que pour le moment, il soit impossible de se faire une idée puisque le patch prévu pour Battlefield 4 a été retardé.

Free Sync : on vous jure, on a un équivalent de G-Sync gratuit, il arrivera... un jour

Mais malgré cela, cette pratique continue. Le dernier exemple en date est G-Sync. Alors qu'AMD continue de retarder la résolution de ses problèmes de frame pacing via ses pilotes, on apprend que NVIDIA a travaillé depuis quelques temps sur la création d'un module à intégrer aux écrans qui veut changer la donne sur la gestion de la communication avec le GPU. Ainsi, plutôt que de chercher à compenser le manque de synchronisation de ces deux éléments par des solutions logicielles, le caméléon a décidé de permettre à l'un de n'afficher une image que lorsqu'elle est calculée par l'autre. Une gestion bien plus fluide des choses que l'on aurait pu s'attendre à voir débarquer sur le marché depuis longtemps, mais qu'importe.

 

NVIDIA G-Sync

 

Problème : ce module a été pensé par NVIDIA, il ne fonctionnera donc qu'avec les GeForce de la marque qui a réussi à s'associer avec plusieurs fabricants. ASUS et Philips ont ainsi déjà annoncé leurs solutions à l'occasion du CES et tous deux ont un défaut : leur tarif. Avec un surcoût de 200 euros grosso modo sur un modèle standard, cette technologie est encore assez chère. AMD a donc trouvé sa façon de contrer cette annonce : annoncer qu'elle dispose d'un équivalent... gratuit !

 

Cela s'est fait à l'occasion de sa présentation organisée au CES principalement autour de Kaveri et prend la forme d'une démonstration effectuée sur deux portables, dans les deux cas la synchronisation verticale est activée, mais l'une des machines est capable de jouer avec le VBLANK, qui sépare la fin du calcul d'une image du début du calcul de la suivante : 

 

 

Un standard VESA existerait d'ailleurs afin de permettre cette possibilité (il reste encore à identifier), qui peut être implémenté au niveau de la carte graphique, mais ne nécessite pas de modification matérielle au niveau de l'écran. Cela a d'ailleurs surtout été implémenté pour le monde mobile et AMD aurait déjà intégré le nécessaire au sein de ses puces de la génération Kabini / Kaveri, et n'aurait donc plus besoin que d'adapter ses pilotes pour le proposer. Tout serait d'ailleurs déjà présent dans ces derniers selon AnandTech.

Les constructeurs d'écrans : ces idiots

La promesse est belle et la possibilité de profiter gratuitement d'un équivalent de G-Sync en intéressera sans doute plus d'un. On se demande d'ailleurs pourquoi diable les constructeurs sont allés perdre leur temps avec NVIDIA si un équivalent gratuit existe via une norme connue et établie par le VESA. La volonté de proposer des modèles plus chers ? Cela semble bien compliqué pour au final une minorité d'exemplaires vendus. En effet, que représenteront dans le volume des différentes marques les modèles estampillés G-Sync et proposé à plus de 500 $ ?

 

Mais au vu des annonces précédentes de ce genre, à quoi peut-on réellement s'attendre ? En effet, comme le confirment nos confrères de Hardware.fr présents sur place : « AMD ne sait pas encore quand, ni comment, cette technique d'affichage sera proposée aux utilisateurs de Radeon, ni quels écrans intégreront réellement cette possibilité. AMD semble avoir été surpris par G-SYNC qui ressemble selon ses responsables à une manière pour Nvidia de gagner quelques mois sur le timing prévu d'arrivée d'une technologie standard. » De son côté, AnandTech précise qu'aucun test poussé n'a pour le moment pu être effectué et qu'aucune stratégie commerciale ne semble pour le moment prévue autour de FreeSync.

FreeSync : on fera le point dans six mois

Il faudra donc attendre avant de crier victoire. Attendre que cette possibilité soit effective dans un pilote public, utilisable avec n'importe quelle Radeon récente de la marque, gérée par de nombreux écrans disponibles sur le marché et donc testable par le plus grande nombre. On pourra alors savoir si AMD a effectivement sauvé tout le monde du surcoût d'une technologie matérielle comme G-Sync, ou si ce n'était qu'un coup marketing douteux de plus. Rendez-vous dans six mois pour un premier bilan.

Commentaires (96)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar







David_L a écrit :



Comme on le dit régulièrement, ça varie d’un revendeur à l’autre, il faut faire attention. Après ça dépend des cartes, mais le programme sur les nouvelles gammes est moins intéressant que sur les précédentes.





Tempis c’est pas bien grave, merci pour cet éclaircissement.


votre avatar







David_L a écrit :



Qu’ils se concentrent sur des annonces de produits finis et bien pensés (pas comme les 290(X) de référence quoi), à leur arrivée sur le marché, et je n’aurais plus à me taper ce genre de papier. Et tu sais quoi ? J’en serai plutôt content (et pour moi, et pour eux).





Pasque tu trouve G-Sync finis et bien pensé ? <img data-src=" />



Les constructeurs n’ont rien à perdre à être compatible G-Sync. Au contraire, à court terme, ça leur permet d’être moins nombreux a se partager la première vague d’earlies adopters (tout en margeant un peu plus sur leur dos) et à moyen terme, de vendre un deuxième écran aux plus fortunés de ces earlies adopters en proposant des écran [G-Free]Sync 4K. Et à nVidia d’emprisonner à long terme le reste de cette même vague (la moins fortunés, donc).


votre avatar



Cela a été l’une des premières fois que cette stratégie de contre-attaque a été appliquée par AMD, pour combattre l’arrivée d’Optimus chez NVIDIA. Après plusieurs mois d’annonces et de démonstrations à la presse, cela a finalement vu le jour. Les performances n’étaient pas au rendez-vous, tout comme le fonctionnement dans la pratique, et malgré de nombreuses mises à jour des pilotes, le résultat est encore loin de la perfection ou même du niveau de ce que propose la concurrence.





Certes, Enduro est moins au point que Optimus, mais quand tu payes 300€ de moins pour avoir une 7970m au lieu d’une 680m pour les mêmes perf, tu t’en fous un peu <img data-src=" />

votre avatar







makotwinsen a écrit :



Si cette techno est dispo sur PS4/XBO elle sera peut être poussée par Sony/Microsoft, notamment quand on connait leurs éternels souci niveau fluidité-tearing.







Peut être mais il faut que ça fonctionne sur un écran de PC et les télévisions aussi.


votre avatar







makotwinsen a écrit :



Si cette techno est dispo sur PS4/XBO elle sera peut être poussée par Sony/Microsoft, notamment quand on connait leurs éternels souci niveau fluidité-tearing.







Et ils pourront enfin sortir des jeux en 1080p(et à 20fps)et le consommateursera content.<img data-src=" />







Magyar a écrit :



Certes, Enduro est moins au point que Optimus, mais quand tu payes 300€ de moins pour avoir une 7970m au lieu d’une 680m pour les mêmes perf, tu t’en fous un peu <img data-src=" />







Un pote s’est acheté un nouveau portable que je lui ai conseillé il y a une semaine, j’étais bien tenté de lui dire de prendre un MSI avec une 8970m qui était à 950€ c’était vraiment monstrueux les performances pour ce prix. Mais vu les performances du processeur si c’est pour être cpu limited sur tous les jeux c’est même pas la peine. Vivement une amélioration de ce coté là!


votre avatar







bojack9512 a écrit :



Un pote s’est acheté un nouveau portable que je lui ai conseillé il y a une semaine, j’étais bien tenté de lui dire de prendre un MSI avec une 8970m qui était à 950€ c’était vraiment monstrueux les performances pour ce prix. Mais vu les performances du processeur si c’est pour être cpu limited sur tous les jeux c’est même pas la peine. Vivement une amélioration de ce coté là!







Je n’ai pas un MSI GX60 mais un clevo. J’ai donc un i7 ! (Ce qui parait logique, car tu trouve pas de 680/780m pour 1300€, sinon j’aurais pris tout de suite)


votre avatar

Si Nvidia préfère innover en attendant la normalisation, on attend toujours les descendants des lunettes ELSA d’il y a 15 ans.

votre avatar







fitfat a écrit :



Pasque tu trouve G-Sync finis et bien pensé ? <img data-src=" />



Les constructeurs n’ont rien à perdre à être compatible G-Sync. Au contraire, à court terme, ça leur permet d’être moins nombreux a se partager la première vague d’earlies adopters (tout en margeant un peu plus sur leur dos) et à moyen terme, de vendre un deuxième écran aux plus fortunés de ces earlies adopters en proposant des écran [G-Free]Sync 4K. Et à nVidia d’emprisonner à long terme le reste de cette même vague (la moins fortunés, donc).





G-Sync a déjà été testé, le produit est affiché chez les revendeurs, et la gamme “native” est déjà dans le pipe avec un timing clairement annoncé. Pour le reste, je ne vois pas quel est le souci puisque ça fait le job : adapter l’affichage à la capacité de rendu de la carte en temps réel.



Les constructeurs n’ont pas rien à perdre non. Une gamme ça ne se créé pas comme ça, idem pour la distribution, le marketing autour, etc. Après si une norme existe de manière effective, les utilisateurs auront le choix : opter pour la norme ou la solution de NVIDIA. On a déjà eu le débat pas mal de fois autour des différentes technos comme la 3D, OpenCL / CUDA, Mantle, etc. Mais in fine, si le consommateur se fout de G-Sync et n’y voit aucun intérêt, ça disparaîtra. Si au contraire ça constitue un avantage, ça marchera.



Comme dit plus haut, le but des constructeurs n’est pas de cramer de la R&D pour faire plaisir à la concurrence. Pour la mise en place des standard, des consortiums existent, à eux de faire le job et de pousser la chose. On verra si c’est possible pour répondre à ce besoin précis.







Magyar a écrit :



Certes, Enduro est moins au point que Optimus, mais quand tu payes 300€ de moins pour avoir une 7970m au lieu d’une 680m pour les mêmes perf, tu t’en fous un peu <img data-src=" />





Les deux choses n’ont rien à voir. Le sujet ici n’est pas de savoir si AMD est plus intéressant en terme de rapport perf / prix que NVIDIA, mais de savoir si la stratégie sur les fonctionnalités annexes est bonne ou pas.



Après, comme j’ai déjà eu plusieurs fois l’occasion de le dire, on peut apprécier de payer des produits à pas cher et de voir la boite qui les propose s’écrouler financièrement un peu plus chaque trimestre. Mais quand viendra l’heure de payer la note, je ne suis pas sur que le client final s’y retrouve gagnant, le manque d’investissement dans les technos annexes en est justement une parfaite illustration.


votre avatar

David a sorti la plume au vitriole, mais ce qui est dit dans cet article est vrai. AMD na rien à opposer à bon nombre de fonctionnalités présentes chez les verts.

Le lancement des séries Rx a aussi été un gros fiasco.

Il ne tient qu’à AMD de faire mentir l’article en sortant un truc exploitable dans un temps raisonnable.



Enfin il est aussi évoqué l’intérêt limité du G-Sync, à cause de son prix, équivalent à celui d’un GPU milieu de gamme.

Autant je peux comprendre l’achat d’un GPU nVidia pour de la 3D stereoscopique, autant je vois pas les clients opter massivement pour du nVidia en raison de l’existence de G-Sync.

votre avatar

Du coup si le Free Sync d’AMD c’est juste une modification du comportement du VBLANK ça n’a rien à voir avec G-Sync.



Le dossier de HFR sur G-Sync explique clairement que sans modification hardware de l’écran il est impossible d’arriver au même résultat que G-Sync.

votre avatar

Sacré bashing. u_u

votre avatar



La 3D est tendance et NVIDIA propose 3D Vision ? Annonçons HD3D qui n’est qu’un lien dans notre pilote pour des développeurs tiers (IZ3D, TriDef, etc.)[…]



Crédibilité PCInpact -1000. J’ai lu “bashing” quelque part me semble-t-il…<img data-src=" />

HD3D dispose d’un SDK http://developer.amd.com/tools-and-sdks/graphics-development/amd-quad-buffer-sdk… et le support d’appli stéréoscopique n’a pas obligatoirement besoin de passer par un driver tiers, qui plus est régulièrement fournit gratuitement avec les moniteurs 3D et maintenu tout aussi gratuitement.

votre avatar

Euh, pour ceux qui ont lu l’article de Hardware.fr, il est clairement dit que l’écran doit être compatible ! Mais comme c’est une norme VESA, certains écrans sont déjà compatibles ou du moins, il suffirait d’une mise à jour (mais on peut parier qu’ils préféreront vendre de nouveaux écrans !).



Du coup, G-Synch a un coup, mais pour un fabricant, c’est beaucoup plus rentable pour le moment. Ils proposent la technologie dès maintenant et ont une très bonne raison de faire exploser les prix à la hausse !



Et puis David, les problème de framespacing, c’est uniquement en multi-GPU, bref, ça touche personne… Pour le reste, je suis assez d’accord, même si au final, les R9 font à peine plus de bruit que les HD79xx… (mais ça, personne ne le fait remarquer !).

votre avatar

au moins Amd ils font des standards et le filent a Vesa. Nvidia et les solutions fermées, physx, g-sync… Voir aussi ca récemment de la part d’Amd www.semiaccurate.com/2013/10/11/amd-solves-4k-display-problems-vesa-display-id-v1-3/

votre avatar

omg mais cet article à charge de merde pas du tout parti pris quoi … et vous appelez ca du journalisme ?



Heureusement qu’il y a les articles de Hardware.fr ….

et les commentaires de certains pour rectifier un peu l’équilibre

votre avatar







Alderic a écrit :



omg mais cet article à charge de merde pas du tout parti pris quoi … et vous appelez ca du journalisme ?



Heureusement qu’il y a les articles de Hardware.fr ….

et les commentaires de certains pour rectifier un peu l’équilibre









Ben en même temps à part depuis deux trois ans ou les annonces AMD sont du flan, à un moment faut taper sur leur tronche un peu.

C’est comme écouter parler des politiciens, chez AMD c’est pareil. Annonces sur contre-annonces.

Franchement tu donnes tord à PCinpact de dire que AMD ne fait rien d’innovant depuis quelques années ?

Depuis quand on a pas vu quelque chose de nouveau provenant de AMD ?

A un moment il n’y a plus de débat Pro-X ou Pro-Y, les faits sont là…


votre avatar







Patch a écrit :



encore un qui parle de cpu limited sans savoir de quoi il s’agit…

ca fait des années qu’il n’y a plus de cpu limited, à moins d’utiliser un P4.





Heuuu, et toi tu sais de quoi tu parles bien sur…


votre avatar







Patch a écrit :



encore un qui parle de cpu limited sans savoir de quoi il s’agit…

ca fait des années qu’il n’y a plus de cpu limited, à moins d’utiliser un P4.





// Troll on | bulldozer c’est presque le nouveau P4 d’AMD

(l’apu(cpu) de ce portable est si asthmatique qu’il est derrière certain pc portable avec cpu intel et carte graphique nvidia/AMD moins puissante(une 765m par exemple)



On peux prendre un clevo avec un i5/i7 + 7970m/8970m et la aucun soucis.


votre avatar







djil a écrit :



Quand AMD annonce Mantle, ça va pas, c’est pas bien, c’est une techno fermée qui va va couper le marché en deux et nuire au développement DX/Open GL.





Tu noteras que ce que je critique surtout en général dans Mantle, c’est justement le fait qu’AMD nous raconte tout le temps que les standards ouvert c’est trop de la balle mais que bon, de temps en temps, un petit Mantle proprio ça ne fait pas de mal. Pour le reste, on jugera sur pièce quand le patch BF4 sera public.





Quand ils lancent les R290/290X qui divisent les prix dans le HDG par 2, ça va pas, les fréquences sont pas assez stables, le ventilo fait trop de bruit, c’est pas du vrai haut de gamme!



Les cartes de références étaient nazes. Enfin si tu ne recherches que le prix, c’était adapté, mais un fabricant de GPU doit savoir faire plus équilibré que ça. Celles des partenaires ont l’air plutôt bonnes et les tarifs ont l’air dans les clous, et on évite tous les soucis des fréquences “presse” (entre autres). Du coup, ça sera sans doute bien plus intéressant une fois que ce sera en stock.





Quand Nvidia lance sa titan a 1000 euros ou sa 780, c’est trop de la balle, ça c’est du vrai haut de gamme avec en plus les bons driver, le super physx (qui est pas du tout une techno fermée) et 3D vision qui est en pleine bourre.



Je n’ai pas souvenir qu’on ait raconté qu’une carte à 1000 € était une bonne idée. Loin de là même. Après la 780 Ti était une bonne surprise oui. Mais pour sa gamme, qui ne vise pas tout le monde. Et une fois de plus, ne voir les choses que par le prisme du prix est réducteur. Et c’est oublier le besoin de rentabilité de ces sociétés (qu’AMD a lui même oublié depuis bien longtemps histoire de garder cet avantage au niveau commercial).





Quand Nvidia annonce son G-Synch qui coute une blinde, c’est trop de la balle, c’est la solution miracle attendue, ça vaudra bien le coup de changer son ecran pc!



Quand NVIDIA a lancé G-Sync c’était une promesse sans tarif et sans date de dispo pratique. L’idée de la techno est en soit assez intéressante parce qu’elle répond à une problématique réelle et quotidienne des joueurs. Maintenant en l’état c’est bien trop cher comme on a pu le voir sur les trois annonces consécutives. On l’a déjà dit. Mais au moins, c’est concret.





De tout façon, bientôt, tout le monde sera content car AMD aura disparu et Nvidia pourra continuer à “offrir” ses super techno propriétaires et ses GPU avec ventilo chromé, Intel ses super puces qui évoluent plein pot à chaque génération. Et à prix d’ami bien sur!



Si AMD rend les armes, c’est du fait de ses pertes. Celles-ci sont aussi le résultat de la stratégie chaotique que j’évoque dans l’article.





Ah oui, juste un truc, avant de pondre un article mettant autant en évidence les lacunes d’AMD, il aurait peut-être été opportun de vérifier l’existence du standard vesa non? Je dis ça je dis rien…



Comme dit dans l’article, celui-ci demande à être vérifié pour le moment. Je n’en ai pas trouvé de trace, mais nul doute qu’AMD va en dire plus assez rapidement. Ou tout du moins plus de détails devraient rapidement être connus. Mais quoi qu’il en soit je ne vois pas ce que cela change. L’article pointe une stratégie récurrente qui est ici encore appliquée. Quand bien même le standard serait réel, on en revient au même résultat : on a rien de concret et l’on sait que rien n’est prévu au niveau commercial pour le moment.



Mais je te rejoins sur un point : AMD aurait sans doute été bien plus inspiré de donner les détails sur le standard en question, son fonctionnement, en quoi il est effectivement une alternative au G-Sync de NV et en quoi ce dernier n’a aucun besoin de passer par un module hardware. Cela aurait été bien plus informatif et concret qu’une démo pleine de promesse mais sans fond. C’est aussi ça que je critique :) (Mais c’est un choix marketing, pas technique, ceci explique cela).







lyni a écrit :



Qu’est-ce que c’est cet article purement subjectif ? T’as été payé combien par Nvidia pour pondre ça ?





Je te rassures, AMD ne me paie pas non plus quand je bache NVIDIA (toute boite disposant de sa horde de fanboys pouvant prendre la place de l’une ou l’autre des marques citées).







kail a écrit :



Ça s’appelle de l’AMD bashing, et c’est plutôt payé par Intel. C’est pour cela d’ailleurs que David parle tant de celui-ci dans ses articles





Intel se fout de cette question, je te rassures. Comme tu ne fais que défendre que ton point de vue qui est exactement ce que tu semble critiquer (partial et monothéiste), tu sembles oublier deux choses :





  • Je pointe aussi de bonnes idées d’AMD, qu’elles aient été suivies ou non. Parce que quand on prend des risques, des fois ça marche, des fois non. Mais au moins on a tenté un peu plus que de faire un copy/paste foireux ou un morceau de PPT accompagné d’un bout de soft repiqué par ci par là.



    AMD savait encore le faire il y a quelques années, c’est désormais assez rare. Mantle est de cette trempe là. Mais c’est une des rares initiatives récentes du genre, et c’est assez drôle de voir la société faire dans le fermé (mais ça se comprend)



  • Intel s’en prend plein la poire aussi quand il y a matière (même si c’est plus souvent le cas de NV, parce qu’ils cherchent souvent un peu plus). C’est d’ailleurs le cas de toute boite qui fait quelque chose qui nous semble poser souci. Mais promis, la prochaine fois je ferai moi aussi un simple recopié du seul avis d’AMD sur la dernière techno qu’ils ont décidé d’annoncer sur un coin de table. Tu seras alors totalement comblé et le journalisme sera sauvé.







    Patch a écrit :



    encore un qui parle de cpu limited sans savoir de quoi il s’agit…

    ca fait des années qu’il n’y a plus de cpu limited, à moins d’utiliser un P4.





    ça c’est assez faux. Mais ça dépend de quels CPU et de quelles conditions tu parles, et c’est bien moins récurrent que ça ne pouvait l’être il y a quelques années, effectivement.


votre avatar







Patch a écrit :



encore un qui parle de cpu limited sans savoir de quoi il s’agit…

ca fait des années qu’il n’y a plus de cpu limited, à moins d’utiliser un P4.







Faux , le monde de la simu est touché par le cpu limited ;)



Arma, FS etc … ;)


votre avatar

Si le journalisme n’était pas critique ça ne serait plus du journalisme, mais de la simple diffusion de news ni plus ni moins.

C’est comme pour la presse écrite, , par exemple libération est plus de gauche comme le figaro est plutot conservateur et de droite.

Et en décalage il y a le satyrique le canard enchaîné qui ne se prive pas de flinguer tout le monde (ou le tristement connu charlie hebdo).



Si il n’y a pas une once de critique ou de parti pris dans ton argumentaire tu n’avances pas ou tu ne crées pas de débat, à partir de la tu constate et point barre.



Si l’article ne te plait et que tu penses que c’est du AMD BASHING c’est que peut-être tu as un parti pris pour AMD. Donc diriges toi vers un site plus approprié.

Moi ici même si on sent plus de mécontentement envers AMD que Nvidia à travers cet article c’est aussi un choix de l’auteur ou simplement implicite il avance des arguments crédibles et ça me va. Si j’ai besoin d’un autre avis je vais voir ailleurs et point barre.



Ou sinon amenez de vrais arguments et étayez les avec des exemples concrets et qui feront taire la partie adverse.



C’est comme un peu les débats du moment , parce qu’une personne critique telle ou telle culture sur des points qui ne collent pas avec la sienne ou celle de son pays (je ne parle pas de Dieudonné , mais de l’atmosphère générale), qu’il est raciste. Merde j’ai envie de dire ! Libre a soi d’exprimer sa pensée et son jugement tant que sa rentre dans le respect des autres et des lois. Aux gens de savoir discerner la ou l’auteur a un parti pris ou non.



Donc David merci à toi pour tes post critiques :)



Etant ancien pro-ATI , je suis plus qu’objectif sur ce que je peux lire actuellement, ATI était la grande époque avec une vraie concurrence à Nvidia, je me souviens de ma X800XT et de ma X1950XTX qui franchement donnaient du fil à retordre à Nvida.

il n’y a plus de ligne claire de toute façon pour AMD depuis que la marque s’est cassée la gueule au passage au multi-cpu. A part courir derrière Intel, le rachat d’ATI a permis à AMD de souffler et d’avoir une R&D performante et du cash flow disponible rapidement grâce aux GPU. Le reste c’est un trou sans fond qui a pompé les ressources d’AMD tout simplement face au géant Intel. La suite on la connait.

votre avatar







Patch a écrit :



encore un qui parle de cpu limited sans savoir de quoi il s’agit…

ca fait des années qu’il n’y a plus de cpu limited, à moins d’utiliser un P4.







Ah c’est sûr on va regarder un peu des résultats en passant d’un A10 5750m à un i7 4700MQ:



http://www.notebookcheck.biz/AMD-Radeon-HD-8970M.94341.0.html



CoH2 en high: gain de plus de 20 fps(4fps en ultra mais bon entre 18 et 22fps…)

Grid 2 en ultra: gain de plus de 20 fps

Metro Last Lightpresque 30 fps de plus en high et environs 9 de plus en ultra



On va en passer quelques uns pour en voir des encore plus flagrants:



NFS:MW: 30 fps de différence en high et 26 en ultra(d’ailleurs seulement 1 fps de différence pour le proco AMD entre les deux qualités)

Dishonored: 40 fps de différence en ultra

Fifa 13: 180 fps de différence en ultra

GW2: 28 fps en high

Max Payne 3: 42 fps en high(d’ailleurs en passant de hiugh à ultra sur l’AMD on gagne 1 fps)

Dirt Showdown: 48 fps en high

Bf3: 52 fps en high



Alors certes il y a beaucoup de jeux où il ‘y a pas de cpu limited mais pour la plupart des gros jeux(et même Fifa ce qui est quand même marrant)et probablement pour de nombreux futurs jeux, il y a un cpu limited parfois non négligeable(quand on passe d’un bon 40 fps sur AC3 à un petit 15fps juste à cause du cpu…)


votre avatar

Je suis a 100% d’accord que AMD crée des technologie qui ne sont pas aboutie,



mais accorder moi aussi le fait d’être dubitatif au fait que Nvidia fait souvent

le hardware inutile et propriétaire a savoir le SLI via NF200, Le Physx, La 3D Vision et bien d’autres …



Du coup mon cœur balance et je ne serais pas surpris que le G-Sync soit aussi une fumisterie ou le fait que AMD joue les illusionnistes.

votre avatar

Article d’une mauvaise foi désolante.

Le DockPort n’est n’i un coup de bluff, ni vaporware :

http://www.hardware.fr/news/13520/vesa-rajoute-usb-3-0-displayport.html

Un consortium de standardisation a une certaine inertie, c’est tout.

Ce sera pareil pour FreeSync : des choses sont en cours au VESA, ça tourne déjà sur portable, mais nvidia a juste voulu faire un coup de pub pour s’attribuer une techno qui sera en fait un standard. Le fait qu’AMD mette un pan sur le bec de nvidia semble donc mérité.

votre avatar







Reparateur a écrit :



parce que y a quelque chose de plus chez NVIDIA ?



perso je suis d’accord de casser du sucre sur le dos d’AMD qui annonce du flan pour pas grand chose mais il faut en faire autant pour NVIDIA qui pour l’instant n’a rien sortie de nouveau depuis 2 ans





parfaitement. L’esprit critique mdr quand c’est toujours dans le meme sens, ca s’apelle juste du fanboyisme et non ce n’est donc pas du journalisme.



Quand tu fais un article sur Free sync / g-sync tu t’en tiens au sujet au lieu d’etre HS et de taper comme un débile sur les AMD en prenant soin d’etre bien partial comme il faut et en evitant de rapeler toutes les merdes qu’a pu faire Nvidia de son coté.


votre avatar

@David: si tu crois qu’on ne voit pas votre petit jeu, tu te trompes.



-Ne pas parler de la fameuse vidéo qui révèle bien des choses sur la manière dont intel se fout de la figure de ses clients.

-Vous êtes le site qui a le plus parlé d’un éventuel rachat d’AMD alors qu’en fait non, toujours pas

-Quand AMD s’invite à l’IDF alors que c’est uniquement pour vanter les mérites des GPU et non des CPU, vous montez tout de suite au front alors qu’il n’y a aucune raison de le faire.

-Quand intel développe thunderbolt, vous faites tout de suite l’apologie de cette technologie propriétaire alors que la plupart des consommateurs n’en ont rien à faire, surtout si elle est si coûteuse.

-même remarque pour les smartphones. La comm’ que vous faites à chaque fois que sort un nouveau modèle à base d’atom ! (alors qu’initialement, votre coeur de métier, ce ne sont pas les smartphones! Les tablettes oui, à la rigueur)

-et j’en passe…



Au moins, vous n’êtes`pas les seuls: certains de vos confrères agissent exactement comme vous. Mais pour l’objectivité, il faudra revoir votre copie.

votre avatar







elite7words a écrit :



ça n’est que du pipeau.



Si je comprend bien et comme dit dans quelques commentaires précédents, le g-sync permet de faire varier le taux de rafraichissement de l’écran et ainsi le synchroniser avec le nombre de fps qu’envoie la carte graphique. Ce qui donne en pratique un jeu fluide dès 40fps.







En pratique, rien du tout, le mec qui voit la différence entre 40 et 60fps la verra toujours avec gsync donc ça revient au même que sans. À la limite, il aurait plutôt fallu faire comme sur les télés à 200/400/800/WTF Hz, de la motion interpolation pour avoir un effet de fluidité même dans des framerates bas.







elite7words a écrit :



Là le truc d’amd ne devrait permettre au gpu que de calculer le nombre d’images necessaire à l’ecran.



Mis à part des économies d’energie (et une chauffe moindre pour le gpu) je ne vois pas à quoi ça peut servir.







Non, ça fait comme gsync, ça change la fréquence de rafraîchissement à la volée pour coller au framerate. AMD se base sur une techno d’économie d’énergie pour ça.







Patch a écrit :



encore un qui parle de cpu limited sans savoir de quoi il s’agit…

ca fait des années qu’il n’y a plus de cpu limited, à moins d’utiliser un P4.







Ou un proco AMD <img data-src=" /> Ce n’est même pas un troll, j’ai un phenom II X4 <img data-src=" />



votre avatar

Si j’ai bien compris, vu que rien n’est vraiment expliqué dans l’article, FreeSync modifie à la volée le taux de rafraichissement de l’écran (via une norme VESA) pour coller au mieux au framerate, et avoir un VSync optimal, alors que G-Sync, lui, pilote directement l’affichage de chaque image, pour l’afficher dès qu’elle a été calculée par la CG.



Si c’est bien ça, il est clair que le G-Sync est plus efficace, mais le gain devient assez négligeable par rapport au Freesync, surtout vu les contraintes (prix et matériel)

votre avatar







David_L a écrit :



Tu noteras que ce que je critique surtout en général dans Mantle, c’est justement le fait qu’AMD nous raconte tout le temps que les standards ouvert c’est trop de la balle mais que bon, de temps en temps, un petit Mantle proprio ça ne fait pas de mal. Pour le reste, on jugera sur pièce quand le patch BF4 sera public.





Bah… Microsoft refusera que Dx fonctionne sur autre-chose qu’une plateforme Microsoft et Khronos, avec OGL, a pour objectif d’abstraire au maximum le HW, ce qui est l’exact inverse de Mantle. Toujour est-il que Mantle reste ouvert à nVidia, AMD, Qualcomm,… Et puis bon, c’est pas comme si Dice n’avait pas autant bosser sur Mantle qu’AMD.





Comme dit dans l’article, celui-ci demande à être vérifié pour le moment. Je n’en ai pas trouvé de trace, mais nul doute qu’AMD va en dire plus assez rapidement. Ou tout du moins plus de détails devraient rapidement être connus. Mais quoi qu’il en soit je ne vois pas ce que cela change. L’article pointe une stratégie récurrente qui est ici encore appliquée. Quand bien même le standard serait réel, on en revient au même résultat : on a rien de concret et l’on sait que rien n’est prévu au niveau commercial pour le moment.



Mais je te rejoins sur un point : AMD aurait sans doute été bien plus inspiré de donner les détails sur le standard en question, son fonctionnement, en quoi il est effectivement une alternative au G-Sync de NV et en quoi ce dernier n’a aucun besoin de passer par un module hardware. Cela aurait été bien plus informatif et concret qu’une démo pleine de promesse mais sans fond. C’est aussi ça que je critique :) (Mais c’est un choix marketing, pas technique, ceci explique cela).



Ce n’est pas AMD qui est en charge de la norme, c’est le VESA. C’est également pour ça qu’on entent plus parler du DockPort, car c’est le VESA qui est en charge de cette norme. Quand il y aura quelque chose à dire, le VESA le dira. Au mieux, le VESA autorisera AMD à en parler.


votre avatar







tiranor a écrit :



Si j’ai bien compris, vu que rien n’est vraiment expliqué dans l’article, FreeSync modifie à la volée le taux de rafraichissement de l’écran (via une norme VESA) pour coller au mieux au framerate, et avoir un VSync optimal, alors que G-Sync, lui, pilote directement l’affichage de chaque image, pour l’afficher dès qu’elle a été calculée par la CG.



Si c’est bien ça, il est clair que le G-Sync est plus efficace, mais le gain devient assez négligeable par rapport au Freesync, surtout vu les contraintes (prix et matériel)





Non, c’est exactement le même principe. La différence, c’est que nVidia passe par une solution purement matèriel (le firmware de l’écran ne voit pas l’électronique de variation, la carte GFX communiquant directement avec l’électronique, d’où la présence du couteux FPGA qui interprète le protocole de nVidia) alors que FreeSync passe par une solution logiciel (le firmware de l’écran pilote l’électronique de rafraichissement, la carte GFX communiquant avec le firmware via le protocole DisplayPort).


votre avatar







Dacoco974 a écrit :



En pratique, rien du tout, le mec qui voit la différence entre 40 et 60fps la verra toujours avec gsync donc ça revient au même que sans. À la limite, il aurait plutôt fallu faire comme sur les télés à 200/400/800/WTF Hz, de la motion interpolation pour avoir un effet de fluidité même dans des framerates bas.





La différence c’est que tu verra 40 image en 1s au lieu de soit :

-60 images, dont 20 sont mélangés (tearing &gt; V-Sync Off)

-60 images, dont 20 sont doublés (stuttering &gt; V-Sync On)

-60 images affichés en retard (lag &gt; V-Sync On+Triple Buffer)





Non, ça fait comme gsync, ça change la fréquence de rafraîchissement à la volée pour coller au framerate. AMD se base sur une techno d’économie d’énergie pour ça.



Disons que le VESA n’aurait jamais considérer cette fonctionnalitée s’il ne s’était s’agit que de JV.


votre avatar

Je ne commenterai pas le fond n’ayant pas les connaissances suffisantes pour juger, je ne parlerai donc que de la forme.



Le métier d’un journaliste est d’avant tout informer de manière impartiale, rapporter des faits, des propos.

Commencer par mettre en avant d’anciens problèmes fondés ou non liés à des technologies ou des annonces tiens plus du réquisitoire que de l’information.



Une nouvelle de ce type ne mérite pas un article aussi long. Un paragraphe expliquant ce qui a été annoncé suivi d’une petite partie donnant le contexte et le fait qu’on ne connaisse pas la date de sortie. Enfin une conclusion indiquant l’avis du journaliste.



Ici on commence par une énumération de problèmes réels ou non avant d’en venir à la vraie information.



On me vante depuis des années l’indépendance de PCI, je commence à douter de l’indépendance de ses journalistes.

votre avatar







cyrilleberger a écrit :



Oui bien sûr, ils ont écris une norme VESA en deux mois. Et l’hypothèse, NVidia a travaillé sur la norme, fait deux-trois modifications pour rendre G-Sync pas compatible, n’est pas sans doute pas crédible ?



Qu’AMD ai certes l’habitude de faire des annonces pas forcement connecté à la réalité est une chose, mais il ne faudrait pas oublier que NVidia est le spécialiste des technologies propriétaires conçues en parallèle des standards.





Pour le moment, personne ne sait vraiment de quelle norme ils parlent et de ce qu’il est de son implémentation par les différents acteurs du marché. G-Sync n’a d’ailleurs rien à voir puisque NVIDIA propose un module hardware, qui serait inutile si l’on en croit AMD. Comme dit dans l’article, les croire serait plus facile avec un passif moins lourd sur le sujet (et sans doute plus de détails, mais ça, ça viendra sans doute après le CES).



Après NV a toujours travaillé sur des solutions proprios, mais que je sache ils travaillent aussi sur des standards que l’on retrouve assez massivement dans le monde de la 3D. Et AMD trouve aussi son compte dans ce genre d’attitude fermée lorsqu’il faut vanter Mantle par exemple Ils ont juste tendance à préférer se reposer sur le travail de tierces parties parce que ça facilite les choses et demande moins d’investissement, mais lorsqu’ils y ont un intérêt, ils savent faire autrement ;) Ce sont des sociétés à but lucratif, pas des services publics jusqu’à preuve du contraire :)







Blastm a écrit :









Pour le moment, on a juste la version d’AMD. Attendons un retour du VESA et des différentes parties pour en savoir plus et faire un peu le ménage dans tout ça. Après, l’important c’est surtout ce qui est disponible et utilisable in fine, mais ça on le saura dans quelques mois au moment du bilan.


votre avatar

Salauds de AMD qui préfère les effets d’annonce plutôt que de proposer une technologie propriétaire verrouillée. <img data-src=" />







…ou pas ?

votre avatar



mais il ne faudrait pas oublier que NVidia est le spécialiste des technologies propriétaires conçues en parallèle des standards.





C’est pas si simple. Par exemple CUDA est sorti avant OpenCL et surtout bien avant que Apple refile le bébé à Khronos. L’ouverture d’OpenCL ne sait fait qu’à ce moment là, pas avant et CUDA avait déjà acquis une bonne maturité. Après la notion de “standard” ca veut dire quoi ? Par ce que lorsque l’on me sort que du .docx c’est standard….Nvidia investie beaucoup de $ dans la R&D. Il veulent donc voir les bénéfices de ce travail et de ces investissements. Après, oui on peut critiquer la “captation” du client, mais alors dans ce cas tu as Intel, Microsoft, Apple, Google, Oracle et puis tous les autres quoi.

votre avatar







mum1989 a écrit :



Pour moi, c’est une très bonne chose même si ce n’est que sur papier.

ça empêchera à NVIDIA de refourguer ces écrans hors de prix propriétaires, et ça montrera qu’il est possible d’avoir un G-Sync sans surcout .



hardware.fr semble plus enthousiaste.





Je cite Tom”s HArdware :







J’ai pas pu test la stéreoscopie chez AMD ni chez Nvidia, mais ce qui est pour la 3D anaglyphe ( on va me sortir mais ça sert à rien c’nul : ouai sauf que la 3D anaglyphe ça demande pas un écran 120hz ni des lunettes à 100€ 200€ , 2 € la paire suffit )

Bah les logiciels tiers d’AMD recommandé, sont vraiment nul , surtout qu’IZ3D est en version limité même si la CG est reconnue AMD.

alors que la 3D ana de Nvidia est déjà intégré dans les pilotes depuis la 9400GT et je crois 8800GT aussi ,autant dire que ça date.


votre avatar

Petite quesiton, amd n’offre plus de jeu avec ses cartes ? J’ai commandé une R9 270x sur materiel.net (enfin avec le reste de la config avec) et le support m’a dit qu’il y’a aucun jeu offert avec :(

Il me semble avoir lus dans une news qu’ils offrais BF4 avec les R9 <img data-src=" />

votre avatar







mum1989 a écrit :



Pour moi, c’est une très bonne chose même si ce n’est que sur papier.

ça empêchera à NVIDIA de refourguer ces écrans hors de prix propriétaires, et ça montrera qu’il est possible d’avoir un G-Sync sans surcout .





Du papier n’empêchera rien. Et perso, je préfère une technologie existante et exploitable, que je peux choisir d’acheter ou non, qu’une promesse.





hardware.fr semble plus enthousiaste.



Les avis sont libres, même de différer ;) Note que je ne dis pas que je suis enthousiaste ou pas. Juste qu’AMD a déjà un lourd passif en la matère et que je préfère attendre de voir vu que tout le monde prend la peine de rajouter “mais bon, rien n’est prêt au niveau commercial”.





AMD manque de moyen, de taille et d’ambition pour développer et “répandre” ses technologies c’est sur, mais au moins quand il le fait, la plupart du temps.

il le fait via des technologies LIBRES ! (coreboot par exemple, etc…)



Je ne vois pas le rapport avec la choucroute. AMD fait du libre, mais fait aussi du proprio, tout comme le fait NV, tout comme le font tous les autres en fait. Et le fait de faire Coreboot devrait donc excuser les effets d’annonces foireux ? Ce sont à mon sens deux choses distinctes, qu’il faut analyser comme tel : distinctement.



Mais comme tu le dis, AMD manque de moyen, du coup pourquoi vouloir concurrencer tout le monde à la fois et ne pas se concentrer un peu ?





NVIDIA ne peux pas s’empêcher de nous enquiquiner avec ces technologies proprios (cuda au début, PhysX, G-Sync, la 3d, le SLI avec une licence etc…)

au final l’utilisateur est souvent perdant,

par exemple il n’y a que 3jeux tous les 2ans qui supportent le physX …



Le proprio c’est comme le libre, c’est un choix de l’utilisateur et du fournisseur. Ensuite, chacun fait sa sauce. Mais jusqu’à preuve du contraire, OpenGL et OpenCL, c’est géré par NVIDIA qui prend part à leur développement non ?







127.0.0.1 a écrit :



Salauds de AMD qui préfère les effets d’annonce plutôt que de proposer une technologie propriétaire verrouillée. <img data-src=" />



…ou pas ?





Je prend la peine de faire plus d’une phrase. Prend la peine de ne pas déformer mon propos pour faire un raccourci foireux ;)







gundz a écrit :



Petite quesiton, amd n’offre plus de jeu avec ses cartes ? J’ai commandé une R9 270x sur materiel.net (enfin avec le reste de la config avec) et le support m’a dit qu’il y’a aucun jeu offert avec :(

Il me semble avoir lus dans une news qu’ils offrais BF4 avec les R9 <img data-src=" />





Comme on le dit régulièrement, ça varie d’un revendeur à l’autre, il faut faire attention. Après ça dépend des cartes, mais le programme sur les nouvelles gammes est moins intéressant que sur les précédentes.


votre avatar

Comme d’hab, Pcinpact dénigre AMD, ils ont pas dis que AMD proposé les premiers GPU 28 nm, 3 mois d’avance sur leur concurrent ??



Pour dire les R9 290(X) sont les rois de la chauffe, ils sont pas mal ! Mais les GTX 480 ?? A cette époque c’était pas grave :).



Par contre c’est pas demain que l’on va voir marquer ici, Nvidia voudrait il nous arnaquer avec leur titan à 1000 euros ??

Ou bien Intel se fiche t’il des consommateurs on ne proposant pas de I3K ??



Mais non ils sont gentilles eux !!

votre avatar







cef33 a écrit :



Comme d’hab, Pcinpact dénigre AMD, ils ont pas dis que AMD proposé les premiers GPU 28 nm, 3 mois d’avance sur leur concurrent ??





ça a été dit dans ces colonnes





cef33 a écrit :



Par contre c’est pas demain que l’on va voir marquer ici, Nvidia nous voudrait il arnaquer avec leur titan à 1000 euros ??





ça a été dit dans ces colonnes




votre avatar







Adakite a écrit :



C’est pas si simple. Par exemple CUDA est sorti avant OpenCL et surtout bien avant que Apple refile le bébé à Khronos. L’ouverture d’OpenCL ne sait fait qu’à ce moment là, pas avant et CUDA avait déjà acquis une bonne maturité. Après la notion de “standard” ca veut dire quoi ? Par ce que lorsque l’on me sort que du .docx c’est standard….Nvidia investie beaucoup de $ dans la R&D. Il veulent donc voir les bénéfices de ce travail et de ces investissements. Après, oui on peut critiquer la “captation” du client, mais alors dans ce cas tu as Intel, Microsoft, Apple, Google, Oracle et puis tous les autres quoi.







Standard veut dire norme. Ca a été vulgarisé en français, mais quand on dit “c’est devenu un standard; c’est un standard; ça découle d’un standard; c’est standardisé”, tu peux remplacé le mot standard par “norme” à chaque fois.



Exemple: l’IEC (Internationnal Electrotechnic Comity) veut standardisé les chargeurs de PC portables. Ils vont donc pondre un norme (vu que c’est son métier) pour faire valoir un chargeur universel comme standard pour les PC portables.



IS IT CLEAR NAW ?


votre avatar



Mais comme tu le dis, AMD manque de moyen, du coup pourquoi vouloir concurrencer tout le monde à la fois et ne pas se concentrer un peu ?



Tu n’as peut être pas tort sur ce point.







Mais jusqu’à preuve du contraire, OpenGL et OpenCL, c’est géré par NVIDIA qui prend part à leur développement non ?



je pense que c’est juste dans leur intérêt ^^.

votre avatar

Y a un truc que personne ne peut nier pour AMD : leurs cartes sont meilleures pour miner de la crypto-monnaie <img data-src=" />. Mais ce n’est pas volontaire <img data-src=" /> .

votre avatar







FrenchPig a écrit :



ça a été dit dans ces colonnes



ça a été dit dans ces colonnes













Oups <img data-src=" />


votre avatar







romjpn a écrit :



Y a un truc que personne ne peut nier pour AMD : leurs cartes sont meilleures pour miner de la crypto-monnaie <img data-src=" />. Mais ce n’est pas volontaire <img data-src=" /> .





<img data-src=" />


votre avatar

Donc en gros on a :



d’un côté, NVidia qui nous invite à payer (encore) plus chère et à devenir un client fidèle avec des technos dépendantes…



et de l’autre, AMD qui nous invite à attendre en nous expliquant que des standards existent déjà plus ou moins et qu’il suffit juste de prendre le temps de les exploiter.



ça devient vraiment pas agréable d’être client avec des choix pareils…

votre avatar

Ce qui est dit dans l’article c’est que le manque d’informations fournies par AMD est louche.



AMD ne sait pas encore quand, ni comment, cette technique d’affichage sera proposée aux utilisateurs de Radeon, ni quels écrans intégreront réellement cette possibilité.



“Ca fait des années que l’on bosse dessus mais on a rien de prévu d’ailleurs on sais même pas comment ça fonctionne”



C’est peut-être un manque de communication entre ceux qui bossent dessus et le marketing, mais si dans 1an ou 2 les écran Gsync sont a peine plus cher qu’un écran sans, AMD aura dépensé des millions dans un projet qui sera abandonné ou pas rentable.

votre avatar

Si cette techno est dispo sur PS4/XBO elle sera peut être poussée par Sony/Microsoft, notamment quand on connait leurs éternels souci niveau fluidité-tearing.

votre avatar

Et oui, le manque de marge récurrent d’AMD est en train de le rattraper, et j’ai bien peur que face à la fois à Nvidia et Intel, il ne tire ses dernières cartouches de concurrent “direct”.

Et plus le temps va passer, pire ce sera…

votre avatar



AMD semble avoir été surpris par G-SYNC qui ressemble selon ses responsables à une manière pour Nvidia de gagner quelques mois sur le timing prévu d’arrivée d’une technologie standard. »





Cette mauvaise foi <img data-src=" />

votre avatar

Surement aussi qu’ils se rendent compte que les concepteurs de jeux ne joueront pas dans la cours de Mantle. Plus de temps de dev, intégration compliquée ?



Alors que chez Nvidia, l’écran suffit pour que ça soit constamment applicable …

votre avatar

Je l’ai acheté leur Amilo avec le XGP.

Ca n’a jamais correctement fonctionné faute de pilotes.

Et ne parlons pas des ports usb supplementaires sur l’XGP qui plantaient la machine lorsqu’on branchait un truc dessus.



J’ai confiance en AMD sur la montée en puissance, mais absolument pas sur l’innovation.

votre avatar

c’est repartit pour le bashing AMD par PCINpact …

votre avatar

AMD annonces des truc qui ne sortent pas réellement et souvent en réponse à la cncurence? Bha oui comme un très grand nombre de sociétés.





Ici on verra bien ce qui va se passer mais G-synch vu le prix non merci.

votre avatar







pyrignis a écrit :



c’est repartit pour le bashing AMD par PCINpact …





C’est un triste constat, pas du bashing. C’est la panique chez AMD, il suffit de voir les prix fracassés des cg vendues, et la marge fracassée aussi du coup, ce qui implique moins de R&D -&gt; cercle vicieux qui fera qu’à chaque génération, AMD va se battre avec de moins en moins d’armes en main, et ne fera que contre-attaquer moins cher (ou en mode vaporware) aux annonces de son concurrent.

Et je ne parle même pas du retard sur les processeurs…



Evidemment, Nvidia ou Intel peuvent se tromper et faire des conneries: mais ils peuvent se le permettre, pas AMD…


votre avatar

Apparemment leur techno est en cours de dev avec des résultats déjà visibles et probants :http://www.hardware.fr/news/13517/ces-amd-freesync-g-sync-gratuit.html

votre avatar







pyrignis a écrit :



c’est repartit pour le bashing AMD par PCINpact …







David a des idées très fixes : Free-NVIDIA-Intel, point <img data-src=" />


votre avatar







pyrignis a écrit :



c’est repartit pour le bashing AMD par PCINpact …





en même temps, ils cherchent! <img data-src=" />


votre avatar







Snakeseater a écrit :



David a des idées très fixes : Free-NVIDIA-Intel, point <img data-src=" />







Ben heureusement qu’AMD n’est pas ISP <img data-src=" />


votre avatar







Snakeseater a écrit :



David a des idées très fixes : Free-NVIDIA-Intel, point <img data-src=" />





Tu as oublié la Social TV ;)







pyrignis a écrit :



c’est repartit pour le bashing AMD par PCINpact …





Personne ne force AMD à annoncer des trucs dans tous les sens pour ne leur donner aucune suite ou presque, ou à bricoler des trucs pour faire croire à un semblant d’alternative. Ici, on a une démo techno présentée à l’arrache sans suite commerciale prévue d’annoncée, pour dire “hey regardez, ce que l’autre propose à la vente, nous on le fera peut être un jour gratuitement”.



Qu’ils se concentrent sur des annonces de produits finis et bien pensés (pas comme les 290(X) de référence quoi), à leur arrivée sur le marché, et je n’aurais plus à me taper ce genre de papier. Et tu sais quoi ? J’en serai plutôt content (et pour moi, et pour eux).


votre avatar







David_L a écrit :



Personne ne force AMD à annoncer des trucs dans tous les sens pour ne leur donner aucune suite ou presque, ou à bricoler des trucs pour faire croire à un semblant d’alternative. Ici, on a une démo techno présentée à l’arrache sans suite commerciale prévue d’annoncée, pour dire “hey regardez, ce que l’autre propose à la vente, nous on le fera peut être un jour gratuitement”.





Oui bien sûr, ils ont écris une norme VESA en deux mois. Et l’hypothèse, NVidia a travaillé sur la norme, fait deux-trois modifications pour rendre G-Sync pas compatible, n’est pas sans doute pas crédible ?



Qu’AMD ai certes l’habitude de faire des annonces pas forcement connecté à la réalité est une chose, mais il ne faudrait pas oublier que NVidia est le spécialiste des technologies propriétaires conçues en parallèle des standards.


votre avatar

Excellent article. On espère le rachat d’AMD par une société disposant de beaucoup de cash et prête à investir massivement en R&D matérielle et logicielle… Mais qui ?



Parce qu’en face NVIDIA fait un quasi sans-faute sur les CG et se diversifie plutôt bien sur les puces mobiles. Vu la tendance on pourrait craindre qu’avec Hawaii XT, c’est l’une des dernières fois qu’AMD force NVIDIA à rogner sur ses marges…

votre avatar

L’autre explication serait que la prochaine évolution du standard displayport n’est pas encore finalisée (et devrait l’être courant 2014) par le consortium dont fait partie AMD…

Possible que soit 1/ il était trop tôt pour en parler avant 2/ amd essaye de forcer la mains du consortium pour accélérer les choses suite a gsync…



quoiqu’il en soit, amd parles de dalles qui seraient déjà compatibles avec la techno, aurait fait la démo sur un portable; mais j’ai pas lu ailleurs qu’ils disaient que ca ne “nécessite pas de modification matérielle au niveau de l’écran”…



j’irais pas jusqu’à croire que toutes les CG amd et tous les vieux écrans accepteront cette technologie; mais la promesse de pas être bagué a un constructeur de carte graphique pour tirer le maximum du prochain écran qu’on achètera, ca, j’ai envie d’y croire :o

votre avatar







cyrilleberger a écrit :



Oui bien sûr, ils ont écris une norme VESA en deux mois. Et l’hypothèse, NVidia a travaillé sur la norme, fait deux-trois modifications pour rendre G-Sync pas compatible, n’est pas sans doute pas crédible ?



Qu’AMD ai certes l’habitude de faire des annonces pas forcement connecté à la réalité est une chose, mais il ne faudrait pas oublier que NVidia est le spécialiste des technologies propriétaires conçues en parallèle des standards.







+1

Quant aux constructeurs d’écrans, ils ont simplement vu le moyen de vendre des écrans plus chers en augmentant leurs marges en se disant que les gens sont assez c.. pour payer 200$ de plus un écran…


votre avatar







KGabou a écrit :



Parce qu’en face NVIDIA fait un quasi sans-faute sur les CG et se diversifie plutôt bien sur les puces mobiles. Vu la tendance on pourrait craindre qu’avec Hawaii XT, c’est l’une des dernières fois qu’AMD force NVIDIA à rogner sur ses marges…





amd comme nvidia poussent leur architectures actuelles au bout du bout en attendant les nouvelles finesses de gravures.

Le coups des recyclages marketing, des puces monstrueuses qui chauffent a mort, la multiplication des gpu pour jouer a kikalaplugrosse, etc.. pour occuper le terrain en attendant la suite, ca c’est déjà vu par le passé, rien d’inquiétant de ce point de vue là a mon avis…

Par contre, on pourra les attendre au tournant sur les vrais prochains modèles, une fois que TSMC aura finalisé le nouveau processus :o


votre avatar

Dans le standard VESA et notamment dans l’embedded Display Port 1.3 (eDP 1.3), il y a le Panel Self Refresh, qui ressemble quand même beaucoup dans l’implémentation (mais pas dans le but) à G-SYNC. Par contre c’est quelque chose de spécifique aux PC portables. Ce n’est donc peut-être pas un hasard si AMD a choisi un PC portable pour faire la démo.

votre avatar







cyrilleberger a écrit :



NVidia est le spécialiste des technologies propriétaires conçues en parallèle avant l’adoption des standards.





Fixed <img data-src=" />



Tu leurs reprochent quoi ? Ils pondent des techno (souvent) très bien finies et performantes, quand les standards n’existent pas encore ou en sont à leurs balbutiements. Et tu voudraient que derrière ils offrent gratis les fruits de leur R&D à l’industrie (et donc à AMD) ? Tu les a pris pour l’Armée du Salut ?



Au moins leur approche a le mérite d’offrir des solutions au consommateur prêt à payer. Et parfois, cerise sur le gâteau, ça met un coup de pied au cul pour l’adoption d’un standard, permettant à ceux qui n’ont pas les moyens (ou aux fanboys AMD) de s’équiper à leur tour.


votre avatar

Je doute qu’AMD annonce cela pour rien, c’est pas une techno développé dans leur coin mais quelque chose fait par un consortium et qui est finalisé donc à moins que AMD ne mentent en inventant des travaux en ci qui me concerne ça renforcera mon opinion sur Nvidia.



On verra si c’est aussi poussé que le G-synch mais même si gsynch est un peu mieux, pourquoi claquer 200€ surtout que cela nous lie à un seul constructeur de GPU.


votre avatar







pyrignis a écrit :



c’est repartit pour le bashing AMD par PCINpact …





+1







David_L a écrit :



Tu as oublié la Social TV ;)





Personne ne force AMD à annoncer des trucs dans tous les sens pour ne leur donner aucune suite ou presque, ou à bricoler des trucs pour faire croire à un semblant d’alternative. Ici, on a une démo techno présentée à l’arrache sans suite commerciale prévue d’annoncée, pour dire “hey regardez, ce que l’autre propose à la vente, nous on le fera peut être un jour gratuitement”.



Qu’ils se concentrent sur des annonces de produits finis et bien pensés (pas comme les 290(X) de référence quoi), à leur arrivée sur le marché, et je n’aurais plus à me taper ce genre de papier. Et tu sais quoi ? J’en serai plutôt content (et pour moi, et pour eux).





Pour moi, c’est une très bonne chose même si ce n’est que sur papier.

ça empêchera à NVIDIA de refourguer ces écrans hors de prix propriétaires, et ça montrera qu’il est possible d’avoir un G-Sync sans surcout .



hardware.fr semble plus enthousiaste.



—-





(…)développeurs tiers (IZ3D, TriDef, etc.) qui feront tout le boulot à notre place. Résultat : assez peu d’écrans supportés, un pilote payant à acheter, et un support dans les jeux aléatoire, surtout pour ceux qui ne voulaient pas bidouiller. Mais au final, qu’importe : la 3D n’intéresse plus personne.(…)





Je cite Tom”s HArdware :



Nous pouvons donc en conclure que si la HD3D n’offre pas une expérience aussi accessible que la 3D Vision, elle n’en est pas moins devenue une alternative parfaitement viable.





—-

Je peux reconnaitre que sur certaines technologies, NVIDIA est devant (sur shadowplay par exemple, mais AMD n’est jamais bien loin)



AMD manque de moyen, de taille et d’ambition pour développer et “répandre” ses technologies c’est sur, mais au moins quand il le fait, la plupart du temps.

il le fait via des technologies LIBRES !



(coreboot par exemple, etc…)



NVIDIA ne peux pas s’empêcher de nous enquiquiner avec ces technologies proprios (cuda au début, PhysX, G-Sync, la 3d, le SLI avec une licence etc…)

au final l’utilisateur est souvent perdant,

par exemple il n’y a que 3jeux tous les 2ans qui supportent le physX …





votre avatar







KzR a écrit :



Apparemment leur techno est en cours de dev avec des résultats déjà visibles et probants :http://www.hardware.fr/news/13517/ces-amd-freesync-g-sync-gratuit.html





Ca me fait marrer les commentaires influencés par les articles.

Sur ton site, ça crash sur NV, ici ça serai plus sur AMD.



Au final je ne sais plus quoi penser sur ces 2 technos <img data-src=" /><img data-src=" /><img data-src=" />


votre avatar







keepah a écrit :



au moins Amd ils font des standards et le filent a Vesa. Nvidia et les solutions fermées, physx, g-sync… Voir aussi ca récemment de la part d’Amd www.semiaccurate.com/2013/10/11/amd-solves-4k-display-problems-vesa-display-id-v1-3/







Ma foi vu le marché concurrentiel, ils vont pas donner gratis le fruit de leur R&D…

On va donner en plus des impôts 13 de ta paye au voisin pour qu’il puisse monter un mur on va voir la tronche que tu va faire…

Sans blague … business is business ils se protègent…

Si AMD avaient developpé en premier tu crois qu’ils auraient pas mis des brevets ou autre cadenas pour damer le pion a Nvidia ?

Bisounours


votre avatar







pyrignis a écrit :



c’est repartit pour le bashing AMD par PCINpact …





Donne juste un contre-exemple à leur article, si tu veux paraitre crédible.





“Annonçons HD3D qui n’est qu’un lien dans notre pilote pour des développeurs tiers (, TriDef, etc.) qui feront tout le boulot à notre place.”

D’ailleurs ça fonctionne aussi très bien sous NVIDIA, leur pilote 3D ne me satisfaisant pas.


votre avatar







David_L a écrit :



Tu as oublié la Social TV ;)





Personne ne force AMD à annoncer des trucs dans tous les sens pour ne leur donner aucune suite ou presque, ou à bricoler des trucs pour faire croire à un semblant d’alternative. Ici, on a une démo techno présentée à l’arrache sans suite commerciale prévue d’annoncée, pour dire “hey regardez, ce que l’autre propose à la vente, nous on le fera peut être un jour gratuitement”.



Qu’ils se concentrent sur des annonces de produits finis et bien pensés (pas comme les 290(X) de référence quoi), à leur arrivée sur le marché, et je n’aurais plus à me taper ce genre de papier. Et tu sais quoi ? J’en serai plutôt content (et pour moi, et pour eux).







la y a de la mauvaise fois



j’ai une 290 ça marche du tonnerre pour un prix vraiment sympa

comme je suis en watercooling les considération de ventilo ne sont pas un problème



votre avatar







Alderic a écrit :



omg mais cet article à charge de merde pas du tout parti pris quoi … et vous appelez ca du journalisme ?





Donc l’esprit critique tu appelles ça comment si ce n’est pas du journalisme?

Pareil que le commentaire du dessus, argumente si ce qui est dit est faux…. nan?


votre avatar







fada131 a écrit :



Ben en même temps à part depuis deux trois ans ou les annonces AMD sont du flan, à un moment faut taper sur leur tronche un peu.

C’est comme écouter parler des politiciens, chez AMD c’est pareil. Annonces sur contre-annonces.

Franchement tu donnes tord à PCinpact de dire que AMD ne fait rien d’innovant depuis quelques années ?

Depuis quand on a pas vu quelque chose de nouveau provenant de AMD ?

A un moment il n’y a plus de débat Pro-X ou Pro-Y, les faits sont là…







parce que y a quelque chose de plus chez NVIDIA ?



perso je suis d’accord de casser du sucre sur le dos d’AMD qui annonce du flan pour pas grand chose mais il faut en faire autant pour NVIDIA qui pour l’instant n’a rien sortie de nouveau depuis 2 ans


votre avatar

Bah Nvidia les fabricants de consoles ont réglé le problème <img data-src=" />

votre avatar







Reparateur a écrit :



la y a de la mauvaise fois



j’ai une 290 ça marche du tonnerre pour un prix vraiment sympa

comme je suis en watercooling les considération de ventilo ne sont pas un problème





Tu le fais exprès ou quoi ? David critique les 290 de référence et tu lui répond que ta 290X modifiée est top… <img data-src=" />







Alderic a écrit :



omg mais cet article à charge de merde pas du tout parti pris quoi … et vous appelez ca du journalisme ?



Heureusement qu’il y a les articles de Hardware.fr ….

et les commentaires de certains pour rectifier un peu l’équilibre





Tu as un contre exemple aux arguments de l’article ou c’est juste une critique gratuite de fanboy aigri ?


votre avatar







David_L a écrit :



G-Sync a déjà été testé, le produit est affiché chez les revendeurs, et la gamme “native” est déjà dans le pipe avec un timing clairement annoncé. Pour le reste, je ne vois pas quel est le souci puisque ça fait le job : adapter l’affichage à la capacité de rendu de la carte en temps réel.





L’intéret de G-Sync, par rapport aux solutions actuelles, est d’avoir un jeu fluide en dessous de 60FPS. Deux grandes cibles s’offrent au produit :

-ceux qui veulent monter la résolution sans sacrifier les détail et qui ne regarde pas à la dépense : ça passe par un gros GPU et un écran UHD

-ceux qui veulent pousser les détails sans sacrifier la résolution et qui font attention à la dépense : ça passe par un GPU économique et un écran FHD économique

Hors actuellement, il n’y a pas de solution G-Sync économique ou UHD, ce qui élimine du marché les 2 groupes principaux.

Certe G-Sync marche techniquement, mais y aura aucun produit pour le valoriser avant plusieurs mois. Quel différence avec ATI ? Nvidia respecte mieux ses delais qu’ATI ? Y a autant de pipeau d’un coté que l’autre sur ce point. Surtout que, pour une fois, ATI n’aurait pas fait d’annonce prématuré sur le FreeSync avant qu’il ne soit prèt si nVidia n’avait pas taclé le VESA.





Les constructeurs n’ont pas rien à perdre non. Une gamme ça ne se créé pas comme ça, idem pour la distribution, le marketing autour, etc.



Comme dit plus haut, le but des constructeurs n’est pas de cramer de la R&D pour faire plaisir à la concurrence.



Et ça se ressent non seulement sur l’offre (comme je le montre plus haut) mais aussi sur la com (d’un coté comme de l’autre) :

-opposition entre Mantle et G-sync alors qu’ils n’ont rien à voir

-Nvidia qui sort une techno de nulle part alors que des cartes sortie il y a 1 an et demi la prenne en charge (G-Sync pas prèt à l’époque ? Obsolète pour vendre les 800 dans quelques mois ?)

-Ati qui annonce qu’une solution normalisé est prète mais qui ne peut rien dire

-le VESA, moteur de la techno, qui ne dit rien

Bref, ça pu la guéguerre intestine à des kilomètres entre ATI et nVidia.





Après si une norme existe de manière effective, les utilisateurs auront le choix : opter pour la norme ou la solution de NVIDIA. On a déjà eu le débat pas mal de fois autour des différentes technos comme la 3D, OpenCL / CUDA, Mantle, etc. Mais in fine, si le consommateur se fout de G-Sync et n’y voit aucun intérêt, ça disparaîtra. Si au contraire ça constitue un avantage, ça marchera.



Ce qui implique de laisser une échapatoir à ses clients. On parle de nVidia, là.





Pour la mise en place des standard, des consortiums existent, à eux de faire le job et de pousser la chose. On verra si c’est possible pour répondre à ce besoin précis.



Plus facile à faire quand tu te retrouve à la tête d’une poigné de partenaires qu’en étant simple membre d’un consortium réunissant des 10-aines d’acteurs, aux intérets divers et variés…

A coté de ça, je suis pas sur que le VESA apprécierait qu’ATI prenne la tête du sujet. Et j’espères que le VESA va intervenir pour éclaircire les choses. Après tout, c’est son bébé pas celui d’ATI.





Après, comme j’ai déjà eu plusieurs fois l’occasion de le dire, on peut apprécier de payer des produits à pas cher et de voir la boite qui les propose s’écrouler financièrement un peu plus chaque trimestre. Mais quand viendra l’heure de payer la note, je ne suis pas sur que le client final s’y retrouve gagnant, le manque d’investissement dans les technos annexes en est justement une parfaite illustration.



Sauf que le FreeSync est un projet du Vesa, ATI n’est qu’un participant parmis des 10-aines d’autres. L’investissement coté ATI est fait, la techno est prète, fonctionnelle, intégré dans les drivers. Il leur reste plus qu’a activer l’option dans l’UI. Elle est également prète chez d’autres société, comme la démo du CES le montre. Le reste ne dépend pas d’eux.



Pour conclure, je te reproche pas de taper sur ATI. Mais surtout de ne voir que la responsabilité d’ATI (surtout en te basant sur des exemples passés qui n’ont rien à voir).


votre avatar

Qu’est-ce que c’est cet article purement subjectif ? T’as été payé combien par Nvidia pour pondre ça ?

votre avatar

La démo d’AMD est complètement pourrie, d’un côté la vsync est activée donc bloqué à 30fps d’office, à droite c’est désactivé. Si on désactive aussi la vsync à gauche, on a exactement la même fluidité, du coup je n’ai pas vu l’intérêt de cette démo, à part prendre les gens pour des cons…









fitfat a écrit :



L’intéret de G-Sync, par rapport aux solutions actuelles, est d’avoir un jeu fluide en dessous de 60FPS.







Si tu fais partie des gens qui arrivent à voir les baisses de framerate, même minimes (chute à 50 par exemple), le résultat sera le même avec un écran gsync (c’est pas magique). La seule différence, c’est que tu seras sûr de ne pas voir de tearing (même si je trouve que ces dernières années, c’est devenu assez rare) et ton portefeuille sera allégé de quelques centaines d’€ <img data-src=" />


votre avatar

ça n’est que du pipeau.



Si je comprend bien et comme dit dans quelques commentaires précédents, le g-sync permet de faire varier le taux de rafraichissement de l’écran et ainsi le synchroniser avec le nombre de fps qu’envoie la carte graphique. Ce qui donne en pratique un jeu fluide dès 40fps.



Là le truc d’amd ne devrait permettre au gpu que de calculer le nombre d’images necessaire à l’ecran.



Mis à part des économies d’energie (et une chauffe moindre pour le gpu) je ne vois pas à quoi ça peut servir.

votre avatar







pyrignis a écrit :



c’est repartit pour le bashing AMD par PCINpact …





On a l’habitude avec David. Tout ce qui est concurrent d’Intel est un ennemi pour lui. Enfin. Vivement que ça change<img data-src=" />


votre avatar

Quand AMD annonce Mantle, ça va pas, c’est pas bien, c’est une techno fermée qui va va couper le marché en deux et nuire au développement DX/Open GL.

Quand ils lancent les R290/290X qui divisent les prix dans le HDG par 2, ça va pas, les fréquences sont pas assez stables, le ventilo fait trop de bruit, c’est pas du vrai haut de gamme!

Quand Nvidia lance sa titan a 1000 euros ou sa 780, c’est trop de la balle, ça c’est du vrai haut de gamme avec en plus les bons driver, le super physx (qui est pas du tout une techno fermée) et 3D vision qui est en pleine bourre.

Quand Nvidia annonce son G-Synch qui coute une blinde, c’est trop de la balle, c’est la solution miracle attendue, ça vaudra bien le coup de changer son ecran pc!



De tout façon, bientôt, tout le monde sera content car AMD aura disparu et Nvidia pourra continuer à “offrir” ses super techno propriétaires et ses GPU avec ventilo chromé, Intel ses super puces qui évoluent plein pot à chaque génération. Et à prix d’ami bien sur!

Ah oui, juste un truc, avant de pondre un article mettant autant en évidence les lacunes d’AMD, il aurait peut-être été opportun de vérifier l’existence du standard vesa non? Je dis ça je dis rien…

votre avatar







lyni a écrit :



Qu’est-ce que c’est cet article purement subjectif ? T’as été payé combien par Nvidia pour pondre ça ?





Ça s’appelle de l’AMD bashing, et c’est plutôt payé par Intel. C’est pour cela d’ailleurs que David parle tant de celui-ci dans ses articles.


votre avatar







bojack9512 a écrit :



Et ils pourront enfin sortir des jeux en 1080p(et à 20fps)et le consommateursera content.<img data-src=" />







Un pote s’est acheté un nouveau portable que je lui ai conseillé il y a une semaine, j’étais bien tenté de lui dire de prendre un MSI avec une 8970m qui était à 950€ c’était vraiment monstrueux les performances pour ce prix. Mais vu les performances du processeur si c’est pour être cpu limited sur tous les jeux c’est même pas la peine. Vivement une amélioration de ce coté là!



encore un qui parle de cpu limited sans savoir de quoi il s’agit…

ca fait des années qu’il n’y a plus de cpu limited, à moins d’utiliser un P4.


votre avatar



encore un qui parle de cpu limited sans savoir de quoi il s’agit…

ca fait des années qu’il n’y a plus de cpu limited, à moins d’utiliser un P4.





Surtout que le modèle dont il parle a un APU, manquerait plus que ça que le CPU bride le GPU

votre avatar







fitfat a écrit :



La différence c’est que tu verra 40 image en 1s au lieu de soit :

-60 images, dont 20 sont mélangés (tearing &gt; V-Sync Off)

-60 images, dont 20 sont doublés (stuttering &gt; V-Sync On)

-60 images affichés en retard (lag &gt; V-Sync On+Triple Buffer)







Ouep mais au final, la fluidité perçue sera la même <img data-src=" /> C’est à ça que je répondais, GSync ne va pas rendre du 30fps aussi fluide que du 60. Et c’est pour ça que je trouve la démo d’AMD malhonnête, ils comparent un truc bloqué à 30fps avec un machin qui tourne à 40-45fps, évidemment que la démo de droite est plus fluide, elle le serait aussi sans freesync <img data-src=" />



Perso, j’utilise juste l’adaptive vsync de nvidia, en gros la vsync s’active quand le jeu tourne à plus de 60fps et se désactive quand ça descend en dessous. Ça me suffit et j’ai ni du tearing ni du stuttering, encore moins du lag à l’affichage, ça tourne au poil quoi <img data-src=" />


votre avatar

Je crois que t’as pas compris que l’objectif de base de V-Synch comme G-Sync était d’éliminer le tearing quand le framerate descend en dessous de la fréquence de rafraichissement de l’écran (généralement 60Hz).



ActivSynch permet simplement d’éliminer le tearing quand la carte GFX génère plus de 60 images par seconde et d’éliminer le stuttering (mais du coup pas le tearing) quand la carte GFX génère moins de 60fps.

Si tu ne vois pas de tearing, c’est que t’es tout le temps au-dessus de 60fps (ou que le tearing ne te dérange pas).



Et c’est normal que la vidéo de comparaison d’AMD avec le V-Sync activé affiche 30fps car c’est précisément ce que fait le V-Sync : afficher la même image 2 fois. Et 602=30. Tu as donc bien 30fps quand le V-Synch est activé, même si la carte GFX est capable d’en envoyer 40 ou 50. Avec G-Sync (ou FreeSync) tu as autant d’image que la carte GFX peut en envoyer (soit 40 ou 50). D’où d’un coté une vidéo à 30 fps et de l’autre une vidéo à 40fps.

votre avatar

En fait, AMD aurait mis un 3è portable avec du V-Sync Off, la vidéo aurait touné 40-45fps, comme celle avec FreeSync, mais avec du tearing.

votre avatar







Atwaal a écrit :



Heuuu, et toi tu sais de quoi tu parles bien sur…





heu, oui.

CPU limited, c’est quand la carte graphique attend les infos du processeur en se tournant les pouces, parce que celui-ci ne traite pas assez vite. avec les procs actuels, à moins de prendre un Atom couplé avec un GF690 ou autre connerie du style, tu n’es pas CPU limited. un CPU plus performant peut augmenter les perfs générales oui, mais ce n’est pas dû à une diminution du CPU limited.


votre avatar

Merci d’avoir confirmé :)

votre avatar







fitfat a écrit :



Je crois que t’as pas compris que l’objectif de base de V-Synch comme G-Sync était d’éliminer le tearing quand le framerate descend en dessous de la fréquence de rafraichissement de l’écran (généralement 60Hz).



ActivSynch permet simplement d’éliminer le tearing quand la carte GFX génère plus de 60 images par seconde et d’éliminer le stuttering (mais du coup pas le tearing) quand la carte GFX génère moins de 60fps.

Si tu ne vois pas de tearing, c’est que t’es tout le temps au-dessus de 60fps (ou que le tearing ne te dérange pas).



Et c’est normal que la vidéo de comparaison d’AMD avec le V-Sync activé affiche 30fps car c’est précisément ce que fait le V-Sync : afficher la même image 2 fois. Et 602=30. Tu as donc bien 30fps quand le V-Synch est activé, même si la carte GFX est capable d’en envoyer 40 ou 50. Avec G-Sync (ou FreeSync) tu as autant d’image que la carte GFX peut en envoyer (soit 40 ou 50). D’où d’un coté une vidéo à 30 fps et de l’autre une vidéo à 40fps.







T’inquiète, je comprend le principe de la vsync, d’ailleurs en activant le triple buffering, on arrive à des paliers moins violents. Ce que je voulais dire, c’est que dans la vraie vie, le tearing est devenu assez rare. Récemment, je joue ou j’ai joué à Farcry 3, Sleeping Dogs, GTA IV, Defiance et quand ces jeux descendent en dessous de 60 (ça se ressent, surtout sur GTA), je n’ai aucun tearing, par quel prodige, je ne sais pas mais le tearing n’est pas systématique quand on est hors vsync. En fait, les rares jeux où j’en vois (c’est difficile à rater et je ne supporte pas ça), ce sont des jeux indie (parfois, j’en ai même à 60fps, du gros bug bien sale), des bêta ou des jeux avec une vsync pourrie (suffit de désactiver et laisser les pilotes faire).



La comparaison d’AMD est biaisée, ça aurait plus eu de sens s’il avait mis la vsync off à gauche pour montrer le tearing (s’il y en a). En l’état, le tout-venant constate que c’est plus fluide à droite et croit que Freesync est un tour de magie qui augmente les perfs d’un jeu comme les P4 accéléraient Internet <img data-src=" />



Bref, tout ça pour dire que j’ai bien envie de tester Freesync pour ne pas mourir bête mais on va laisser Gsync là où il est avec ses prix abusés.


votre avatar







Dacoco974 a écrit :



T’inquiète, je comprend le principe de la vsync, d’ailleurs en activant le triple buffering, on arrive à des paliers moins violents. Ce que je voulais dire, c’est que dans la vraie vie, le tearing est devenu assez rare. Récemment, je joue ou j’ai joué à Farcry 3, Sleeping Dogs, GTA IV, Defiance et quand ces jeux descendent en dessous de 60 (ça se ressent, surtout sur GTA), je n’ai aucun tearing, par quel prodige, je ne sais pas mais le tearing n’est pas systématique quand on est hors vsync. En fait, les rares jeux où j’en vois (c’est difficile à rater et je ne supporte pas ça), ce sont des jeux indie (parfois, j’en ai même à 60fps, du gros bug bien sale), des bêta ou des jeux avec une vsync pourrie (suffit de désactiver et laisser les pilotes faire).



La comparaison d’AMD est biaisée, ça aurait plus eu de sens s’il avait mis la vsync off à gauche pour montrer le tearing (s’il y en a). En l’état, le tout-venant constate que c’est plus fluide à droite et croit que Freesync est un tour de magie qui augmente les perfs d’un jeu comme les P4 accéléraient Internet <img data-src=" />



Bref, tout ça pour dire que j’ai bien envie de tester Freesync pour ne pas mourir bête mais on va laisser Gsync là où il est avec ses prix abusés.







Ça se voit davantage dans les jeux vu du dessus, genre hack&slash.


votre avatar

Dacoco974&gt;Ecran 120Hz ou 144Hz ?

votre avatar







fitfat a écrit :



Dacoco974&gt;Ecran 120Hz ou 144Hz ?







60Hz :p J’ai un de ces 27” coréens en 1440p, malheureusement je n’ai pas eu de ces modèles qui peuvent monter très haut en refresh rate <img data-src=" />


votre avatar

Bon, ben… qu’est-ce que tu veux que je te dise… tu défis tous les relevés techniques et la crédibilité de beaucoup de sites spécialisés (notemment HFR) :)

FreeSync, le G-Sync gratuit d’AMD : un effet d’annonce de plus ?

  • Concevoir des CPU et des GPU, c'est aussi penser à tout un écosystème

  • L'innovation ? Aussi simple qu'un PowerPoint

  • Lorsqu'AMD se donne la peine, cela donne des résultats intéressants

  • Free Sync : on vous jure, on a un équivalent de G-Sync gratuit, il arrivera... un jour

  • Les constructeurs d'écrans : ces idiots

  • FreeSync : on fera le point dans six mois

Fermer