Connexion
Abonnez-vous

[MàJ] AMD : les Catalyst 14.1 bêta sont disponibles pour Linux et Windows

C'est parti !

[MàJ] AMD : les Catalyst 14.1 bêta sont disponibles pour Linux et Windows

Le 02 février 2014 à 07h31

AMD aura donc finalement loupé le créneau annoncé pour l'arrivée de Mantle sur Battlefield 4 : le NDA prévu pour le 30 janvier ayant finalement abouti sur une annonce de retard des pilotes 14.1 bêta, tant pour la presse que le grand public. Mais certains de nos confrères ont pu y avoir eu accès et les premiers tests sont en ligne.

AMD GPU14 Mantle Battlefield 4

 

Mantle était la promesse pour AMD d'une API gardant à la fois une certaine simplicité pour les développeurs tout en offrant de meilleures performances pout les utilisateurs, grâce à une efficacité annoncée comme bien meilleure qu'avec Direct3D et OpenGL qui sont utilisés dans les jeux actuels. Largement évoquée pendant la fin de l'année dernière, elle s'est petit à petit dévoilée, et l'on a finalement eu droit aux premières estimations de performances précises d'AMD suite à la fin de son NDA, ce jeudi à 6 h. 

Mantle : la promesse de la fin de la limite du CPU

La société était alors claire : le but de Mantle est surtout de se débarrasser des cas où le CPU peut constituer une limite pour le GPU, et donc favoriser le niveau de performances des machines de milieu de gamme, notamment lorsqu'un petit processeur est utilisé avec une carte graphique puissante. Lorsque c'est la carte graphique qui montre ses limites, Mantle pourra aussi être à l'origine de gains, mais ils seront alors bien plus minimes. 

 

C'est donc l'outil parfait pour mettre en avant les APU maison, utilisés avec leur carte graphique intégrée ou une carte dédiée installée sur un port PCIe. Les CPU de la marque devraient aussi en profiter puisqu'ils montraient souvent un léger déficit face à la concurrence dans les jeux, Mantle pourraient donc leur permettre de redresser la barre avec ceux qui l'exploitent. 

 

Pour donner quelques exemples, AMD indiquait les chiffres suivants pour ce qui est de Battlefield 4, le premier et pour le moment le seul jeu à profiter de Mantle. D'autres suivront, soit via le moteur Frostbite de DICE qui en tire parti, soit parce que les éditeurs ont décidé de l'intégrer au sein de leur phase de développement :

  • Cas limité par le CPU : 40,9 % (1080p) et 40,1 % (1600p) en Ultra avec AA 4x (A10-7700K / R9 290X)
  • Cas limité par le GPU : 2,7 % (1080p) et 1,4 % (1600p) en Ultra avec FXAA (Core i7 4960x / R7 260X

Malheureusement, aucun chiffre détaillé n'était fourni, et les cas étaient sans doute spécialement sélectionnés. AMD promettait alors la mise en ligne d'un pilote dans la matinée afin de permettre à la presse de vérifier ses chiffres, alors que le patch officiel de Battlefield 4 devait arriver. Finalement, cela n'a pas été le cas, et le spectre d'un nouveau retard s'est finalement concrétisé

 

Un lancement chaotique et une première version à l'impact limité

Mais comme promis, une partie de la presse a finalement pu accéder à ce pilote 14.1 une fois les soucis réglés. Officiellement, c'est la procédure d'installation qui a posé des problèmes, et les équipes d'AMD ont passé ces derniers jours à tenter de tout régler. Si tout va bien, le reste du monde devrait donc pouvoir télécharger les Catalyst 14.1 bêta demain ou lundi afin de profiter de Mantle et de constater des gains éventuels.

 

 

Attention tout de même, puisque cette première version dispose de quelques limitations. En effet, bien que les pilotes puissent être utilisés avec n'importe quelle Radeon, Mantle ne pourra être activé que dans certains cas précis, AMD indiquant qu'elle passera les prochains mois à améliorer les choses à chaque nouvelle mouture. Ine liste des problèmes connus a d'ailleurs été publiée et sera maintenue. Vous pouvez vous-même rapporter un problème qui n'y serait pas indiqué.

Si Mantle est limité aux cartes exploitant une architecture GCN (Radeon HD 7000 et plus récentes), seules celles qui disposent de GCN 1.1 peuvent vraiment tirer parti de Mantle au niveau des performances pour le moment. Cela concerne donc surtout les Radeon HD 7790, 260X, 290/290X et les APU de la nouvelle gamme Kaveri (voir notre analyse).

 

Les diverses technologies complémentaires d'AMD ne sont pas encore supportées, ou pas complètement. C'est notamment le cas d'Enduro et PowerXpress pour les ordinateurs portables ou du CrossFire (en raison de soucis de stabilité). Les écrans en mode portrait posent aussi toujours des problèmes, tout comme Eyefinity dans le « Stress test »  de StarSwarm disponible depuis peu.

La presse commence à publier ses propres résultats

Mais assez parlé, laissons la parole à nos confrères qui ont pu se confronter à Mantle, en attendant une disponibilité publique du fameux pilote. Notez que comme expliqué dans le billet de DICE, FRAPS n'est pas capable d'effectuer des relevés de performances, et seul l'outil intégré à Battlefield 4 permet d'effectuer d'obtenir des chiffres. 

 

Pour le moment peu de tests sont déjà en ligne, mais nous mettrons bien entendu cette liste à jour dans les jours qui viennent. N'hésitez pas à nous indiquer au sein des commentaires si vous en voyez d'autres :

 

En français :

En anglais :

Commentaires (156)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Super nouvelle ! J’attends avec impatience de pouvoir afficher 200 FPS au lieu de 180 à Candy Crush grace à cette nouvelle API propriétaire. <img data-src=" />

votre avatar

Ils auraient dus investir dans OpenACC à la place…

Ca semble avoir une vocation similaire, et c’est une norme qui n’est pas spécifique à un éditeur particulier.



Ca aurai permis de moins se diversifier en API propriétaire, et d’avoir un standard commun.

GNU GCC commençant à supporter OpenACC, NVidia étant de la partie, ça aurai fait du poids.

Mais bon, vu que justement NVidia est dans le lot…. je suppose qu’ils ne voulaient pas s’investir là dedans.

<img data-src=" />

votre avatar







Reparateur a écrit :



j’aimerais bien que NVIDIA signe un accord de licence a AMD (moyenant finance) mais vu leur grosse tête j’en doute

là ça serais la fin de Dx ça ferais les pied à grosoft d’avoir négligé ces principale clients







Un accord de licence pour Mantle ? Mantle qui est seulement compatible avec les gpu GCN ?

Pourquoi voudraient-ils payer une licence pour une chose inutilisable ?


votre avatar

Le CPU limited avec dx c’est quand même très rarement atteint. Mais le principal est là: l’augmentation de perfs sans perte de détails visuels.

votre avatar

En recoupant avec le test du kaveri sur hardware.fr http://www.hardware.fr/articles/915-1/apu-amd-a8-7600-test-ctdp-turbo-retour-kaveri.html, on comprend le pourquoi de Mantle.



Sur un APU AMD, lorsque la charge est CPU+GPU, c’est le GPU qui reste à fond, le CPU se retrouve “underclocké”.



Mantle permet donc de corriger logiciellement une situation que leur design hardware crée: un gap de perfs entre le GPU et le CPU, sur un CPU qui est déjà inférieur à la concurrence.

votre avatar

vous étés tous à cracher sur AMD c est bien français toujours négatif toujours voir le verre à moitier vide et non l inverse.



Je trouve que AMD a une carte a jouer c est vrai qu il reste beaucoup de travail mais les 1er résultat sont encourageants surtout pour des personnes qui ont un processeur limité et puis si cette API peu apporter qq chose sur PC pourquoi pas sur les nouvelles consoles PS4 et XBOX.



Apres Nvidia n a cas se reveiller au lieu de nous sortir des techno prioritaire qui ne sont pas gratuite (G-sync) alors que AMD c est pas sont cas.

votre avatar







Reparateur a écrit :



+1



c’est l’api de Microsoft qui est à la ramasse depuis qu’ils ont abandonné le PC au profits de leur console



j’aimerais bien que NVIDIA signe un accord de licence a AMD (moyenant finance) mais vu leur grosse tête j’en doute

là ça serais la fin de Dx ça ferais les pied à grosoft d’avoir négligé ces principale clients





La techno est libre me semble-t-il. Ou alors j’ai loupé un épisode.


votre avatar







Reparateur a écrit :



c’est beau de croire que l’herbe est plus verte ailleurs <img data-src=" />







L’herbe peut-être pas, mais le logo et les interfaces logicielles : oui et re-oui



<img data-src=" />


votre avatar



Mais assez parlé, laissons la parole à nos confrères qui ont pu se confronter à Mantle, en attendant une disponibilité publique du fameux pilote. Notez que comme expliqué dans le billet de DICE, FRAPS n’est pas capable d’effectuer des relevés de performances, et seul l’outil intégré à Battlefield 4 permet d’effectuer d’obtenir des chiffres.





Bah, on va finir par apprendre que Battlefield 4 est tout spécialement optimisé pour… <img data-src=" />

votre avatar







Reparateur a écrit :



c’est beau de croire que l’herbe est plus verte ailleurs <img data-src=" />







au moins chez nvidia elle est verte, chez ati c’est de l’herbe roussie <img data-src=" />


votre avatar

intel va pleurer si vendent moins de processeurs pour les gamers a cause de mantle <img data-src=" />

votre avatar







kail a écrit :



La techno est libre me semble-t-il. Ou alors j’ai loupé un épisode.





Ils disent vouloir la mettre libre (enfin que n’importe qui puisse l’utiliser via argent). Le truc marrant, c’est que CUDA du concurrent est aussi “libre” mais AMD a refusé d’y passer.



La meilleur solution, c’est MS qui améliore son DX (comme ca les deux seront obligé de suivre). Cette solution marche aussi avec OpenGL. La pire, NVIDIA développe son propre Mantle. Et les devs se retrouvent a devoir coder : un DX/Open pour les vieilles cartes, un mantle pour les cartes AMD, un mantle-like pour les cartes nvidia …


votre avatar

je suis de tout coeur avec AMD <img data-src=" />

votre avatar







Reparateur a écrit :



c’est beau de croire que l’herbe est plus verte ailleurs <img data-src=" />





<img data-src=" />Incroyable… Une phrase sans aucune faute….<img data-src=" />


votre avatar







divide a écrit :



A mon avis NVIDIA s’en fout, dans la mesure où les devs vont pas se faire chier à coder du Mantle (dont le code est spécifique à chaque vendeur GPU, chaque génération de GPU et chaque plateforme ..!) pour gagner 15% de perf, alors qu’en remaniant un peu son code DX ou OGL on peut facilement soi-même réduire le nombre de drawcalls (si c’est vraiment un facteur limitant..). Ya plein de techniques pour ça dans les 2 APIs, et surtout un seul code DX ou OGL est universel pour toutes les combinaisons de GPU/Plateforme (surtout avec OGL).

En fait NVIDIA a déjà donné sa réponse, c’est proposer plus d’outils utiles aux développeurs (entre autre via le nouveau SDK Gameworks).







Justement non.



Il y aura toujours des cas ou l’on ne pourra pas réduire le nombre de “drawcall”. Et les techniques visant à les réduire coûtent aussi de la puissance CPU, ce qui est dans certains cas le facteur limitant.



Je suis surpris de lire beaucoup de commentaires sarcastiques ou de gens qui doutent de la voie prise par AMD avec Mantle, y compris dans la presse.



Pourtant, d’un point de vue technique, il est évident que les API de haut niveau sont devenu un énorme facteur limitant. Et c’est encore plus vrai quand on s’éloigne des techniques de rendu standard.



D’ailleurs, c’est déjà beau de voir des gains de 30 à 40% sur un jeu classique pour lesquels les API standard sont faites. Mais on peut certainement s’atteindre à des gains beaucoup plus importants avec certaines techniques novatrices de rendu de terrain.



Donc oui, l’approche d’AMD est non seulement pertinente, mais c’est également une avancée indispensable.







SuperMot a écrit :



Donc si ont résume :





  • Incopatible par les nvidia

  • incopatible avec les anciennes ati

  • En concurance avec directx et donc MS



    Good luck AMD <img data-src=" />







    Toutes les innovations peuvent se décrire ainsi.



    Mais il ne faut pas oublier que Mantle a certainement été conçu pour l’univers des consoles sur lequel AMD est ultra dominant et que les éditeurs réutiliseront le code écrit pour la version PS4.




votre avatar







Ricard a écrit :



<img data-src=" />Incroyable… Une phrase sans aucune faute….<img data-src=" />







Faux, une phrase commence toujours par un majuscule et se termine par un “point”.


votre avatar







methos1435 a écrit :



C’est pas faux mais dans la réalité si les développeurs optimisaient leurs jeux pour chaque console ça se saurait….





Ah ils le font, ils sont obligés. Après ce que tu veux je pense, c’est qu’ils le font pas au même niveau de partout, qu’il y a des plateformes ou ils sont plus efficace (moins faignant) que d’autres.


votre avatar







okeN a écrit :



Moi j’en veux bien <img data-src=" />





Trouve moi d’abord une nVidia fanless … mais de dernière génération et une version non rebrandée (pas une 750740) (elle n’existe pas encore).

Tiens et 4Go tant qu’on y est <img data-src=" />





Je viens de me faire une partie de 0AD sous Ubuntu 13.10 … visiblement cette combinaison kernel/driver est mieux conçue qu’avant. Il ne s’agit pas d’une triche spécifique Bench Valley. Le jeux est plus réactif.

… Alors ATI/AMD n’a toujours pas atteint le niveau de performance sous Linux des drivers sous Windows (il reste une marge d’un facteur 3 !), et il y a encore de la marge … mais c’est la première fois en deux ans que je note une progression.


votre avatar







luxian a écrit :



Trouve moi d’abord une nVidia fanless … mais de dernière génération et une version non rebrandée (pas une 750740) (elle n’existe pas encore).

Tiens et 4Go tant qu’on y est <img data-src=" />







Trouvé!!!



http://www.ldlc.com/fiche/PB00158889.html



C’est du fanless<img data-src=" />(watercooling c’est pas pareil)



ps: contacte moi par mp pour m’envoyer ta 6850 et 10€<img data-src=" />


votre avatar

je vois que les gens ne sont pas satisfait des Benchmark de mantle, il faut savoir que cette technologie jeune a un énorme potentiel .

ce premier pilote beta pour le grand public n’est lancé uniquement pour mettre les éléments de Mantle en place, les optimisations et la puissance viendront dans les pilotes suivant.

votre avatar







yeagermach1 a écrit :



Ah ils le font, ils sont obligés. Après ce que tu veux je pense, c’est qu’ils le font pas au même niveau de partout, qu’il y a des plateformes ou ils sont plus efficace (moins faignant) que d’autres.









Je pense surtout qu’ils cherchent à développer quelque chose de plus ou moins universel pour faciliter au maximum les portages.



Donc même si à un moment donné il sont obligés de toucher à du code spécifique à la plateforme, ils essayent de s’en passer quand ils peuvent. Donc non, (toujours pour moi) ils n’optimisent pas leur code en fonction de la console.



Là ça ne sera pas le cas mais si mantle devait être dispo sur toutes les grosses platefoirmes (PS4, X1, PC …) ils ne se géneraient pas pour l’utiliser. Mais bon, ça ne sera jamais dispo sur X1 et sur PC ça concerne que les cartes AMD donc ce n’est pas la solution.


votre avatar







bojack9512 a écrit :



Trouvé!!!



http://www.ldlc.com/fiche/PB00158889.html





Dans la fiche, ils disent bien que les jeux sont plus immersifs, pas submersifs. Ca rassure.





votre avatar







bojack9512 a écrit :



Trouvé!!!



http://www.ldlc.com/fiche/PB00158889.html



C’est du fanless<img data-src=" />(watercooling c’est pas pareil)



ps: contacte moi par mp pour m’envoyer ta 6850 et 10€<img data-src=" />







Gros malin !

Bon alors, je reprends … fanless et pas chiant à installer !

Donc pas watercooling : une carte toute bête qui n’exige aucune autre manipulation que le branchement et n’a pas de ventilo.



Par contre, je pensais bien à la même … en fanless et pas watercooling …. bon je sais, j’espère.



En plus tu viendras te la prendre … pas question que je l’envoie.


votre avatar







pyro-700 a écrit :



je vois que les gens ne sont pas satisfait des Benchmark de mantle, il faut savoir que cette technologie jeune a un énorme potentiel .

ce premier pilote beta pour le grand public n’est lancé uniquement pour mettre les éléments de Mantle en place, les optimisations et la puissance viendront dans les pilotes suivant.







y a pas mal de gent qui on des gain assé énorme déjà

c’est plus la stabilité globale sur toute configue qui vas venir



votre avatar

Il était temps, ça commençait à râler chez Fedora. <img data-src=" />

votre avatar







Emralegna a écrit :



On ne bench jamais avec le VSync activé. <img data-src=" />





J’ai pensé qu’on me dirait l’inverse si je postais avec le Vsync Off, genre “active le Vsync” mais même résultat évidemment, des fps en chute libre avec ou sans Vsync


votre avatar

Deux bench sur star swarm en ultra avec un FX 8350 et une Radeon 7970 3Go DDR :



D3D :



Test Duration: 360 Seconds

Total Frames: 10271

Average FPS: 28.53

Average Unit Count: 4241

Maximum Unit Count: 5583

Average Batches/MS: 468.88



Mantle :



Test Duration: 360 Seconds

Total Frames: 15061

Average FPS: 41.84

Average Unit Count: 4433

Maximum Unit Count: 5765

Average Batches/MS: 921.93

Maximum Batches/MS: 1811.83

Average Batch Count: 24870

votre avatar

pas de doute mantle c’est tres prometteur :

je suis impressionné , sur BF4 gain largement visible sur mon crossfire de 7970 avec un 2600K @4.8

je joue avec tout au max + echelle de resolution +120% sans avoir a overclocker mes cg (avant je les passaient a 10001500 et c’etait pas aussi fluide avec l’echelle a 120%)



je pense que j’ai un bon +30% par rapport au drivers dx

franchement bravo AMD

perso aucun plantage pour le moment <img data-src=" />

votre avatar







donjeuw a écrit :



J’ai pensé qu’on me dirait l’inverse si je postais avec le Vsync Off, genre “active le Vsync” mais même résultat évidemment, des fps en chute libre avec ou sans Vsync







Oui dans ton cas ça ne change pas grand chose comme tu ne dépasses pas les 60 FPS (sauf peut-être en DX), mais la baisse aurait pu être plus significative.



Ceci dit dans le cas contraire tu aurais jamais dépassé les 60 FPS peu importe la carte que tu aurais eu avec le Vsync actif, donc pour un bench ce serait légèrement moyen. <img data-src=" />


votre avatar







yeagermach1 a écrit :



Pourquoi que trois jeux/an ? Parce que c’est pas supporté par les deux cotés et que donc les devs veulent pas s’y mettre. Et oui je trouverais normal que si ATI l’avait fait, Nvidia devrait le faire pour Mantle. Et même que si il y a beaucoup de jeux utilisant Mantle, Nvidia devrait s’y ranger.







Ohlalala ….. déjà je dis 3 jeux c’est bien sur pas un chiffre exact certaines années c’est 4, d’autres années c’est 2 …. si sur ça je dois t’expliquer on est pas sorti de l’auberge …

Et même si c’est 10 jeux par an ( ça ne l’est pas c’est plutôt 1 par an ) ça justifiera jamais que AMD paye pour en faire profiter leurs futures cartes ( oh wait on peut faire fonctionner du phyx sur ati mais nvidia impose le patch immédiat pour bloquer ça et c’est normal )



Les dev s’y mettent pas parce que c’est chronophage pour peu d’avantages et plus de se couper de la moitié des joueurs … et bon y a havok et d’autres moteurs si tu veux faire de la particule c’est pas comme si PhysX était la seule et unique façon de faire.







yeagermach1 a écrit :



A part 12 problème du style Mantle dépend de l’architecture de la carte, et les carte Nvidia ont une archi différente des cartes AMD. Résultat cela sera un Mantle Bis non compatible avec le premier.







Beeh c’est transposable pour physX … et c’est toi qui en a utilisé l’argument ( de “AMD aurait pu implémenter PhysX dans l’intérêt de ses clients en payant des royalties” ) en premier je te rappelle …

Bref argument bancal et donc mauvaise foi qui suit pour défendre ton argument …







yeagermach1 a écrit :



On sait deja que AMD le fait pas. Reste a voir Nvidia







Avec 3 jeux par an c’est évident …. Reste à voir si mantle fera mieux que 3 jeux par an ….oui.







yeagermach1 a écrit :



Non je dis que quand un journaliste a posé la question a un responsable Nvidia. Celui-ci a répondu que AMD faisait Mantle pour gagner des FPS afin de supprimer le tearing. Et que la réponse a ce problème de la part de Nvidia c’est le GSync.







Oué d’un coup ça devient bien plus logique …. tu sais le fait de dire il faut gagner des FPS pour éliminer le tearing est déjà inexact … sinon pourquoi acheter un moniteur compatible G-sync autant acheter une 2ème 780 …



Et la réponse de AMD au G-sync s’appellera Freesync il te l’avait pas dis ton responsable …?









yeagermach1 a écrit :



Bien sur donner un avis sur une techno avec des arguments qui tiennent la route, c’est être un fanboy …







Des arguments, concernant la politique d’une entreprise A, provenant d’un responsable Nvidia un Fanboy qui reçoit un chèque de l’entreprise B?



Un fanboy n’est souvent pas conscient d’être un Fanboy….

Un troll peut être conscient d’être un troll….

Un fanboy conscient d’être un fanboy est un troll ( mais il n’est pas forcément conscient d’être un troll )…



L’important c’est pas d’être un fanboy ou un troll l’important c’est d’en être conscient.


votre avatar







xloxlox a écrit :



pas de doute mantle c’est tres prometteur :

je suis impressionné , sur BF4 gain largement visible sur mon crossfire de 7970 avec un 2600K @4.8

je joue avec tout au max + echelle de resolution +120% sans avoir a overclocker mes cg (avant je les passaient a 10001500 et c’etait pas aussi fluide avec l’echelle a 120%)



je pense que j’ai un bon +30% par rapport au drivers dx

franchement bravo AMD

perso aucun plantage pour le moment <img data-src=" />







Bien tenté <img data-src=" />





Intermittent stuttering or stability issues may occur when utilizing Mantle with AMD CrossFire™ technology in BattleField 4™ - AMD recommends using the DirectX code path when playing Battlefield 4 with multiple GPUs. A future AMD Catalyst release will resolve these issues


votre avatar







ichigo87 a écrit :



Quel est l’intérêt pour un dev (à part l’oseille) de bosser sur une API proprio d’nivida. Mantle est là pour répondre à une demande des devs, c’est pas une iniative d’AMD pour faire chier le monde. Sans oublier que Mantle ressemble à l’API perso de la PS4 (APU AMD inside), pour les devs qui font des portages PS4 –&gt; PC, c’est un argument fort. Mais que nvidia fasse son propre API, perso je vois pas qui va valider (surtout s’il nous font payer comme le g-sync <img data-src=" /> )









Je sais pas il me semble que le point fort mis en avant par AMD pour leurs clients ( nous ) est l’augmentation des perfs…

Alors si et uniquement si mantle est un succès cela va entrainer une nouvelle dynamique niveau des GPU.



Donc si nvidia veut garder son marché niveau GPU ils vont devoir répondre soit en sortant des GPU bien plus puissant que ceux d’AMD sous mantle, donc leur marge va fondre rapidement tout en mettant la pression financière sur leur clients …

Dans ce cas sortir une API N-mantle qui les avantage me parait couler de source …



Pareil pour les dev dont la bonne moitié des clients sont équipés en nvidia.. si mantle est un succès et que nvidia propose le sien, ils seront forcés de faire du N-mantle.



Lol heureusement si nvidia impose un petit boitier payant ou une carte fille payante pour bénéficier de leurs API style mantle, même les pires fanboys/moutons vont ptet pousser un petit cri ( on attendra pour une vraie gueulante <img data-src=" /> )


votre avatar







ichigo87 a écrit :



à la limite je vois bien nvidia bosser avec MS pour proposer un nouveau DX. Vu les liens qu’ils ont actuellement avec les surfaces, ça peut être envisageable.



Que ce soit nvidia, intel ou microsoft aucun n’a intérêt à voir Mantle s’imposer. Et vu que ce ne sont pas des petits joueurs, AMD a intérêt à aller vite pour rendre son API indispensable.







Bof les mini-alliances, dans le marché des hautes-technologies lié au software, pour évincer un acteur qui tente d’innover par les autres sont trop coûteuses/complexes et trop fragiles/temporaires pour être réellement envisageable…



Microsoft comme intel ou nvidia ont largement les moyens de proposer eux-même une solution propriétaire.



De toutes façons, microsoft n’a aucune crainte à ce faire avant 5 ans au moins … directX est incontournable

Donc ils ont 5 ans pour sortir un directX qui court-circuitera et mantle et autres.. si ils en sont pas capable bah le marché migrera..



Mantle, et l’engouement qu’il provoquera, nous prouvera si le marché a besoin/envie d’évoluer/migrer ou pas …


votre avatar







mum1989 a écrit :



Non, et ce modèle coute 170€ ! le prix d’un i5.



il est au niveau d’une AMD 6670 GDDR5 (ou une R7 240 par exemple)











kail a écrit :



Non bien sûr. C’est plutôt du niveau d’une 6670.







Je n’attends plus que ça pour remplacer mon PC et me débarrasser de ma CG. <img data-src=" />



Une 6670, c’est beaucoup trop faible. <img data-src=" />


votre avatar

Donc si je comprend bien les devs de jeux devront dev leur jeux sur direct3D/xone, OpenGL, ps4 et maintenant il faut rajouter mantle qui est limité a un parc pc qui a des radeons derniers générations, certes c’est bien pour les consommateur qui ont du amd dernier génération.



Quel est l’intérêt pour les éditeurs de jeux vidéo de dev sur mantle en sachant que cela servira que pour une minorité de joueur(même dans bf4)?

http://bf4stats.com/

Si intel et Nvidia contre-attaque alors le budget de dev des jeux va exploser et donc les éditeurs prendront moins de risques et cela va limiter les gameplay novateur aux indé. Donc les jeux seront opti que pour certaine config et donc cela va être du pile ou face pour avoir la bonne opti pour les futurs jeux ou c’est Amd qui payent le studio pour la charge d’opti supplémentaire?





Donc quel est l’intérêt de sa a part mettre le feux aux cul a OpenGL et Direct3d?



C’est ce que j’ai pue comprendre de la news et des comms.

votre avatar

Avec un I7 3680 QM et une 8870m je peux espérer quoi en gain?

votre avatar

Ho, ça se bouge enfin sous Linux, une belle flopée de bugs corrigés, un support du Linux 3.13 et de Xorg 1.15, on a rarement eu droit à autant de réactivité…

Reste à voir les performances.

votre avatar







kamuisuki a écrit :



Avec un I7 3680 QM et une 8870m je peux espérer quoi en gain?





Le pilote est sorti, t’as plus qu’à tester ^^

Ou alors tu attends la semaine prochaine un test éventuel sur gpu mobiles, car pour l’instant les tests se concentrent surtout sur la partie desktop


votre avatar







burroz a écrit :



Quel est l’intérêt pour les éditeurs de jeux vidéo de dev sur mantle en sachant que cela servira que pour une minorité de joueur(même dans bf4)?

http://bf4stats.com/





Avec le support Linux, de promouvoir à la fois les produit AMD et le moteur de BF4 comme plate-forme de développement de jeux.







burroz a écrit :



Si intel et Nvidia contre-attaque alors le budget de dev des jeux va exploser et donc les éditeurs prendront moins de risques et cela va limiter les gameplay novateur aux indé.





C’est pas déjà le cas?

La com actuelle s’est: avec le moteur de BF4 et AMD, la config du joueur a baissé de prix.

Et je suis sûr qu’ils vont trouver le moyen pour que Mantle soit sur PS4 au mois, et sur SteamOS.



Les SteamBox à base d’APU vont devenir plus intéressantes à terme.


votre avatar







donjeuw a écrit :



Le pilote est sorti, t’as plus qu’à tester ^^

Ou alors tu attends la semaine prochaine un test éventuel sur gpu mobiles, car pour l’instant les tests se concentrent surtout sur la partie desktop





Le soucis est que je dois attendre une version modifiée de ces pilotes pour pouvoir le tester, sinon les jeux DX9 utilisent l’intel integrée et non la dédié.


votre avatar







Ideal a écrit :



Beaucoup de bullshits dans les premiers comms de cette news… et pas spécialement dans ceux que je vais citer



On dirait qu’il y a autant de sérieux ici que dans un débat sur la théorie des genres …

Donc ça trolle pour défendre son troupeau mais au final personne n’a vraiment vu mantle tourné, ni de tests sérieux dessus et pourtant y a autant d’experts sur le sujet que d’auteurs de comms … <img data-src=" />







PhysX avec 3 jeux compatible par an et un intérêt en perfs proche de zéro avec une config qui dépasse pas les 700 euros ? ( AMD a et aura toujours le meilleur rapport qualité-prix pourquoi tu voudrais qu’ils dépensent des royalties pour des techno dont l’intérêt est limité par le prix de ta config … )



Enfin bon prenons ton argument en le transposant dans le sens de la news … donc si y a 3 jeux compatible mantle par an, tu trouverais ça logique et normal que Nvidia développe ces prochaines cartes avec du compatible mantle ( vu que AMD serait ok ) dans l’intérêt des utilisateurs Nvidia …. ?









Pourquoi que trois jeux/an ? Parce que c’est pas supporté par les deux cotés et que donc les devs veulent pas s’y mettre. Et oui je trouverais normal que si ATI l’avait fait, Nvidia devrait le faire pour Mantle. Et même que si il y a beaucoup de jeux utilisant Mantle, Nvidia devrait s’y ranger.



A part 12 problème du style Mantle dépend de l’architecture de la carte, et les carte Nvidia ont une archi différente des cartes AMD. Résultat cela sera un Mantle Bis non compatible avec le premier.







Rendez-vous dans 2 ans alors pour voir qui des deux firmes est capable de ravaler sa fierté en faveur de ses clients …







On sait deja que AMD le fait pas. Reste a voir Nvidia







La réponse est déjà là



Je vois pas en quoi Gsync est une réponse Nvidia à mantle … quoi Nvidia peut pas rétorquer une solution sans faire changer d’écran leurs clients ?

C’est ça que t’essayes de dire ?







Non je dis que quand un journaliste a posé la question a un responsable Nvidia. Celui-ci a répondu que AMD faisait Mantle pour gagner des FPS afin de supprimer le tearing. Et que la réponse a ce problème de la part de Nvidia c’est le GSync.









<img data-src=" /> Je te soupçonnerai presque de troller pour AMD en te faisant passer pour un Fan Nvidia <img data-src=" />



( je dis Fan parce que tes arguments tiennent pas la route niveau logique donc t’es déjà pu un client mais un fan qui a mis sa raison de coté enfin je le vois comme ça )



Non mais un peu de sérieux …. AMD vs Nvidia c’est comme Apple vs Microsoft dans les années 90 les clients n’ont pas leurs mots à dire juste leurs troupeaux à choisir …





Bien sur donner un avis sur une techno avec des arguments qui tiennent la route, c’est être un fanboy …


votre avatar







bojack9512 a écrit :



Heu physx c’est pas une puce supplémentaire(ou je sais pas quoi)sur la carte graphique qui est à part de Cuda? Parce que cuda existait chez nvidia avant le rachat de physx…



Me semblait que Cuda et openCL permettaient des trucs comme physx mais en moins poussé…





Non PhysX existait avant Cuda et nécessitait une puce supplémentaire. Mais Nvidia a racheté la boite et a sortie les 8xxx. Premières cartes a avoir le support Cuda. En même temps Nvidia a recodé PhysX pour qu’il aille sur Cuda.



Cuda et OpenCL sont des bibliothèques de calculs parallélisés qui s’exécutent aussi sur GPU (CUDA que sur GPU d’ailleurs). A la différence de TBB a ces débuts qui était réservé CPU.



PhysX est basé sur CPU et GPU et est une bibliothèque pour faire la physique dans les jeux (comme Hawoc). Mais on en parle le plus souvent pour les effets en plus uniquement basé sur GPU.


votre avatar







brice.wernet a écrit :



Avec le support Linux, de promouvoir à la fois les produit AMD et le moteur de BF4 comme plate-forme de développement de jeux.





C’est pas déjà le cas?





2 problèmes a cela :




  • le premier c’est que EA a pas forcement envie de vendre son moteur a d’autres studios que les siens.

  • les parts de marché d’AMD c’est pas 100%. Donc les devs se devront de faire au mieux 4 moteurs de rendu : Mantle, DX, PS4, XOne. Plus si ils ont pas de bol : X360, PS3, WiiU. Ce qui commence a faire un peu beaucoup. Si on rajoute Gameworks (nvidia) qui ajoute une black box dans le code et donc un moteur pour lui et si Mantle attire du monde un Mantle special Nvidia. Les couts vont vraiment s’envoler (cout de dev et de support).







    La com actuelle s’est: avec le moteur de BF4 et AMD, la config du joueur a baissé de prix.

    Et je suis sûr qu’ils vont trouver le moyen pour que Mantle soit sur PS4 au mois, et sur SteamOS.



    Les SteamBox à base d’APU vont devenir plus intéressantes à terme.



    Mantle sur PS4, il y a pas besoin. L’API est déjà de bas niveau et permet donc deja de faire ce que Mantle permet de faire. Comme sur XOne d’ailleurs, le DX sur place permet déjà de faire ce que Mantle fait. Les rumeurs au début disaient d’ailleurs (avant dementí) que Mantle c’était l’API de la Xone portée sur PC.


votre avatar

étonnement même avec le Vsync j’ai un gros gain de ressentie de fluidité



60 fps Mantle plus fluide que 60 fps Dx <img data-src=" />

votre avatar







yeagermach1 a écrit :



2 problèmes a cela :




  • le premier c’est que EA a pas forcement envie de vendre son moteur a d’autres studios que les siens.

  • les parts de marché d’AMD c’est pas 100%. Donc les devs se devront de faire au mieux 4 moteurs de rendu : Mantle, DX, PS4, XOne. Plus si ils ont pas de bol : X360, PS3, WiiU. Ce qui commence a faire un peu beaucoup. Si on rajoute Gameworks (nvidia) qui ajoute une black box dans le code et donc un moteur pour lui et si Mantle attire du monde un Mantle special Nvidia. Les couts vont vraiment s’envoler (cout de dev et de support).







    Mantle sur PS4, il y a pas besoin. L’API est déjà de bas niveau et permet donc deja de faire ce que Mantle permet de faire. Comme sur XOne d’ailleurs, le DX sur place permet déjà de faire ce que Mantle fait. Les rumeurs au début disaient d’ailleurs (avant dementí) que Mantle c’était l’API de la Xone portée sur PC.





    Là je ne comprends pas, pourquoi utiliser le moteur de la PS4 et la xone alors que mantle à l’air de remplacer les 2 pour 1 seul développement ?



    Enfin si j’ai bien suivi ce que tu as écrit.


votre avatar







kail a écrit :



La techno est libre me semble-t-il. Ou alors j’ai loupé un épisode.





<img data-src=" />

libre si tu es partenaire <img data-src=" />


votre avatar







metaphore54 a écrit :



Là je ne comprends pas, pourquoi utiliser le moteur de la PS4 et la xone alors que mantle à l’air de remplacer les 2 pour 1 seul développement ?



Enfin si j’ai bien suivi ce que tu as écrit.





J’ai dit fait la même chose : donner un accès bas niveau. J’ai pas dit que c’était la même chose. Les API des consoles sont bien plus poussées que Mantle pourra jamais l’etre. Justement du fait que les deux consoles ont un seul hardware et que les optimisations seront faite pour ce hardware. Mantle lui doit supporter a terme plusieurs générations de cartes AMD.



Et sinon parce que Sony et MS obligent l’utilisation de leur API.


votre avatar







yeagermach1 a écrit :



J’ai dit fait la même chose : donner un accès bas niveau. J’ai pas dit que c’était la même chose. Les API des consoles sont bien plus poussées que Mantle pourra jamais l’etre. Justement du fait que les deux consoles ont un seul hardware et que les optimisations seront faite pour ce hardware. Mantle lui doit supporter a terme plusieurs générations de cartes AMD.



Et sinon parce que Sony et MS obligent l’utilisation de leur API.







Merci, je comprends mieux donc ce que les API PS4 et Xone font, mantle ne le fait pas forcément et de plus les éditeurs sont obligé d’utiliser les Api de PS4 et Xone.



J’essaie de me simplifier le truc pour que ce soit clair pour moi.


votre avatar

Mantle chez moi, ça détériore plus les perfs que ça n’apporte de gain quelconque:



Test Mantle Sapphire HD7870XT Battlefield 4 / Mode Ultra/ AA4X/ Vsync On

map: Test Range

Dx11: 40-45fps

Mantle: 17-30fps



map: Lockers

Dx11: 40-60fps

Mantle: 10-30fps



A vue de nez, le jeu semble plus tourner autours de 17fps de moyenne avec Mantle et 40 fps avec dx11.

J’ai testé sur des maps sans aucun joueur, je n’imagine pas ce que ça donnerait avec.

J’ai utilisé la commande perfoverlay.drawfps pour afficher les fps,

maconfig c’est un i7 2600, 8go de ram, 7870XT et le jeu tourne sur SSD,

Donc pour l’instant il y a du chemin à faire..

votre avatar

pourquoi tu active le Vsync si tes FPS sont si bas?



je pense que ça fou la merde désactive le est re essaye



aussi je pense que tu est GPu limited car t’a tout poussé a fond niveau graph

essaye de diminuer les setting (medium et AA*2)



je pense aussi que tu a un problème sur ton PC ces fps me semble bien faiblard



désinstal les pilote et reprend à 0 ^^



édit : je ne sais pas si ta carte est supporté

pour l’instant je pense que non

normal que mantle ne marche pas chez toi ;)

votre avatar

Test chez moi :

Paracels Storm mode training

Settings : Ultra + 2x MSAA + 100% Rendering + FOV 90

Conf : Xeon 1230V3 + HD7950 + 8Go de ram



DX11.1 :

http://image.noelshack.com/fichiers/2014/05/1391349382-screenshotwin32-0004.png



Mantle :

http://image.noelshack.com/fichiers/2014/05/1391349386-screenshotwin32-0003.png



+5FPS <img data-src=" />

votre avatar

Y a toujours cette difference de lumiere entre les screens Mantle et DX 11?

votre avatar

pas mal vu les conditions de charge GPU

par contre on note qu’il semble il y avoir un problème de réglage du gamma quand tu passe à mantle

pas fait gaf à ça chez moi à esperer que ça soit ratrapable avec le seting approprié

votre avatar

je saurais pas dire si la diff de rendu est dû à l’évolution naturelle de la map ou à une vraie différence au niveau du moteur

votre avatar

J’ai vu d’autres screens comparatif et le résultat est le même. Donc je pense une nuance niveau moteur.

votre avatar







yeagermach1 a écrit :



J’ai vu d’autres screens comparatif et le résultat est le même. Donc je pense une nuance niveau moteur.





Ok, mais c’est moins beau du coup :/


votre avatar

Est ce qu’on sait si mantle est utilisé sur xbox one et ps4 ?

C’est peut être une des clé de son succès.

votre avatar







CR_B7 a écrit :



Est ce qu’on sait si mantle est utilisé sur xbox one et ps4 ?

C’est peut être une des clé de son succès.





Non c’est pas utilisé. Les deux consoles ont leur propre API bas niveau.


votre avatar







yeagermach1 a écrit :



J’ai dit fait la même chose : donner un accès bas niveau. J’ai pas dit que c’était la même chose. Les API des consoles sont bien plus poussées que Mantle pourra jamais l’etre. Justement du fait que les deux consoles ont un seul hardware et que les optimisations seront faite pour ce hardware. Mantle lui doit supporter a terme plusieurs générations de cartes AMD.



Et sinon parce que Sony et MS obligent l’utilisation de leur API.









C’est pas faux mais dans la réalité si les développeurs optimisaient leurs jeux pour chaque console ça se saurait….


votre avatar

Bon avec Mantle j’ai des trous de FPS, 60-60-60-25-60-60-25

bref vais continuer en DX11<img data-src=" />

votre avatar







donjeuw a écrit :



Mantle chez moi, ça détériore plus les perfs que ça n’apporte de gain quelconque:



Test Mantle Sapphire HD7870XT Battlefield 4 / Mode Ultra/ AA4X/ Vsync On

map: Test Range

Dx11: 40-45fps

Mantle: 17-30fps



map: Lockers

Dx11: 40-60fps

Mantle: 10-30fps



A vue de nez, le jeu semble plus tourner autours de 17fps de moyenne avec Mantle et 40 fps avec dx11.

J’ai testé sur des maps sans aucun joueur, je n’imagine pas ce que ça donnerait avec.

J’ai utilisé la commande perfoverlay.drawfps pour afficher les fps,

maconfig c’est un i7 2600, 8go de ram, 7870XT et le jeu tourne sur SSD,

Donc pour l’instant il y a du chemin à faire..







On ne bench jamais avec le VSync activé. <img data-src=" />


votre avatar

Avant Ubuntu 12.10 : Driver 13.11b9.2 … sous kernel Linux 3.5.0-44

Maintenant Ubuntu 13.10 : Driver 14.01b1.3 … sous kernel Linux 3.11.0-17



ExtremHD

FPS: 6.0 &gt; 11.1 &gt;&gt;&gt;&gt; 5.1

Score: 251 &gt; 465 &gt;&gt;&gt;&gt; +214

Min FPS: 2.7 &gt; 4.8 &gt;&gt;&gt;&gt; +2.1

Max FPS: 17.5 &gt; 26.3 &gt;&gt;&gt;&gt; +8.8

Extrem

FPS: 8.8 &gt; 16.4 &gt;&gt;&gt;&gt; +7.6

Score: 367 &gt; 687 &gt;&gt;&gt;&gt; +320

Min FPS: 3.7 &gt; 6.6 &gt;&gt;&gt;&gt; +2.9

Max FPS: 28.2 &gt; 38.3 &gt;&gt;&gt;&gt; +9.9

Basic

FPS: 34.8 &gt; 34.1 &gt;&gt;&gt;&gt; -0.7

Score: 1456 &gt; 1425 &gt;&gt;&gt;&gt; -31

Min FPS: 16.1 &gt; 16.3 &gt;&gt;&gt;&gt; +0.2

Max FPS: 52.6 &gt; 50.4 &gt;&gt;&gt;&gt; -0.2



Pourquoi il y a regression en Basic et progression en Extrem / ExtremHD … mystery !

Je ne serais pas objectif si je ne faisais que râler … cette fois, il y enfin un mieux d’un point de vue global !!!

Reste à savoir si cette hausse de performance viens bien du driver 14.1b ou du passage au noyau 3.11 qui est connu pour mieux gérer les cartes graphiques … comme le driver 13.11b9 ne marchait pas avec le noyau 3.11 (écran noir au boot), nous ne saurons jamais.



Mais ça ne me fera pas changer d’avis : dès qu’une nVidia GTX série 7 sort en fanless avec plus de 2 Go de RAM, je donne 10 euros à qui me débarasse de ma HD6850.

votre avatar







luxian a écrit :



je donne 10 euros à qui me débarasse de ma HD6850.





Moi j’en veux bien <img data-src=" />


votre avatar







luxian a écrit :



Avant Ubuntu 12.10 : Driver 13.11b9.2 … sous kernel Linux 3.5.0-44

Maintenant Ubuntu 13.10 : Driver 14.01b1.3 … sous kernel Linux 3.11.0-17



ExtremHD

FPS: 6.0 &gt; 11.1 &gt;&gt;&gt;&gt; 5.1

Score: 251 &gt; 465 &gt;&gt;&gt;&gt; +214

Min FPS: 2.7 &gt; 4.8 &gt;&gt;&gt;&gt; +2.1

Max FPS: 17.5 &gt; 26.3 &gt;&gt;&gt;&gt; +8.8

Extrem

FPS: 8.8 &gt; 16.4 &gt;&gt;&gt;&gt; +7.6

Score: 367 &gt; 687 &gt;&gt;&gt;&gt; +320

Min FPS: 3.7 &gt; 6.6 &gt;&gt;&gt;&gt; +2.9

Max FPS: 28.2 &gt; 38.3 &gt;&gt;&gt;&gt; +9.9

Basic

FPS: 34.8 &gt; 34.1 &gt;&gt;&gt;&gt; -0.7

Score: 1456 &gt; 1425 &gt;&gt;&gt;&gt; -31

Min FPS: 16.1 &gt; 16.3 &gt;&gt;&gt;&gt; +0.2

Max FPS: 52.6 &gt; 50.4 &gt;&gt;&gt;&gt; -0.2



Pourquoi il y a regression en Basic et progression en Extrem / ExtremHD … mystery !

Je ne serais pas objectif si je ne faisais que râler … cette fois, il y enfin un mieux d’un point de vue global !!!

Reste à savoir si cette hausse de performance viens bien du driver 14.1b ou du passage au noyau 3.11 qui est connu pour mieux gérer les cartes graphiques … comme le driver 13.11b9 ne marchait pas avec le noyau 3.11 (écran noir au boot), nous ne saurons jamais.



Mais ça ne me fera pas changer d’avis : dès qu’une nVidia GTX série 7 sort en fanless avec plus de 2 Go de RAM, je donne 10 euros à qui me débarasse de ma HD6850.







Tu as dors et déjà des cartes avec 4 Go de RAM, mais pas encore en fanless (en ventirad custom seulement).


votre avatar

Quid de l’introduction de bugs au cours des versions ?



Depuis la 13.6, le rétro-éclairage de mon écran est verrouillé sur “off” (donc complètement noir) et j’ai dû downgrader.

Du coup pour la 14 je suis un peu réticent là …

votre avatar







vono a écrit :



Ils auraient dus investir dans OpenACC à la place…

Ca semble avoir une vocation similaire, et c’est une norme qui n’est pas spécifique à un éditeur particulier.



Ca aurai permis de moins se diversifier en API propriétaire, et d’avoir un standard commun.

GNU GCC commençant à supporter OpenACC, NVidia étant de la partie, ça aurai fait du poids.

Mais bon, vu que justement NVidia est dans le lot…. je suppose qu’ils ne voulaient pas s’investir là dedans.

<img data-src=" />







Peut-être mais ça n’aurait servi à rien que ce soit open-source puisque nVidia n’aime pas l’open-source… Donc AMD aurait été le seul à l’utiliser. Comme avec Mantle.


votre avatar

Je rejoins l’avis de beaucoup d’INpactiens et tiennes. Ce W.E., j’ai remplacé le HDD de mon portable ASUS (core i3+HD5470) par un SSD Intel. Réinstall de W7 et un bon paquets de redémarrages pour les drivers, les MàJ, on connais. En passant, le dernier Catalyst téléchargé chez AMD a refusé de s’installer, mais c’est pas trop grave, le GPU a été reconnu à l’install.



Install de LinuxMint 16 XFCE, tout marche du premier coup, un seul redémarrage après la MàJ du noyau, on connais aussi. Puis je décide d’installer FGLRX, le driver proprio d’AMD pour avoir de meilleures perfs qu’avec le driver libre. À la fin de l’install, écran noir. Ce <img data-src=" /> de driver a trouvé le moyen d’éteindre le rétro éclairage. Franchement, le jour où j’ai acheté cet ASUS à Carrefour, j’aurais dû torturer le vendeur pour qu’il m’en sorte un avec une NVidia dedans. En tout cas, AMD peut toujours essayer de compenser un déficit de performances, IL FAUT D’ABORD FAIRE DES DRIVERS QUI FONCTIONNENT !!!

votre avatar







Paulo Paulo a écrit :



Peut-être mais ça n’aurait servi à rien que ce soit open-source puisque nVidia n’aime pas l’open-source… Donc AMD aurait été le seul à l’utiliser. Comme avec Mantle.







Euh…Ton commentaire est légérement à coté de la plaque, NVIDIA étant historiquement celui qui supporte le mieux les normes OpenGL depuis un paquet d’années et qui en a proposé les innovations les plus importantes, et de deux justement vono vient de souligner qu’NVIDIA met en avant OpenACC (une norme libre donc) alors qu’AMD n’y participe pas.

Ta conclusion est donc pour le moins très étrange.


votre avatar

J’ai pas lu tout les commentaires mais en ai vu un certain nombre qui remonte un faux problème : L’écriture de version spécifique a Mantle.

C’est un faux problème dans le sens ou la grande majorité des jeux utilise un moteur clef en main (Unity, Havok, CryEngine, Unreal, etc…) Il “suffit” d’ajouter une version Mantle à ces moteurs pour voir la majorité des sorties le supporter.

C’est très certainement ce sur quoi AMD compte.

votre avatar

vous devez vous tromper, il s’agit de Mantle.

votre avatar







MaxiMat a écrit :



Car, si Mantle est accepté par les boites de devs, ça pourrait faire mal à DirectX/Windows







Oulah, tu es optimiste. Mantle est une solution qui émane d’un vendeur de GPU, et qui est encore en phase bêta. AMD ne fait pas ça pour le bien de l’humanité.



Les boites de dévs vont attendre les résultats qui vont sortir de BF4, avant de prendre des risques.


votre avatar







divide a écrit :



Euh…Ton commentaire est légérement à coté de la plaque, NVIDIA étant historiquement celui qui supporte le mieux les normes OpenGL depuis un paquet d’années et qui en a proposé les innovations les plus importantes, et de deux justement vono vient de souligner qu’NVIDIA met en avant OpenACC (une norme libre donc) alors qu’AMD n’y participe pas.

Ta conclusion est donc pour le moins très étrange.







bas entre leur 3D proprio leur , leur physix proprio même quand il n’a pas lieu d’être , c’est un peut ce que l’on retient d’eux depuis ces dernières années



votre avatar







Groumfy a écrit :



Oulah, tu es optimiste. Mantle est une solution qui émane d’un vendeur de GPU, et qui est encore en phase bêta. AMD ne fait pas ça pour le bien de l’humanité.



Les boites de dévs vont attendre les résultats qui vont sortir de BF4, avant de prendre des risques.







il y a quand même tout les jeux EA qui utilisent le Frost bite

ça fait pas mal de studio



après est ce qu’il vont continuer le support sur le long terme on ne sais pas

mais le coté vitrine technologique regardez qui çà la plus grosse leur fait quand même une grosse pub et un gros buzz



on parle tous de BF4 (en bien ou en mal)


votre avatar







dtoxftw a écrit :



Tout dépends du point de vue, sur certains moteur comme le frostbyte ou le cry engine bien multithread AMD devance les i5. le problème étant que 80% des jeux sont au mieux dualthreads.



A défault d’avoir un IPC plutôt faible par coeur AMD a jouer la carte du nombre de coeur



Finalement ça paye dans l’optimisation.



Après pour en revenir a Mantle, simplement bienvenue !! Enfin quelques chose d’intéressant dans ce monde qui dort depuis quelques temps !









yeagermach1 a écrit :



Le pire c’est que la techno en elle même est intéressante, mais comme c’est limite impossible a généraliser, elle en devient pourrie.







Bah non, elle est pas pourrie. Nombreux sont les gens ici qui s’y connaissent techniquement à la considérer comme une avancée majeure.

Par ailleurs, oui dans le principe ça me soûle aussi que ce soit pas une techno open source, mais AMD n’avait pas le choix.



La stratégie d’AMD a été claire sur ces dernières années : on arrive à gérer le front GPU, on bloque sur le front CPU entre autres à cause du gros poil dans la main des devs logicielle (sous-utilisation du multi-threading).



&gt;&gt;&gt; On chope le marché des consoles pour créer un énorme cheval de Troie qui va pousser les devs à multi-threader d’une part, à utiliser Mantle d’autre part (et à promouvoir le potentiel des APU enfin).




  1. À court terme, étend la popularité donc la compétence des devs sur le matos AMD.

  2. À moyen terme, permettra aux gens de réaliser que quand on code en prenant réellement en compte les capacités des procs, les CPU AMD peuvent être très performants.



    De ce fait, ils ne pouvaient faire une techno open source, sinon ça n’aurait pas constitué un atout différenciant. En revanche comme tu (et d’autres) le souligne ça créée un risque de fracture. Ce qui fait qu’ils sont obligés de proposer un truc réellement performant, sinon les devs ne verront pas l’intérêt de faire l’effort et ça finira en eau de boudin.



    Le vrai risque est que les concurrents, sous leur mine de pas y toucher, préparent leur propre version, et que les devs se retrouvent effectivement à gérer trois technos spécifiques en même temps (auquel cas je doute qu’une des trois percent).

    Perso je souhaite vraiment qu’AMD réussisse son coup pour revenir un peu dans la bataille, ne serait-ce qu’en termes d’image.


votre avatar







Ideal a écrit :



Je connais pas le dossier c’est plutôt intéressant par contre une question bête ptet que j’ai mal compris ta formulation …







On doit comprendre quand c’est pas visible c’est bouffeur de ressource mais quand c’est visible c’est pu bouffeur de ressources? ( possible après tout comme pour les voxels )



Ou juste tu voulais dire que dans crysis la tesselation de l’eau, bien que splendide, était bouffeuse de ressources qu’on la voit ou pas .. ?





Ceci dit j’ai pas du tout suivi le dossier de cette époque …La tesselation de l’eau aurait-elle pu être appliqué de façon ponctuelle comme sur d’autres engine par exemple ?





Oui c’est bouffeur de ressource dans tous les cas. Sauf qu’il y en a un ou on l’accepte (quand c’est visible). Alors que quand cela l’est pas, la logique indique que cela devrait pas en bouffer. Malheureusement pour ATI, sous crysis 2 c’était le cas.



Plus que l’appliquer ponctuellement, il aurait pu la dégrader avec la distance, et ils ne l’ont pas fait. A l’époque la tessalisation, c’était le truc a la mode, on en bouffait partout. L’utilisation la plus commune était une utilisation sur des objets pour les rendre beaucoup plus beau. Moins commun mais aussi utilisé : sur les décors style paysage. Et ca ca bouffait un max.


votre avatar







Citan666 a écrit :



Bah non, elle est pas pourrie. Nombreux sont les gens ici qui s’y connaissent techniquement à la considérer comme une avancée majeure.

Par ailleurs, oui dans le principe ça me soûle aussi que ce soit pas une techno open source, mais AMD n’avait pas le choix.



La stratégie d’AMD a été claire sur ces dernières années : on arrive à gérer le front GPU, on bloque sur le front CPU entre autres à cause du gros poil dans la main des devs logicielle (sous-utilisation du multi-threading).



&gt;&gt;&gt; On chope le marché des consoles pour créer un énorme cheval de Troie qui va pousser les devs à multi-threader d’une part, à utiliser Mantle d’autre part (et à promouvoir le potentiel des APU enfin).




  1. À court terme, étend la popularité donc la compétence des devs sur le matos AMD.

  2. À moyen terme, permettra aux gens de réaliser que quand on code en prenant réellement en compte les capacités des procs, les CPU AMD peuvent être très performants.



    De ce fait, ils ne pouvaient faire une techno open source, sinon ça n’aurait pas constitué un atout différenciant. En revanche comme tu (et d’autres) le souligne ça créée un risque de fracture. Ce qui fait qu’ils sont obligés de proposer un truc réellement performant, sinon les devs ne verront pas l’intérêt de faire l’effort et ça finira en eau de boudin.



    Le vrai risque est que les concurrents, sous leur mine de pas y toucher, préparent leur propre version, et que les devs se retrouvent effectivement à gérer trois technos spécifiques en même temps (auquel cas je doute qu’une des trois percent).

    Perso je souhaite vraiment qu’AMD réussisse son coup pour revenir un peu dans la bataille, ne serait-ce qu’en termes d’image.





    Quand je dis pourrie, je parle des résultats qu’elle peut donner non pas dans un sens technique mais dans le sens des utilisateurs. Mantle de base est sans doute bien trop dépendante de l’architecture des cartes AMD pour pouvoir être généralisée. AMD a du mal avec ses propres cartes (ou est le support pour les cartes pas GCN 1 et 1.1 ?). Alors penser que Nvidia arrivera a le supporter sans travail lourd ..



    Si la techno est pas généralisable, les devs se retrouvent a devoir faire plusieurs fois le boulot pour une seule plateforme, ce qui est mal. D’ou mon pourrie.



    Les consoles bien qu’AMD n’utilise pas Mantle mais leur propre API bas niveau donc l’effet cheval de troie que l’on pourrait espérer est très faible.


votre avatar

C’est pas AMD qui a été à l’initiative de Mantle, mais les devs qui ont en marre de DX. AMD n’a fait que répondre à une demande, en collaborant avec DICE pour proposer une API comparable à celles des consoles. Si vraiment il suffisait de modifier quelques petits trucs à DX, DICE l’aurait fait plutôt que de créer une nouvelle API…



Actuellement ils n’ont touché qu’à quelques optimisations pour CPU, mais ce qui concerne les GPU est en R&D. Y a encore des gains à espérer pour l’avenir, là on a eu qu’un petit aperçu des capacités de Mantle.

votre avatar

Non les devs peuvent pas toucher si bas a DX. Seul MS le peut.

votre avatar

Ah ok c’est encore pire que ce que je pensais… Bon bah j’espère que MS réagira assez rapidement avec un DX12 un peu mieux foutu.

votre avatar

Le problème de MS, c’est que son DX doit fonctionner avec toutes les cartes et faire du bas niveau avec cette contrainte c’est pas simple, c’est même plutôt super compliqué et source de bug.



D’ailleurs mine de rien, c’est une sacré contrainte que vient de se rajouter AMD pour ses drivers et cartes futures. Va falloir maintenir la retro Mantle.

votre avatar

plus besoin d’acheter un gros cpu intel pour pouvoir jouer, donc <img data-src=" />

Vivement que plus de titres soient compatibles !

Une réaction de nvidia est-elle prévue?

votre avatar







aqwa a écrit :



Une réaction de nvidia microsoft est-elle prévue?







<img data-src=" />


votre avatar

C’est bien pour les pc de supermarché full Amd pas cher <img data-src=" />

votre avatar

Donc si ont résume :





  • Incopatible par les nvidia

  • incopatible avec les anciennes ati

  • En concurance avec directx et donc MS



    Good luck AMD <img data-src=" />

votre avatar



Pour donner quelques exemples, AMD indiquait les chiffres suivants (…) :

Cas limité par le CPU : 40,9 % (1080p) et 40,1 % (1600p) en Ultra avec AA 4x (A10-7700K / R9 290X)

Cas limité par le GPU : 2,7 % (1080p) et 1,4 % (1600p) en Ultra avec FXAA (Core i7 4960x / R7 260X)





Ahaha, AMD avoue publiquement que ses propres processeurs même haut de gamme sont à la traine comparé à Intel !

votre avatar
votre avatar

A10-7700K avec une R9 290X faut osez aussi <img data-src=" />

Beaucoup de test avec des Intel alors que c’est pour les cpu de Amd qui sont limité lol

votre avatar







aqwa a écrit :



Une réaction de nvidia est-elle prévue?







A mon avis NVIDIA s’en fout, dans la mesure où les devs vont pas se faire chier à coder du Mantle (dont le code est spécifique à chaque vendeur GPU, chaque génération de GPU et chaque plateforme ..!) pour gagner 15% de perf, alors qu’en remaniant un peu son code DX ou OGL on peut facilement soi-même réduire le nombre de drawcalls (si c’est vraiment un facteur limitant..). Ya plein de techniques pour ça dans les 2 APIs, et surtout un seul code DX ou OGL est universel pour toutes les combinaisons de GPU/Plateforme (surtout avec OGL).

En fait NVIDIA a déjà donné sa réponse, c’est proposer plus d’outils utiles aux développeurs (entre autre via le nouveau SDK Gameworks).


votre avatar







aqwa a écrit :



plus besoin d’acheter un gros cpu intel pour pouvoir jouer, donc <img data-src=" />

Vivement que plus de titres soient compatibles !

Une réaction de nvidia est-elle prévue?







Il te faudra quand même une bonne CG pour des conditions “idéales” en performances et résolutions maximales…



<img data-src=" />


votre avatar

‘fin bon “CPU limited”…sachant que le moindre i3 haswell te permet d’atteindre un nombre de FPS suffisant dans BF4 en FullHD…un peu d’optimisation ne fait pas de mal, mais est-ce que ce sera suffisant pour convaincre les développeurs?









kikoo25 a écrit :



Ahaha, AMD avoue publiquement que ses propres processeurs même haut de gamme sont à la traine comparé à Intel !







Il ne s’en cachent plus, même dans leur communication ;)







Angelus69 a écrit :



A10-7700K avec une R9 290X faut osez aussi <img data-src=" />

Beaucoup de test avec des Intel alors que c’est pour les cpu de Amd qui sont limité lol







je dois avouer que le mélange est un peu…sale <img data-src=" />


votre avatar







divide a écrit :



A mon avis NVIDIA s’en fout, dans la mesure où les devs vont pas se faire chier à coder du Mantle (dont le code est spécifique à chaque vendeur GPU, chaque génération de GPU et chaque plateforme ..!) pour gagner 15% de perf, alors qu’en remaniant un peu son code DX ou OGL on peut facilement soi-même réduire le nombre de drawcalls (si c’est vraiment un facteur limitant..). Ya plein de techniques pour ça dans les 2 APIs, et surtout un seul code DX ou OGL est universel pour toutes les combinaisons de GPU/Plateforme (surtout avec OGL).

En fait NVIDIA a déjà donné sa réponse, c’est proposer plus d’outils utiles aux développeurs (entre autre via le nouveau SDK Gameworks).





Dans le fond c’est surtout Intel à qui ça risque de poser des problèmes, puisqu’ils sont assez directement visés par les optimisations côté APU et travaillent eux-même depuis un moment sur l’optimisation des jeux pour les parties graphiques intégrées. Il faudra voir comment cela réagira de ce point de vue là, après l’important avec Mantle, c’est surtout de voir les gains dans de très nombreux cas, et combinaisons, afin de voir si les gains importants permettent réellement de faire la différence ou pas (on a souvenir des +50% annoncés d’une génération à une autre dans des jeux et des cas qui passent de 10 à 15 FPS….).


votre avatar







PermaBananaed a écrit :



<img data-src=" />







+1



c’est l’api de Microsoft qui est à la ramasse depuis qu’ils ont abandonné le PC au profits de leur console



j’aimerais bien que NVIDIA signe un accord de licence a AMD (moyenant finance) mais vu leur grosse tête j’en doute

là ça serais la fin de Dx ça ferais les pied à grosoft d’avoir négligé ces principale clients


votre avatar







kikoo25 a écrit :



Ahaha, AMD avoue publiquement que ses propres processeurs même haut de gamme sont à la traine comparé à Intel !







eu toi tu connais pas la gamme AMD

surtout que AMD ne fait pas de pross haut de gamme et s’arrète au medium gamme a 175€ pour un pross équivalent a 200 chez intel



pas d’équivalent pour les gros pross intel a + de 200€


votre avatar

Il faut avoir une HD7xxx pour plus de performances ?



Bon et bien je n’y gouterai jamais alors. Quand je remplace ma HD6850, ce ne sera sûrement pas avec une AMD/ATI.



Moi, AMD, c’est comme rouler en FIAT … plus jamais !

votre avatar

c’est beau de croire que l’herbe est plus verte ailleurs <img data-src=" />

votre avatar







yeagermach1 a écrit :



Ils disent vouloir la mettre libre (enfin que n’importe qui puisse l’utiliser via argent). Le truc marrant, c’est que CUDA du concurrent est aussi “libre” mais AMD a refusé d’y passer.



La meilleur solution, c’est MS qui améliore son DX (comme ca les deux seront obligé de suivre). Cette solution marche aussi avec OpenGL. La pire, NVIDIA développe son propre Mantle. Et les devs se retrouvent a devoir coder : un DX/Open pour les vieilles cartes, un mantle pour les cartes AMD, un mantle-like pour les cartes nvidia …







L’ennui, c’est que plus on veut attaquer un hardware à bas niveau, plus on est tributaire des différences techniques entre les constructeurs, plus il est difficile de mettre tout le monde d’accord sur un standard.



Mais tu peux être certain que s’il y a quelque chose qui est standardisable, ça finira par être intégré aux grandes API.


votre avatar







Malesendou a écrit :



Faux, une phrase commence toujours par un majuscule et se termine par un “point”.







grâce à Mantle l’application suggestion orthographique ira plus vite. <img data-src=" />


votre avatar

A ceux qui croient que Nvidia s’en fout. Il y a des ingé de chez eux qui trainent sur les forums AMD depuis que ce dernier a annoncé mantle.

votre avatar







Malesendou a écrit :



Faux, une phrase commence toujours par un majuscule et se termine par un “point”.





<img data-src=" />Ha ben oui.


votre avatar







sr17 a écrit :



Justement non.



Il y aura toujours des cas ou l’on ne pourra pas réduire le nombre de “drawcall”. Et les techniques visant à les réduire coûtent aussi de la puissance CPU, ce qui est dans certains cas le facteur limitant.







Pour avoir suivis (coté dev) l’évolution d’OpenGL depuis 2000, le nombre de calculs et d’algos qui sont déportables du CPU vers le GPU est de plus en plus impressionnant, et cette évolution des standards à diminué d’autant le nombre de drawcalls CPU, les GPU étant de plus en plus autonomes. Donc si tu en arrive au point que le nombre de draw calls est si important dans la charge CPU, c’est qu’il y a vraiment un truc mal branlé dans ton code à la base (comprendre: tu n’as pas su tirer partie au mieux des possibilités de DX/OGL en terme de fonctionnalité, ou tu dois franchement revoir tes passes de rendu).

Par exemple à l’époque d’OpenGL 1.4, il fallait envoyer manuellement tous les sommets d’une sphères en les reliant entre eux (et autant de drawcalls donc), aujourd’hui il suffit juste de demander au GPU de créer une sphère (geometry shader). Pareil pour l’éclairage géré par les shaders, les rendus sur plusieurs targets simultanéments, etc, etc.







sr17 a écrit :



Pourtant, d’un point de vue technique, il est évident que les API de haut niveau sont devenu un énorme facteur limitant. Et c’est encore plus vrai quand on s’éloigne des techniques de rendu standard.







Pour moi coté développeur le facteur limitant c’est clairement la complexité de développement. L’optimisation, ya 10 chemins différents pour y arriver, mais apprendre la spécificité de l’architecture de tel GPU de telle génération sur telle plateforme, et refaire 6 fois de manière différentes le même algorithme (avec logiquement 6 fois plus de temps de dev et de debug), c’est une perte de temps qui aurait pu être investie dans la recherche d’un algo plus performant.

C’est comme si on revenait à l’écriture de programmes illisibles en assembleur, avec du code spécifique pour Intel/AMD, au lieu d’écrire un code lisible et unique en C++.







sr17 a écrit :



On peut certainement s’atteindre à des gains beaucoup plus importants avec certaines techniques novatrices de rendu de terrain.







Bah la génération et le rendu d’un terrain c’est typiquement un truc qui peut être déporté entièrement sur GPU, pour peu qu’il ai les bons geometry/vertex/pixel shader un terrain hyper complexe peut se faire en moins de 10 draw calls…


votre avatar







kikoo25 a écrit :



Ahaha, AMD avoue publiquement que ses propres processeurs même haut de gamme sont à la traine comparé à Intel !







En même temps sur leur proco ils ont mis une r9 290x et sur l’intekl une r7 260x donc le résultat final est assez choquant. Avec une r9 290x sur l’intel je pense que le résultat se rapprocherait déjà un peu plus de celui d’amd(je pense genre 15% de cpu limited)







yeagermach1 a écrit :



Ils disent vouloir la mettre libre (enfin que n’importe qui puisse l’utiliser via argent). Le truc marrant, c’est que CUDA du concurrent est aussi “libre” mais AMD a refusé d’y passer.







Cuda libre? J’ai loupé un épisode?


votre avatar







sr17 a écrit :



L’ennui, c’est que plus on veut attaquer un hardware à bas niveau, plus on est tributaire des différences techniques entre les constructeurs, plus il est difficile de mettre tout le monde d’accord sur un standard.



Mais tu peux être certain que s’il y a quelque chose qui est standardisable, ça finira par être intégré aux grandes API.





Je me doute bien, ce qui m’inquiète, c’est la situation entre. Si on prend BF4, en moteur de rendu, il a :




  • celui pour PS4

  • celui pour XOne

  • celui pour DX

  • celui pour Mantle



    Cela va être pareil pour Thief 4 et sans aucun doute pour plein d’autres jeux. On parle pas de “simples” ajouts d’effet comme le propose PhysX, mais bien d’un moteur de rendu réécrit.



    Donc si cela a vraiment du succés, ou MS updatera son DX pour faire du mantle-like, la chronos corporation fera sans doute de meme. Cela si c’est possible bien sur. Et si cela l’est pas, Nvidia sortira forcement son équivalent (parce que cela m’étonnerait qu’ils utilisent Mantle). Et les développeurs se retrouveront a dev un nouveau moteur de rendu qui se rajoutera aux autres. Ça coute cher a force.


votre avatar







bojack9512 a écrit :



Cuda libre? J’ai loupé un épisode?





Nvidia a indiqué qu’il ne s’opposerait pas a ce qu’AMD intègre Cuda dans ses cartes (moyennement finance bien sur). Donc c’est pas libre au sens classique du terme, mais pas non plus réservé au carte Nvidia. Bon AMD a dit niet préférant OpenCL.



Pour Mantle, AMD dit la même chose et on a pas la réponse de Nvidia (enfin si en partie : gsync).


votre avatar







yeagermach1 a écrit :



Donc si cela a vraiment du succés, ou MS updatera son DX pour faire du mantle-like, la chronos corporation fera sans doute de meme. Cela si c’est possible bien sur. Et si cela l’est pas, Nvidia sortira forcement son équivalent (parce que cela m’étonnerait qu’ils utilisent Mantle). Et les développeurs se retrouveront a dev un nouveau moteur de rendu qui se rajoutera aux autres. Ça coute cher a force.







Le pire, c’est que même si NVIDIA reprenait les specifications de Mantle tel quel, les développeurs seraient de toute facon obligés de réécrire 2 fois leur code, l’architecture hardware d’un GPU NVIDIA étant complètement différente de celle d’un GPU AMD. Pareil pour un hypothétique Mantle Intel, qui nécessiterait une 3eme réécriture de code. Et puis le double de tout ça à la nouvelle génération GPU de AMD/NV/Intel…

Donc cette techno est pourrie à la base…


votre avatar







kikoo25 a écrit :



Ahaha, AMD avoue publiquement que ses propres processeurs même haut de gamme sont à la traine comparé à Intel !







Tout dépends du point de vue, sur certains moteur comme le frostbyte ou le cry engine bien multithread AMD devance les i5. le problème étant que 80% des jeux sont au mieux dualthreads.



A défault d’avoir un IPC plutôt faible par coeur AMD a jouer la carte du nombre de coeur



Finalement ça paye dans l’optimisation.



Après pour en revenir a Mantle, simplement bienvenue !! Enfin quelques chose d’intéressant dans ce monde qui dort depuis quelques temps !


votre avatar
votre avatar







divide a écrit :



Le pire, c’est que même si NVIDIA reprenait les specifications de Mantle tel quel, les développeurs seraient de toute facon obligés de réécrire 2 fois leur code, l’architecture hardware d’un GPU NVIDIA étant complètement différente de celle d’un GPU AMD. Pareil pour un hypothétique Mantle Intel, qui nécessiterait une 3eme réécriture de code. Et puis le double de tout ça à la nouvelle génération GPU de AMD/NV/Intel…

Donc cette techno est pourrie à la base…





Le pire c’est que la techno en elle même est intéressante, mais comme c’est limite impossible a généraliser, elle en devient pourrie.


votre avatar







yeagermach1 a écrit :



Nvidia a indiqué qu’il ne s’opposerait pas a ce qu’AMD intègre Cuda dans ses cartes (moyennement finance bien sur). Donc c’est pas libre au sens classique du terme, mais pas non plus réservé au carte Nvidia. Bon AMD a dit niet préférant OpenCL.



Pour Mantle, AMD dit la même chose et on a pas la réponse de Nvidia (enfin si en partie : gsync).







Ah libre dans ce sens effectivement^^.



En même temps je vois pas l’intérêt de AMD pour Cuda quand je vois les performances en OpenCL sur des trucs genre minage de litecoin et autre(une 780ti est du niveau d’une r9 270x)mais bon comme cette techno n’est utilisée par personne pratiquement(en tout cas je connais aucun truc qui s’en sert personnellement)ce qui est plutôt dommage.


votre avatar







bojack9512 a écrit :



Ah libre dans ce sens effectivement^^.



En même temps je vois pas l’intérêt de AMD pour Cuda quand je vois les performances en OpenCL sur des trucs genre minage de litecoin et autre(une 780ti est du niveau d’une r9 270x)mais bon comme cette techno n’est utilisée par personne pratiquement(en tout cas je connais aucun truc qui s’en sert personnellement)ce qui est plutôt dommage.





L’intérêt il serait pour les utilisateurs de AMD qui pourraient avoir les trucs en plus que permettent CUDA : physX par exemple.


votre avatar







kikoo25 a écrit :



Ahaha, AMD avoue publiquement que ses propres processeurs même haut de gamme sont à la traine comparé à Intel !





L’A10 n’est pas un processeur haut de gamme. C’est un APU haut de gamme, nuance.


votre avatar







Malesendou a écrit :



Faux, une phrase commence toujours par un majuscule et se termine par un “point”.







Houlà. On doit pouvoir trouver des contre-exemples dans la frange la plus hardcore du Nouveau Roman. <img data-src=" />


votre avatar







kail a écrit :



L’A10 n’est pas un processeur haut de gamme. C’est un APU haut de gamme, nuance.







Il peut enfin remplacer ma HD6850 ?


votre avatar







divide a écrit :



Pour avoir suivis (coté dev) l’évolution d’OpenGL depuis 2000, le nombre de calculs et d’algos qui sont déportables du CPU vers le GPU est de plus en plus impressionnant, et cette évolution des standards à diminué d’autant le nombre de drawcalls CPU, les GPU étant de plus en plus autonomes. Donc si tu en arrive au point que le nombre de draw calls est si important dans la charge CPU, c’est qu’il y a vraiment un truc mal branlé dans ton code à la base (comprendre: tu n’as pas su tirer partie au mieux des possibilités de DX/OGL en terme de fonctionnalité, ou tu dois franchement revoir tes passes de rendu).

Par exemple à l’époque d’OpenGL 1.4, il fallait envoyer manuellement tous les sommets d’une sphères en les reliant entre eux (et autant de drawcalls donc), aujourd’hui il suffit juste de demander au GPU de créer une sphère (geometry shader). Pareil pour l’éclairage géré par les shaders, les rendus sur plusieurs targets simultanéments, etc, etc.







Tout cela est bien joli en théorie.



Mais en pratique, il y a toujours un moment ou l’on ne peut pas remplacer les draw calls.



Les optimisations, il y a toujours des limitations. Il faut des objets identiques, ou des objets dont la géométrie peut être calculée, ou des objets qui ont des textures identiques, etc, etc…



En fait, la plupart des optimisations possibles sont juste prévues pour résoudre des cas de figure bien classiques.



Donc si tu vise l’utilisation de techniques classiques pour faire un jeu bien stéréotypé, tout va bien. Sinon, le cauchemar commence…



Des que tu sors un peu des sentiers battus, tu réalise à quel point tout est mal foutu et plein de limitations.



D’ailleurs, je pense que les gains de Mantle se passent de commentaire et montrent bien la perte engendrée par les API.



Le fait même d’un tel gain dans un cas de figure classique laisse présager tout ce qu’on peut en attendre dans d’autres cas de figure.





Pour moi coté développeur le facteur limitant c’est clairement la complexité de développement. L’optimisation, ya 10 chemins différents pour y arriver, mais apprendre la spécificité de l’architecture de tel GPU de telle génération sur telle plateforme, et refaire 6 fois de manière différentes le même algorithme (avec logiquement 6 fois plus de temps de dev et de debug), c’est une perte de temps qui aurait pu être investie dans la recherche d’un algo plus performant.

C’est comme si on revenait à l’écriture de programmes illisibles en assembleur, avec du code spécifique pour Intel/AMD, au lieu d’écrire un code lisible et unique en C++.





Certes, descendre à bas niveau présente des inconvénients en terme de complexité.

Mais cela peut simplifier aussi les choses dans certains cas de figure.



Mais surtout, il n’y a pas d’autre moyen si l’on veut vraiment tirer partie de l’intégralité de la puissance du matériel.



La question, c’est de savoir si un jour les fabricants de GPU seront capables de standardiser leur hardware pour qu’on puisse tirer partie de toute la puissance sans écrire 50 versions différentes.





Bah la génération et le rendu d’un terrain c’est typiquement un truc qui peut être déporté entièrement sur GPU, pour peu qu’il ai les bons geometry/vertex/pixel shader un terrain hyper complexe peut se faire en moins de 10 draw calls…





Oui, dans certains cas de figure. Si par terrain, on entends un truc complexe mais classique fait à partir de heightmaps ou de formules avec tesselation, les GPU savent très bien faire.



Ce genre de cas peut paraitre complexe, il est en réalité très classique et assez bien optimisé par les API.



Les problèmes, c’est quand tu veux faire des choses qui ne sont pas classiques. Les API ne sont pas du tout faites pour, ni optimisées pour et donc deviennent au final des barrières à la créativité.







votre avatar







metaphore54 a écrit :



Il peut enfin remplacer ma HD6850 ?





Non, et ce modèle coute 170€ ! le prix d’un i5.



il est au niveau d’une AMD 6670 GDDR5 (ou une R7 240 par exemple)


votre avatar







metaphore54 a écrit :



Il peut enfin remplacer ma HD6850 ?





Non bien sûr. C’est plutôt du niveau d’une 6670.


votre avatar







mum1989 a écrit :



Non, et ce modèle coute 170€ ! le prix d’un i5.



il est au niveau d’une AMD 6670 GDDR5 (ou une R7 240 par exemple)





De 150 à 170 € oui. Un i5 dans cet ordre de prix possède une partie graphique 2 fois moins puissante. Ceux qui sont à la recherche d’un APU seul pour le jeu vont logiquement prendre AMD.


votre avatar







sr17 a écrit :



La question, c’est de savoir si un jour les fabricants de GPU seront capables de standardiser leur hardware pour qu’on puisse tirer partie de toute la puissance sans écrire 50 versions différentes.







Je crois que cela resta un vœu pieux. Quand on voit, pour Intel, qu’entre deux versions de leur processeurs, certaines instructions x86 prennent un X5 en nombre de cycle d’horloges consommé alors que d’autres vont diminuer.

J’ai du mal à croire que plusieurs compagnies puissent avoir des GPU supportant les mêmes optimisations.


votre avatar







kail a écrit :



De 150 à 170 € oui. Un i5 dans cet ordre de prix possède une partie graphique 2 fois moins puissante. Ceux qui sont à la recherche d’un APU seul pour le jeu vont logiquement prendre AMD.





sauf ceux qui veulent du mini itx très compact,

autant prendre un CPU à 70-80€ (aussi perf qu’un 7850k) + une carte graphique nettement plus puissante(2fois) pour 75€ comme une R7 250(GDDR5) ou une 7750, l’idéal serait de prendre une 7790/260x.


votre avatar

En tout cas, les gains sont réels sur un APU. Je ne m’attendais pas à de tels gains réels en fait.



Mais malgré certains commentaires, je n’irai pas jeter la pierre à DirectX ou OpenGL.



Ces 2 APIs permettent de développer des jeux et des applis géniaux. Si elles se mettent en travers du chemin de certains développeurs, je ne crois pas que ce soit le cas pour la majorité.



Maintenant, pensons d’abord à ce que représente Mantle + BF4: c’est pour moi un signal aux développeurs de jeux: “eh regardez! Nous avons un moteur bien boosté sur plateforme AMD. Vous savez, celle qui est à la base de Xbox One et PS4.”



Quoiqu’on en dise, que DirectX est incontournable sur XBox,que la PS4 a son propre kit de dev, et que les steamBox sont sous Linux sur lequel AMD ne brille pas toujours, je suis prêt à dire que les décideurs, les hauts gradés des entreprises de jeux vidéos et les constructeurs de machines, comprendrons surtout “ici AMD: nous sommes toujours là et nous nous occupons des perfs sur des plate-formes à budget serré”



Je pense donc (ainsi que les actionnaires AMD qui ont porté plainte) que AMD pose les bases d’une bonne passe de 1 ou 2 ans mini, pendant laquelle ils pourraient reprendre des parts de marché à Intel, poser problème à NVidia et s’ils sortent une solution adéquat compatible Mantle, arriver sur tablette.



J’ai l’impression que ce Mantle est une réussite au moins en communication.

votre avatar







mum1989 a écrit :



Preview chez anandtech :

http://www.anandtech.com/show/7728/battlefield-4-mantle-preview





On voit encore une fois a quel point les tests sont biaises…



Mantle est en priorité développé pour les cpu AMD, surtout les moyens de gamme. Et la nous avons…un test sur cpu Intel haut de gamme..avec comme conclusion logique, pour un lecteur moyen: Mantle c’est 10% de perf inlay, donc BS.



Ils n’auraient vraiment pas les moyens d’utiliser un cpu AMD, voir un kaveri pour cette preview (et rajouter du haut de gamme ensuite) ?


votre avatar







the_pdf a écrit :



On voit encore une fois a quel point les tests sont biaises…



Mantle est en priorité développé pour les cpu AMD, surtout les moyens de gamme. Et la nous avons…un test sur cpu Intel haut de gamme..avec comme conclusion logique, pour un lecteur moyen: Mantle c’est 10% de perf inlay, donc BS.



Ils n’auraient vraiment pas les moyens d’utiliser un cpu AMD, voir un kaveri pour cette preview (et rajouter du haut de gamme ensuite) ?





c’est une preview, peut être qu’ils n’avaient pas de CPU AMD sous la main



Après ils ont quand même testé en mode dual core+HT, quad core et 6cores+ht, et à des fréquences plus basses.


votre avatar







the_pdf a écrit :



On voit encore une fois a quel point les tests sont biaises…



Mantle est en priorité développé pour les cpu AMD, surtout les moyens de gamme. Et la nous avons…un test sur cpu Intel haut de gamme..avec comme conclusion logique, pour un lecteur moyen: Mantle c’est 10% de perf inlay, donc BS.



Ils n’auraient vraiment pas les moyens d’utiliser un cpu AMD, voir un kaveri pour cette preview (et rajouter du haut de gamme ensuite) ?





Dur à croire, mais je peux toujours y croire<img data-src=" />

C’est vrai qu’un i7 avec 15 meg de cache est un proc plutôt courant et certainement très diffusé.

A ce niveau, la preview de guru3D est beaucoup plus réaliste.


votre avatar

“More with more”



vs



“Travaillez plus pour gagner plus”



<img data-src=" />

votre avatar

Beaucoup de bullshits dans les premiers comms de cette news… et pas spécialement dans ceux que je vais citer



On dirait qu’il y a autant de sérieux ici que dans un débat sur la théorie des genres …

Donc ça trolle pour défendre son troupeau mais au final personne n’a vraiment vu mantle tourné, ni de tests sérieux dessus et pourtant y a autant d’experts sur le sujet que d’auteurs de comms … <img data-src=" />









yeagermach1 a écrit :



L’intérêt il serait pour les utilisateurs de AMD qui pourraient avoir les trucs en plus que permettent CUDA : physX par exemple.







PhysX avec 3 jeux compatible par an et un intérêt en perfs proche de zéro avec une config qui dépasse pas les 700 euros ? ( AMD a et aura toujours le meilleur rapport qualité-prix pourquoi tu voudrais qu’ils dépensent des royalties pour des techno dont l’intérêt est limité par le prix de ta config … )



Enfin bon prenons ton argument en le transposant dans le sens de la news … donc si y a 3 jeux compatible mantle par an, tu trouverais ça logique et normal que Nvidia développe ces prochaines cartes avec du compatible mantle ( vu que AMD serait ok ) dans l’intérêt des utilisateurs Nvidia …. ?



Rendez-vous dans 2 ans alors pour voir qui des deux firmes est capable de ravaler sa fierté en faveur de ses clients …









yeagermach1 a écrit :



Nvidia a indiqué qu’il ne s’opposerait pas a ce qu’AMD intègre Cuda dans ses cartes (moyennement finance bien sur). Donc c’est pas libre au sens classique du terme, mais pas non plus réservé au carte Nvidia. Bon AMD a dit niet préférant OpenCL.



Pour Mantle, AMD dit la même chose et on a pas la réponse de Nvidia (enfin si en partie : gsync).







La réponse est déjà là

Donc c’est pas libre





Je vois pas en quoi Gsync est une réponse Nvidia à mantle … quoi Nvidia peut pas rétorquer une solution sans faire changer d’écran leurs clients ?

C’est ça que t’essayes de dire ?

<img data-src=" /> Je te soupçonnerai presque de troller pour AMD en te faisant passer pour un Fan Nvidia <img data-src=" />



( je dis Fan parce que tes arguments tiennent pas la route niveau logique donc t’es déjà pu un client mais un fan qui a mis sa raison de coté enfin je le vois comme ça )



Non mais un peu de sérieux …. AMD vs Nvidia c’est comme Apple vs Microsoft dans les années 90 les clients n’ont pas leurs mots à dire juste leurs troupeaux à choisir …


votre avatar







yeagermach1 a écrit :



L’intérêt il serait pour les utilisateurs de AMD qui pourraient avoir les trucs en plus que permettent CUDA : physX par exemple.







Heu physx c’est pas une puce supplémentaire(ou je sais pas quoi)sur la carte graphique qui est à part de Cuda? Parce que cuda existait chez nvidia avant le rachat de physx…



Me semblait que Cuda et openCL permettaient des trucs comme physx mais en moins poussé…


votre avatar







Ricard a écrit :



<img data-src=" />Incroyable… Une phrase sans aucune faute….<img data-src=" />







<img data-src=" />Sans déc… Un comm sans aucun intérêt … <img data-src=" />


votre avatar



AMD Catalyst™ 14.1 Beta Driver for Windows®:





http://support.amd.com/en-us/kb-articles/Pages/latest-catalyst-windows-beta.aspx





<img data-src=" />

votre avatar

Sur Star Swarm, je passe de 32 fps de moyenne à 41 sur une 7870 avec un i5 3570k … ca fait quand même presque 30% <img data-src=" />

votre avatar







Ideal a écrit :



Ohlalala ….. déjà je dis 3 jeux c’est bien sur pas un chiffre exact certaines années c’est 4, d’autres années c’est 2 …. si sur ça je dois t’expliquer on est pas sorti de l’auberge …

Et même si c’est 10 jeux par an ( ça ne l’est pas c’est plutôt 1 par an ) ça justifiera jamais que AMD paye pour en faire profiter leurs futures cartes ( oh wait on peut faire fonctionner du phyx sur ati mais nvidia impose le patch immédiat pour bloquer ça et c’est normal )







Sinon tu apprends a lire, ce que tu me corriges, je le dit moi même.





Les dev s’y mettent pas parce que c’est chronophage pour peu d’avantages et plus de se couper de la moitié des joueurs … et bon y a havok et d’autres moteurs si tu veux faire de la particule c’est pas comme si PhysX était la seule et unique façon de faire.





Deja physX ne tourne pas qu’en mode GPU et c’est un des moteurs CPU les plus utilisés. Après si tu avais lu mes autres posts, tu verrais que je râle sur la multiplication des moteurs de rendus qui a comme conséquence de bouffer du temps et donc de l’argent aux devs.





Beeh c’est transposable pour physX … et c’est toi qui en a utilisé l’argument ( de “AMD aurait pu implémenter PhysX dans l’intérêt de ses clients en payant des royalties” ) en premier je te rappelle …

Bref argument bancal et donc mauvaise foi qui suit pour défendre ton argument …





Encore une fois ai-je dit le contraire ?? NON, NON et NON. Mais comme Nvidia a l’époque, AMD le sait très bien et c’est bien pour cela qu’ils disent que tout le monde a droit d’implémenter Mantle et que c’est “libre”. Dans la pratique, il y a tres peu de chance. Par contre il y a bien plus de chance que Nvidia sorte son mantle-like et que les devs se retrouvent a devoir faire un moteur de plus. Ou envoyer bouler les deux.







Avec 3 jeux par an c’est évident …. Reste à voir si mantle fera mieux que 3 jeux par an ….oui.





C’est le serpent qui se mord la queue ton argumentation : AMD ne veut pas de CUDA/PhysX parce que c’est que trois jeux/ans. C’est trois jeux/ans parce que les devs ne veulent pas se faire chier pour seulement 50% des gens. C’est 50% des gens parce qu’il y a deux autres fournisseurs de carte videos …



Reste qu’a situation similaire, on a eu la réponse d’AMD : NIET. Reste a avoir la réponse de Nvidia aujourd’hui. Les prochaines annonces chez eux, c’est leur conférence de fin mars.



Au passage actuellement AMD c’est 31% des configs des utilisateurs Steam, tu crois que les devs vont vouloir se faire chier pour même pas 50% ?





Oué d’un coup ça devient bien plus logique …. tu sais le fait de dire il faut gagner des FPS pour éliminer le tearing est déjà inexact … sinon pourquoi acheter un moniteur compatible G-sync autant acheter une 2ème 780 …





C’est la réponse du mec de chez Nvidia. Mantle est la pour gagner des FPS ou plutôt pour te faire plaisir pour réduire le 99%. Ce qui améliorera le tearing. Le mec de Nvidia répond que pour eux la bonne solution c’est plutôt le GSync. Il ajoute d’ailleurs a coté que pour faire du bas niveau, ils fournissent déjà des bibliothèques (tout comme AMD). Et Mantle va juste plus loin encore.





Et la réponse de AMD au G-sync s’appellera Freesync il te l’avait pas dis ton responsable …?





A l’époque (juste après l’annonce de Mantle), AMD avait pas communiqué dessus. Comment le mec de Nvidia aurait pu communiquer dessus. Au passage, cela a fait l’objet de news sur PCI.





Des arguments, concernant la politique d’une entreprise A, provenant d’un responsable Nvidia un Fanboy qui reçoit un chèque de l’entreprise B?



Un fanboy n’est souvent pas conscient d’être un Fanboy….

Un troll peut être conscient d’être un troll….

Un fanboy conscient d’être un fanboy est un troll ( mais il n’est pas forcément conscient d’être un troll )…



L’important c’est pas d’être un fanboy ou un troll l’important c’est d’en être conscient.





Tu lis pas les commentaires, tu surinterprètes le peu que tu lis et tu viens faire la morale …


votre avatar

Je pense qu’AMD a intérêt à maintenir le projet Mantle en vie et pousser son produit.



Car, si Mantle est accepté par les boites de devs, ça pourrait faire mal à DirectX/Windows, car Mantle pourrait tout aussi bien commencer à faire monter Linux dans le monde du jeuxvideo. Bref, seul l’avenir nous le dira.



Maintenant, j’ai confiance en AMD/Mantle, car les deux consoles Next-Gen qui sont sorties, embarque du AMD.



Donc Monsieur AMD, ne soyez pas trop con et ne vous loupez pas avec votre innovation, car vous avez toutes les cartes en main pour réussir ! <img data-src=" />

votre avatar









typhoon006 a écrit :



Bien tenté <img data-src=" />









comment ca “bien tenté” j’ai aucun des soucis que tu as copié coller, moi je constate simplement que ca fonctionne comme je l’ai decrit point. Il est marrant lui. <img data-src=" />


votre avatar

Faut pas oublier que DirectX ce n’est pas que la partie graphique…

votre avatar







yeagermach1 a écrit :



Tu lis pas les commentaires, tu surinterprètes le peu que tu lis et tu viens faire la morale …







J’avoue que pour le 3 jeux par an j’ai cru que tu ergotais pour mon chiffre j’ai dégainer trop vite … si tu es d’accord sur les 3 jeux par an pourquoi vouloir que AMD paye son concurrent direct pour si peu …. C’est pas très logique



Mais pour tout le reste je maintiens …



Sinon je suis d’accord avec toi pour les solutions propriétaires qui se multiplient mais l’important c’est pas tant la multiplications des solutions que leur accès forcément payant ou pas … Après tout c’est un système capitaliste le progrès est fréquent et pour en bénéficier il faut s’équiper et payer …



Dans le domaine on doit bien avouer que nvidia propose bcp de choses mais rarement gratuites …

Gsync avec rachat de moniteur ou même physx, je pense qu’il fallait obligatoirement investir dans une nouvelle carte après le rachat de physx…



En face AMD propose aussi mais c’est plus fréquemment gratis …

Mandle par exemple a l’air assez rétroactif et freesync n’imposera pas de dépenses matérielles il me semble …







yeagermach1 a écrit :



C’est le serpent qui se mord la queue ton argumentation : AMD ne veut pas de CUDA/PhysX parce que c’est que trois jeux/ans. C’est trois jeux/ans parce que les devs ne veulent pas se faire chier pour seulement 50% des gens. C’est 50% des gens parce qu’il y a deux autres fournisseurs de carte videos …







C’est pas mon argumentation qui se mord la queue, c’est la réalité sur le non-succés de physx…

AMD veut pas de cuda/physx car c’est payant et pas incontournable et les dev n’en veulent pas car c’est pas incontournable et ça les coupe du moitié du marché pourtant les couts et les temps de dev sont ajoutés dans celui du projet…

Nvidia n’a qu’à financer cette partie du job jusqu’à ce que physx devienne incontournable … même AMD devra s’y plier après ( mais pas avant )



Donc sachant cela pourquoi AMD payerait pour répercuter ce cout sur les clients … sachant que la seule force d’AMD est son rapport perf/prix …







yeagermach1 a écrit :



Reste qu’a situation similaire, on a eu la réponse d’AMD : NIET. Reste a avoir la réponse de Nvidia aujourd’hui. Les prochaines annonces chez eux, c’est leur conférence de fin mars.



Au passage actuellement AMD c’est 31% des configs des utilisateurs Steam, tu crois que les devs vont vouloir se faire chier pour même pas 50% ?







Face à physx y a havoc et d’autres moteurs ou modules d’engine 3D..

Mantle sert uniquement à donner de meilleures perfs tandis que physx ajoute de la charge …

Donc oué ptet que les dev vont y trouver de l’intérêt même si ça concerne 31% des clients steam …



Et oué 31% pour AMD et il me semble que nvidia c’est 50% le reste étant du intel ou chipset intégré bref… le reste ne bénéficiant pas non plus de PhysX donc la moitié du marché comme je disais…



Mandle est loin d’être dans la même position que Physx y a rien à comparer entre les deux à part qu’ils sont propriétaire et que leur succès se fera uniquement par les développeurs de jeux.


votre avatar

le truc con de physix c’est que nvidia bloque artificiellement le truc si t’a la bonne idée d’utiliser une carte ATI pour l’affichage



sans cete limitation ça aurais pu marcher



ils ont racheté une societé puis se sont tiré une balle dans le pied alors qu’il aurais pu envahir le marché avec des carte dédié @50€


votre avatar

David, a quand un test ?

votre avatar







Ideal a écrit :



[…]

Face à physx y a havoc et d’autres moteurs ou modules d’engine 3D..

Mantle sert uniquement à donner de meilleures perfs tandis que physx ajoute de la charge …

[…]







Ce ne sont pas du tout les mêmes choses pour moi.



PhysX est normalement complètement inutile : les dev peuvent très bien coder leurs effets de voilages et multiplier les sprites et autres particules tout autant que tu peux régler le niveau de polygones des models en augmentant le niveau de qualité graphique dans les options. Sauf qu’ils ne le font pas car il faut bien trouver un argument marketting à PhysX pour les jeux dont NVidia soudoie les boites pour qu’ils soient « the way meant to be played. » Et quand on voit le fiasco avec notamment Crysis 2, on se demande s’ils ne font pas exprès d’introduire du code pourri (et des clauses de contrat) pour favoriser leur paroisse.



Le rendu global de PhysX est très mal foutu en plus de plomber les FPS.





On se rapproche de plus en plus des jeux AMD ou NVidia only sans quoi tu as des perfs à chier (voir le jeu ne se lancera pas).


votre avatar







Emralegna a écrit :



Ce ne sont pas du tout les mêmes choses pour moi.



PhysX est normalement complètement inutile : les dev peuvent très bien coder leurs effets de voilages et multiplier les sprites et autres particules tout autant que tu peux régler le niveau de polygones des models en augmentant le niveau de qualité graphique dans les options. Sauf qu’ils ne le font pas car il faut bien trouver un argument marketting à PhysX pour les jeux dont NVidia soudoie les boites pour qu’ils soient « the way meant to be played. » Et quand on voit le fiasco avec notamment Crysis 2, on se demande s’ils ne font pas exprès d’introduire du code pourri (et des clauses de contrat) pour favoriser leur paroisse.



Le rendu global de PhysX est très mal foutu en plus de plomber les FPS.





On se rapproche de plus en plus des jeux AMD ou NVidia only sans quoi tu as des perfs à chier (voir le jeu ne se lancera pas).





Sauf qu’ils le font pas parce que cela demande du temps et des hommes d’optimiser le bouzin.



Ce qu’apporte Nvidia c’est un savoir faire qui permet d’optimiser au mieux le jeu pour les cartes nvidia, ce qui permet de placer des effets supplémentaires. Et ATI fait exactement la même chose avec son programme de fidélité.



Le problème de crysis 2 HD était pas physX ou un autre programme de fidélité. C’est la façon dont tourne le cry engine. Pour ce moteur par défaut, en dessous d’un certain niveau il y a de l’eau. Cette eau est rendu qu’on la voit ou pas. Dans Crysis 2 HD, crytek a utilisé la tessalisation pour rendre cette eau. Quand c’est visible c’est splendide, quand cela l’est pas c’est bouffeur de ressource. Le truc c’est que au niveau de la tessalisation, il y a deux façons de voir les choses :




  • soit on l’applique de façon ponctuelle.

  • soit on l’applique de façon massive.



    Les cartes ATI de l’époque étaient bonnes pour la ponctuelle, les cartes nvidias pour la ponctuelle et la massive.



    Dans Crysis 2 HD, la tessalisation de l’eau entrait dans la catégorie massive. Et cela désavantageait les cartes ATI.



    Et en plus de l’eau, il y avait pas mal d’autres éléments utilisant cette techno.



    A l’époque ATI a fait toute une campagne disant que c’était la mauvaise façon de l’utiliser. Mais c’était pas vrai. C’était une façon de faire comme une autre, pas plus mauvaise que l’autre. Et ATI ne pouvait s’en prendre qu’a eux même vu que c’était leur choix qui entrainait une perte de perf sous ce moteur.



    Il y avait le même problème avec le jeu Hawx 2.



    Perso je pense que les responsabilité c’étaient 50-50. 50% pour Crytek qui avait fait le choix d’utiliser la tessalisation de façon massive. 50% pour ATI qui avait fait le choix de ne pas supporter ce genre de tessalisation. Nvidia c’est sur n’allait pas s’y opposer, ces cartes pouvant le gérer tranquillement.


votre avatar







the_pdf a écrit :



David, a quand un test ?





J’en reparlerai bientôt, maintenant qu’on est correctement installés ;)


votre avatar







Emralegna a écrit :



Ce ne sont pas du tout les mêmes choses pour moi.







T’as du te gourer de mec vu que je disais pareil sans rentrer dans les détails à ce point …







Emralegna a écrit :



On se rapproche de plus en plus des jeux AMD ou NVidia only sans quoi tu as des perfs à chier (voir le jeu ne se lancera pas).







Ceci dit pour les jeux AMD only à part si les dev veulent se couper de la moitié du marché c pas possible ( tout comme physx d’où son non-succès sur le long terme )

Par contre si mantle permet ce qu’il promet AMD va gagner en perf/prix ( son principal avantage depuis toujours ).. ce qui va pousser nvidia et leurs clients à mettre encore plus la main au porte-monnaie…. le nerf de la guerre.





Les joueurs eux sont toujours à la recherche de jeux plus beaux ou plus rapide ( c’est selon le point de vue ).

Donc les dev seront toujours à la recherche de performances accrues ou de ressources-machine économisés ( selon le point de vue de la même façon )



Alors si mantle procure effectivement ce qui est promis ça sera un succès à part imprévu du genre bugg à répétition ou si hyper chronophage niveau de l’implémentation ….


votre avatar







yeagermach1 a écrit :



Dans Crysis 2 HD, crytek a utilisé la tessalisation pour rendre cette eau. Quand c’est visible c’est splendide, quand cela l’est pas c’est bouffeur de ressource. Le truc c’est que au niveau de la tessalisation, il y a deux façons de voir les choses :




  • soit on l’applique de façon ponctuelle.

  • soit on l’applique de façon massive.









    Je connais pas le dossier c’est plutôt intéressant par contre une question bête ptet que j’ai mal compris ta formulation …





    Quand c’est visible c’est splendide, quand cela l’est pas c’est bouffeur de ressource.





    On doit comprendre quand c’est pas visible c’est bouffeur de ressource mais quand c’est visible c’est pu bouffeur de ressources? ( possible après tout comme pour les voxels )



    Ou juste tu voulais dire que dans crysis la tesselation de l’eau, bien que splendide, était bouffeuse de ressources qu’on la voit ou pas .. ?





    Ceci dit j’ai pas du tout suivi le dossier de cette époque …La tesselation de l’eau aurait-elle pu être appliqué de façon ponctuelle comme sur d’autres engine par exemple ?


votre avatar

Et pour le support de TrueAudio des news à ce sujet ?

votre avatar

Rien vu passé a ce niveau. Peut être avec Thief 4.

votre avatar







yeagermach1 a écrit :



Le problème de MS, c’est que son DX doit fonctionner avec toutes les cartes et faire du bas niveau avec cette contrainte c’est pas simple, c’est même plutôt super compliqué et source de bug.



D’ailleurs mine de rien, c’est une sacré contrainte que vient de se rajouter AMD pour ses drivers et cartes futures. Va falloir maintenir la retro Mantle.









Nvidia va proposer son propre mantle et les deux boites vont rendre leur version compatible selon les directX que la gen de carte supporte…

Un peu comme le gap présent entre les config XP ne supportant que du dx 9 et les suivantes …

D’ailleurs ça pourrait pousser à la consommation de CG quelque part …



Au final les dev auront + de choix sur leur façon de dev mais si le bonus en perf est conséquent ça fera cela d’optimisation, au cas par cas, en moins à faire… sans compter que les engines 3D sont pas si nombreuses et donc ça va vite rentrer dans les moeurs.

En bref sur de gros volumes ( nombres de titres de jeux dev par gen ) ça sera surement très bénéfique mais ptet que j’ai zappé un aspect de la chose …


votre avatar







Ishan a écrit :



J’ai pas lu tout les commentaires mais en ai vu un certain nombre qui remonte un faux problème : L’écriture de version spécifique a Mantle.

C’est un faux problème dans le sens ou la grande majorité des jeux utilise un moteur clef en main (Unity, Havok, CryEngine, Unreal, etc…) Il “suffit” d’ajouter une version Mantle à ces moteurs pour voir la majorité des sorties le supporter.

C’est très certainement ce sur quoi AMD compte.



+1 c’est comme ça que je vois les choses également.

Vraiment hâte d’être débarrassée de DX qui t’oblige à t’acheter le dernier Windaube pour pouvoir en profiter.


votre avatar







Ideal a écrit :



Nvidia va proposer son propre mantle et les deux boites vont rendre leur version compatible selon les directX que la gen de carte supporte…

Un peu comme le gap présent entre les config XP ne supportant que du dx 9 et les suivantes …

D’ailleurs ça pourrait pousser à la consommation de CG quelque part …



Au final les dev auront + de choix sur leur façon de dev mais si le bonus en perf est conséquent ça fera cela d’optimisation, au cas par cas, en moins à faire… sans compter que les engines 3D sont pas si nombreuses et donc ça va vite rentrer dans les moeurs.

En bref sur de gros volumes ( nombres de titres de jeux dev par gen ) ça sera surement très bénéfique mais ptet que j’ai zappé un aspect de la chose …





Le truc c’est que Mantle ou disons techno bas niveau X est très dépendant de l’architecture de la carte. La question se pose sur la compatibilité de X sur les futures générations de carte. La maintenir va être source de problèmes. Dans 4-5 ans, il faut que les nouvelles cartes intégrant X supportent toujours les jeux intégrant X d’aujourd’hui.



Pour tirer partie au mieux des nouvelles archis, on aura X.1, X.2 … Et c’est normal. Mais est-ce que X.2 sera compatible avec X.1 (et donc avec les programmes utilisant X.1).



On le voit avec Cuda par exemple ou Nvidia ne peut pas sortir de son architecture. Ils l’améliorent mais un jour ou l’autre ils vont annoncer une cassure, un non support d’une ancienne version.


votre avatar







yeagermach1 a écrit :



Le truc c’est que Mantle ou disons techno bas niveau X est très dépendant de l’architecture de la carte. La question se pose sur la compatibilité de X sur les futures générations de carte. La maintenir va être source de problèmes. Dans 4-5 ans, il faut que les nouvelles cartes intégrant X supportent toujours les jeux intégrant X d’aujourd’hui.



Pour tirer partie au mieux des nouvelles archis, on aura X.1, X.2 … Et c’est normal. Mais est-ce que X.2 sera compatible avec X.1 (et donc avec les programmes utilisant X.1).



On le voit avec Cuda par exemple ou Nvidia ne peut pas sortir de son architecture. Ils l’améliorent mais un jour ou l’autre ils vont annoncer une cassure, un non support d’une ancienne version.







Je m’y connais surement pas assez d’ailleurs si t’as un lien en français genre dossier intéressant sur les API 3D je suis preneur …

Pour la cassure concernant cuda, directX a eu la sienne avec D9 mais bon c’est ptet pas comparable.


votre avatar







CaptainDangeax a écrit :



Je rejoins l’avis de beaucoup d’INpactiens et tiennes. Ce W.E., j’ai remplacé le HDD de mon portable ASUS (core i3+HD5470) par un SSD Intel. Réinstall de W7 et un bon paquets de redémarrages pour les drivers, les MàJ, on connais. En passant, le dernier Catalyst téléchargé chez AMD a refusé de s’installer, mais c’est pas trop grave, le GPU a été reconnu à l’install.



Install de LinuxMint 16 XFCE, tout marche du premier coup, un seul redémarrage après la MàJ du noyau, on connais aussi. Puis je décide d’installer FGLRX, le driver proprio d’AMD pour avoir de meilleures perfs qu’avec le driver libre. À la fin de l’install, écran noir. Ce <img data-src=" /> de driver a trouvé le moyen d’éteindre le rétro éclairage. Franchement, le jour où j’ai acheté cet ASUS à Carrefour, j’aurais dû torturer le vendeur pour qu’il m’en sorte un avec une NVidia dedans. En tout cas, AMD peut toujours essayer de compenser un déficit de performances, IL FAUT D’ABORD FAIRE DES DRIVERS QUI FONCTIONNENT !!!





Je m’autocite pour confirmer que les nouveaux drivers beta ne corrigent pas le bug du rétro-éclairage sur mon portable ASUS. Tant pis il reste avec les drivers libres qui, s’ils ne donnent pas les perfs maximales, au moins fonctionnent.


votre avatar







Ideal a écrit :



Je m’y connais surement pas assez d’ailleurs si t’as un lien en français genre dossier intéressant sur les API 3D je suis preneur …

Pour la cassure concernant cuda, directX a eu la sienne avec D9 mais bon c’est ptet pas comparable.





DX9 qui est toujours retro compatible avec DX10 et 11. Mais qui a de nombreux bugs non présent dans DX9 d’origine.


votre avatar



Si Mantle est limité aux cartes exploitant une architecture GCN (Radeon HD 7000 et plus récentes), seules celles qui disposent de GCN 1.1 peuvent vraiment tirer parti de Mantle au niveau des performances pour le moment





la 7970 c’est quelle version du GCN ? 1.0 non ?

parce que chez moi la différence est flagrante….

votre avatar







xloxlox a écrit :



la 7970 c’est quelle version du GCN ? 1.0 non ?

parce que chez moi la différence est flagrante….





oué CGN 1.0


votre avatar







Ideal a écrit :



Nvidia va proposer son propre mantle et les deux boites vont rendre leur version compatible selon les directX que la gen de carte supporte…

Un peu comme le gap présent entre les config XP ne supportant que du dx 9 et les suivantes …

D’ailleurs ça pourrait pousser à la consommation de CG quelque part …



Au final les dev auront + de choix sur leur façon de dev mais si le bonus en perf est conséquent ça fera cela d’optimisation, au cas par cas, en moins à faire… sans compter que les engines 3D sont pas si nombreuses et donc ça va vite rentrer dans les moeurs.

En bref sur de gros volumes ( nombres de titres de jeux dev par gen ) ça sera surement très bénéfique mais ptet que j’ai zappé un aspect de la chose …





Quel est l’intérêt pour un dev (à part l’oseille) de bosser sur une API proprio d’nivida. Mantle est là pour répondre à une demande des devs, c’est pas une iniative d’AMD pour faire chier le monde. Sans oublier que Mantle ressemble à l’API perso de la PS4 (APU AMD inside), pour les devs qui font des portages PS4 –&gt; PC, c’est un argument fort. Mais que nvidia fasse son propre API, perso je vois pas qui va valider (surtout s’il nous font payer comme le g-sync <img data-src=" /> )


votre avatar







ichigo87 a écrit :



Quel est l’intérêt pour un dev (à part l’oseille) de bosser sur une API proprio d’nivida. Mantle est là pour répondre à une demande des devs, c’est pas une iniative d’AMD pour faire chier le monde. Sans oublier que Mantle ressemble à l’API perso de la PS4 (APU AMD inside), pour les devs qui font des portages PS4 –&gt; PC, c’est un argument fort. Mais que nvidia fasse son propre API, perso je vois pas qui va valider (surtout s’il nous font payer comme le g-sync <img data-src=" /> )





Parce que les devs (enfin Dice) a aussi demandé a Nvidia de le faire. L’intérêt pour les devs c’est de gagner en perf aussi avec leur client Nvidia.



Nvidia étant très pressent dans le monde mobile, cela représente un intérêt pour les devs aussi important que l’intérêt qu’apporte la présence d’AMD dans les consoles.



Au passage aux dernières nouvelles, l’API Mantle ressemblait plus a l’API Xbox One.



Enfin quand je dis intérêt, c’est surtout du boulot en plus pour des gains pas forcement aussi beau que cela quand on est pas cpu limited.


votre avatar







yeagermach1 a écrit :



Le truc c’est que Mantle ou disons techno bas niveau X est très dépendant de l’architecture de la carte. La question se pose sur la compatibilité de X sur les futures générations de carte. La maintenir va être source de problèmes. Dans 4-5 ans, il faut que les nouvelles cartes intégrant X supportent toujours les jeux intégrant X d’aujourd’hui.



Pour tirer partie au mieux des nouvelles archis, on aura X.1, X.2 … Et c’est normal. Mais est-ce que X.2 sera compatible avec X.1 (et donc avec les programmes utilisant X.1).



On le voit avec Cuda par exemple ou Nvidia ne peut pas sortir de son architecture. Ils l’améliorent mais un jour ou l’autre ils vont annoncer une cassure, un non support d’une ancienne version.







il y aura une ptit version Dx ou openGl pour faire tourner les vieux jeu ^^



avec du matos récent on à assé de puissance pour faire tourner même les vieux jeux de manière correcte donc la sera l’utilité de dx pour la rétrocompatibilité

pour les perf max immédiatement api propriétaire



surtout que maintenant un moteur 3D c’est un gros bizeness

donc proposer ce genre d’option est un plus


votre avatar







ichigo87 a écrit :



Quel est l’intérêt pour un dev (à part l’oseille) de bosser sur une API proprio d’nivida. Mantle est là pour répondre à une demande des devs, c’est pas une iniative d’AMD pour faire chier le monde. Sans oublier que Mantle ressemble à l’API perso de la PS4 (APU AMD inside), pour les devs qui font des portages PS4 –&gt; PC, c’est un argument fort. Mais que nvidia fasse son propre API, perso je vois pas qui va valider (surtout s’il nous font payer comme le g-sync <img data-src=" /> )







Si nvidia finance le suport de leur API



si t’a le support sur les 3 4 plus gros moteur de jeux (DICE, unreal , Cryteck) ça peut marcher



mais c’est sur que l’AMD est bien plus bénéfique avec des opti directement applicable à la PS4



et ces grosse boite bosse sur des moteurs donc leur bute avoir le meilleur moteur en totue situation

donc si y a 15 api bas 15 version custom ça se vendra mieux que seulement 7 version custom par exemple



votre avatar

Je le trouve très important ,AMD est bien évoluer par rapport à INTEL <img data-src=" />.

votre avatar

à la limite je vois bien nvidia bosser avec MS pour proposer un nouveau DX. Vu les liens qu’ils ont actuellement avec les surfaces, ça peut être envisageable.



Que ce soit nvidia, intel ou microsoft aucun n’a intérêt à voir Mantle s’imposer. Et vu que ce ne sont pas des petits joueurs, AMD a intérêt à aller vite pour rendre son API indispensable.

[MàJ] AMD : les Catalyst 14.1 bêta sont disponibles pour Linux et Windows

  • Mantle : la promesse de la fin de la limite du CPU

  • Un lancement chaotique et une première version à l'impact limité

  • La presse commence à publier ses propres résultats

Fermer