votre avatar

yeagermach1

est avec nous depuis le 20 juillet 2007 ❤️

2524 commentaires

Le 06/02/2014 à 17h 52

Ben tu as donné la réponse : abus de position dominante. Si demain Google décide de blacklister un site juste parce qu’il est concurrent avec, le site est foutu.

Le 05/02/2014 à 18h 52







psychotik2k3 a écrit :



Le clavier OK mais a quand une souris sur ces consoles pour que l’on puisse supprimer définitivement le auto aime des fps





Y a de grandes chances que cela soit jamais. Sinon il faudrait que les devs ajoutent une option pour savoir avec quoi on joue et faire des serveurs multis specialisé dans l’un XOR l’autre peripheriques.



Même pour le mode solo cela pose des problèmes.


Le 05/02/2014 à 15h 45







Jed08 a écrit :



Financés en sous main par des grosses entreprises voulant affaiblir la concurrence, les fanatique du libre seraient-ils en fait de simple casseurs professionnels ?

Utopiste confrontés à la réalité ou mercenaires assoiffés d’argent vous découvrirez tout ce qu’il y a à savoir sur ces hommes, leur idéologie, leur meneur et leurs ressources !





Au passage, les casseurs des différents G20 se revendiquent de ce genre d’idée a la base. Donc ta caricature est pas si loin de la réalité.


Le 05/02/2014 à 15h 36







Yangzebul a écrit :



Je donne une petite décennie pour que le phénomène monte en puissance et ensuite on commencera à avoir des reportages sur zone interdite : “Les fanatiques du libre : autodafés de kindles, milices armées anti-propriété intellectuelle, culte du guru Stallman, faut il en avoir peur ?!”



<img data-src=" />





Il parle de 1 an. Ça va leur faire tout drôle aux ménagère de moins de 50 ans qui regardes Zone Interdite.


Le 05/02/2014 à 15h 21







Cgeek a écrit :



Je crois que toi non plus <img data-src=" />



Pour le reste de ton commentaire, tu penses bien ce que tu veux. Nous avons des idées, une théorie formelle, des solutions techniques. Ensuite, libre à ceux qui le voudront d’adhérer au système, ou pas.



Tu pourra bientôt juger par toi-même.





Ça fait un brin fasciste comme déclaration quand même .


Le 05/02/2014 à 14h 49







lateo a écrit :



Oui, mais c’est de la fraude fiscale légale !

… conséquence de l’infâme merdier législatif et réglementaire qu’on se traîne, et qu’on complexifie constamment.





Si elle est legale, c’est plus de la fraude <img data-src=" />


Le 05/02/2014 à 13h 48







fraoch a écrit :



bah si j’en crois le tableau, c’est apple le plus gros escroc alors

ils declarent 257 et paient 6.5 alors que google declare 138 et paie 5



et le CA estimé pour apple est de 3.5 milliards alors qu’il est de 1.5 pour google.



Le fisc va s’intéresser a Apple ?

J’espère bien, y a pas de raison de ne pas le faire après tout.



Et qu’ils n’oublient pas les société pétrolières et pharmaceutiques aussi….



bref, a coup de milliards avec toutes ces boites flamby va boucher le trou de la secu et arrêter d’agrandir le notre et on evitera peut etre de payer de plus en plus ( voir la reforme pour la CSG….)

je parle de Flamby mais Nicolas 1er etait pareil biensur….



Aller, continuez a prendre le pognon des grosses boites, mais faites gaffes a ce qu’ils ne partent pas non plus, il ne faudrait pas tuer la poule aux oeufs d’or ….





Pour Apple/MS/autres, c’est en cours.



Pour les sociétés pétrolières et pharma, c’est pas le même type d’optimisation. L’article linké plus tôt dans les commentaires l’explique correctement.


Le 05/02/2014 à 13h 46







Ballos a écrit :



Reste à voir s’ils auserons s’attaquer aussi au CAC40 (au hasard Total) qui fraude depuis plus de 30 ans …

c’est bien de s’attaquer aux étrangers, mais il faut faire attention au retour du baton.

AXA, l’Oreal, Société générale etc… on des activités aux USA, ça risque de faire une escalade majeur dans les mois avenir.





la fraude fiscale existait bien avant la CE, tout comme la corruption et les ententes illégales. l’UE a au contraire réduit une partie du problème. Mais peut on harmoniser la fiscalité ?? Je pense que c’est ridicule, les fiscalités régionales servent à faire progresser une région ..





Au détriment d’une autre et c’est bien la le problème.


Le 05/02/2014 à 13h 00







Ellierys a écrit :



Oui fin le jour où on me dit “Tu vas tester Amesia avec un Oculus Rift” je démissionne. J’ai pas envie de mourir jeune <img data-src=" />





Petite nature


Le 03/02/2014 à 15h 45







ichigo87 a écrit :



Quel est l’intérêt pour un dev (à part l’oseille) de bosser sur une API proprio d’nivida. Mantle est là pour répondre à une demande des devs, c’est pas une iniative d’AMD pour faire chier le monde. Sans oublier que Mantle ressemble à l’API perso de la PS4 (APU AMD inside), pour les devs qui font des portages PS4 –&gt; PC, c’est un argument fort. Mais que nvidia fasse son propre API, perso je vois pas qui va valider (surtout s’il nous font payer comme le g-sync <img data-src=" /> )





Parce que les devs (enfin Dice) a aussi demandé a Nvidia de le faire. L’intérêt pour les devs c’est de gagner en perf aussi avec leur client Nvidia.



Nvidia étant très pressent dans le monde mobile, cela représente un intérêt pour les devs aussi important que l’intérêt qu’apporte la présence d’AMD dans les consoles.



Au passage aux dernières nouvelles, l’API Mantle ressemblait plus a l’API Xbox One.



Enfin quand je dis intérêt, c’est surtout du boulot en plus pour des gains pas forcement aussi beau que cela quand on est pas cpu limited.


Le 03/02/2014 à 13h 26







Ideal a écrit :



Je m’y connais surement pas assez d’ailleurs si t’as un lien en français genre dossier intéressant sur les API 3D je suis preneur …

Pour la cassure concernant cuda, directX a eu la sienne avec D9 mais bon c’est ptet pas comparable.





DX9 qui est toujours retro compatible avec DX10 et 11. Mais qui a de nombreux bugs non présent dans DX9 d’origine.


Le 03/02/2014 à 12h 42







Ideal a écrit :



Nvidia va proposer son propre mantle et les deux boites vont rendre leur version compatible selon les directX que la gen de carte supporte…

Un peu comme le gap présent entre les config XP ne supportant que du dx 9 et les suivantes …

D’ailleurs ça pourrait pousser à la consommation de CG quelque part …



Au final les dev auront + de choix sur leur façon de dev mais si le bonus en perf est conséquent ça fera cela d’optimisation, au cas par cas, en moins à faire… sans compter que les engines 3D sont pas si nombreuses et donc ça va vite rentrer dans les moeurs.

En bref sur de gros volumes ( nombres de titres de jeux dev par gen ) ça sera surement très bénéfique mais ptet que j’ai zappé un aspect de la chose …





Le truc c’est que Mantle ou disons techno bas niveau X est très dépendant de l’architecture de la carte. La question se pose sur la compatibilité de X sur les futures générations de carte. La maintenir va être source de problèmes. Dans 4-5 ans, il faut que les nouvelles cartes intégrant X supportent toujours les jeux intégrant X d’aujourd’hui.



Pour tirer partie au mieux des nouvelles archis, on aura X.1, X.2 … Et c’est normal. Mais est-ce que X.2 sera compatible avec X.1 (et donc avec les programmes utilisant X.1).



On le voit avec Cuda par exemple ou Nvidia ne peut pas sortir de son architecture. Ils l’améliorent mais un jour ou l’autre ils vont annoncer une cassure, un non support d’une ancienne version.


Le 03/02/2014 à 12h 20

Rien vu passé a ce niveau. Peut être avec Thief 4.

Le 03/02/2014 à 11h 42

Le problème de MS, c’est que son DX doit fonctionner avec toutes les cartes et faire du bas niveau avec cette contrainte c’est pas simple, c’est même plutôt super compliqué et source de bug.



D’ailleurs mine de rien, c’est une sacré contrainte que vient de se rajouter AMD pour ses drivers et cartes futures. Va falloir maintenir la retro Mantle.

Le 03/02/2014 à 11h 26

Non les devs peuvent pas toucher si bas a DX. Seul MS le peut.

Le 03/02/2014 à 10h 43







Citan666 a écrit :



Bah non, elle est pas pourrie. Nombreux sont les gens ici qui s’y connaissent techniquement à la considérer comme une avancée majeure.

Par ailleurs, oui dans le principe ça me soûle aussi que ce soit pas une techno open source, mais AMD n’avait pas le choix.



La stratégie d’AMD a été claire sur ces dernières années : on arrive à gérer le front GPU, on bloque sur le front CPU entre autres à cause du gros poil dans la main des devs logicielle (sous-utilisation du multi-threading).



&gt;&gt;&gt; On chope le marché des consoles pour créer un énorme cheval de Troie qui va pousser les devs à multi-threader d’une part, à utiliser Mantle d’autre part (et à promouvoir le potentiel des APU enfin).




  1. À court terme, étend la popularité donc la compétence des devs sur le matos AMD.

  2. À moyen terme, permettra aux gens de réaliser que quand on code en prenant réellement en compte les capacités des procs, les CPU AMD peuvent être très performants.



    De ce fait, ils ne pouvaient faire une techno open source, sinon ça n’aurait pas constitué un atout différenciant. En revanche comme tu (et d’autres) le souligne ça créée un risque de fracture. Ce qui fait qu’ils sont obligés de proposer un truc réellement performant, sinon les devs ne verront pas l’intérêt de faire l’effort et ça finira en eau de boudin.



    Le vrai risque est que les concurrents, sous leur mine de pas y toucher, préparent leur propre version, et que les devs se retrouvent effectivement à gérer trois technos spécifiques en même temps (auquel cas je doute qu’une des trois percent).

    Perso je souhaite vraiment qu’AMD réussisse son coup pour revenir un peu dans la bataille, ne serait-ce qu’en termes d’image.





    Quand je dis pourrie, je parle des résultats qu’elle peut donner non pas dans un sens technique mais dans le sens des utilisateurs. Mantle de base est sans doute bien trop dépendante de l’architecture des cartes AMD pour pouvoir être généralisée. AMD a du mal avec ses propres cartes (ou est le support pour les cartes pas GCN 1 et 1.1 ?). Alors penser que Nvidia arrivera a le supporter sans travail lourd ..



    Si la techno est pas généralisable, les devs se retrouvent a devoir faire plusieurs fois le boulot pour une seule plateforme, ce qui est mal. D’ou mon pourrie.



    Les consoles bien qu’AMD n’utilise pas Mantle mais leur propre API bas niveau donc l’effet cheval de troie que l’on pourrait espérer est très faible.


Le 03/02/2014 à 10h 35







Ideal a écrit :



Je connais pas le dossier c’est plutôt intéressant par contre une question bête ptet que j’ai mal compris ta formulation …







On doit comprendre quand c’est pas visible c’est bouffeur de ressource mais quand c’est visible c’est pu bouffeur de ressources? ( possible après tout comme pour les voxels )



Ou juste tu voulais dire que dans crysis la tesselation de l’eau, bien que splendide, était bouffeuse de ressources qu’on la voit ou pas .. ?





Ceci dit j’ai pas du tout suivi le dossier de cette époque …La tesselation de l’eau aurait-elle pu être appliqué de façon ponctuelle comme sur d’autres engine par exemple ?





Oui c’est bouffeur de ressource dans tous les cas. Sauf qu’il y en a un ou on l’accepte (quand c’est visible). Alors que quand cela l’est pas, la logique indique que cela devrait pas en bouffer. Malheureusement pour ATI, sous crysis 2 c’était le cas.



Plus que l’appliquer ponctuellement, il aurait pu la dégrader avec la distance, et ils ne l’ont pas fait. A l’époque la tessalisation, c’était le truc a la mode, on en bouffait partout. L’utilisation la plus commune était une utilisation sur des objets pour les rendre beaucoup plus beau. Moins commun mais aussi utilisé : sur les décors style paysage. Et ca ca bouffait un max.


Le 03/02/2014 à 00h 32







Emralegna a écrit :



Ce ne sont pas du tout les mêmes choses pour moi.



PhysX est normalement complètement inutile : les dev peuvent très bien coder leurs effets de voilages et multiplier les sprites et autres particules tout autant que tu peux régler le niveau de polygones des models en augmentant le niveau de qualité graphique dans les options. Sauf qu’ils ne le font pas car il faut bien trouver un argument marketting à PhysX pour les jeux dont NVidia soudoie les boites pour qu’ils soient « the way meant to be played. » Et quand on voit le fiasco avec notamment Crysis 2, on se demande s’ils ne font pas exprès d’introduire du code pourri (et des clauses de contrat) pour favoriser leur paroisse.



Le rendu global de PhysX est très mal foutu en plus de plomber les FPS.





On se rapproche de plus en plus des jeux AMD ou NVidia only sans quoi tu as des perfs à chier (voir le jeu ne se lancera pas).





Sauf qu’ils le font pas parce que cela demande du temps et des hommes d’optimiser le bouzin.



Ce qu’apporte Nvidia c’est un savoir faire qui permet d’optimiser au mieux le jeu pour les cartes nvidia, ce qui permet de placer des effets supplémentaires. Et ATI fait exactement la même chose avec son programme de fidélité.



Le problème de crysis 2 HD était pas physX ou un autre programme de fidélité. C’est la façon dont tourne le cry engine. Pour ce moteur par défaut, en dessous d’un certain niveau il y a de l’eau. Cette eau est rendu qu’on la voit ou pas. Dans Crysis 2 HD, crytek a utilisé la tessalisation pour rendre cette eau. Quand c’est visible c’est splendide, quand cela l’est pas c’est bouffeur de ressource. Le truc c’est que au niveau de la tessalisation, il y a deux façons de voir les choses :




  • soit on l’applique de façon ponctuelle.

  • soit on l’applique de façon massive.



    Les cartes ATI de l’époque étaient bonnes pour la ponctuelle, les cartes nvidias pour la ponctuelle et la massive.



    Dans Crysis 2 HD, la tessalisation de l’eau entrait dans la catégorie massive. Et cela désavantageait les cartes ATI.



    Et en plus de l’eau, il y avait pas mal d’autres éléments utilisant cette techno.



    A l’époque ATI a fait toute une campagne disant que c’était la mauvaise façon de l’utiliser. Mais c’était pas vrai. C’était une façon de faire comme une autre, pas plus mauvaise que l’autre. Et ATI ne pouvait s’en prendre qu’a eux même vu que c’était leur choix qui entrainait une perte de perf sous ce moteur.



    Il y avait le même problème avec le jeu Hawx 2.



    Perso je pense que les responsabilité c’étaient 50-50. 50% pour Crytek qui avait fait le choix d’utiliser la tessalisation de façon massive. 50% pour ATI qui avait fait le choix de ne pas supporter ce genre de tessalisation. Nvidia c’est sur n’allait pas s’y opposer, ces cartes pouvant le gérer tranquillement.


Le 02/02/2014 à 19h 51







Ideal a écrit :



Ohlalala ….. déjà je dis 3 jeux c’est bien sur pas un chiffre exact certaines années c’est 4, d’autres années c’est 2 …. si sur ça je dois t’expliquer on est pas sorti de l’auberge …

Et même si c’est 10 jeux par an ( ça ne l’est pas c’est plutôt 1 par an ) ça justifiera jamais que AMD paye pour en faire profiter leurs futures cartes ( oh wait on peut faire fonctionner du phyx sur ati mais nvidia impose le patch immédiat pour bloquer ça et c’est normal )







Sinon tu apprends a lire, ce que tu me corriges, je le dit moi même.





Les dev s’y mettent pas parce que c’est chronophage pour peu d’avantages et plus de se couper de la moitié des joueurs … et bon y a havok et d’autres moteurs si tu veux faire de la particule c’est pas comme si PhysX était la seule et unique façon de faire.





Deja physX ne tourne pas qu’en mode GPU et c’est un des moteurs CPU les plus utilisés. Après si tu avais lu mes autres posts, tu verrais que je râle sur la multiplication des moteurs de rendus qui a comme conséquence de bouffer du temps et donc de l’argent aux devs.





Beeh c’est transposable pour physX … et c’est toi qui en a utilisé l’argument ( de “AMD aurait pu implémenter PhysX dans l’intérêt de ses clients en payant des royalties” ) en premier je te rappelle …

Bref argument bancal et donc mauvaise foi qui suit pour défendre ton argument …





Encore une fois ai-je dit le contraire ?? NON, NON et NON. Mais comme Nvidia a l’époque, AMD le sait très bien et c’est bien pour cela qu’ils disent que tout le monde a droit d’implémenter Mantle et que c’est “libre”. Dans la pratique, il y a tres peu de chance. Par contre il y a bien plus de chance que Nvidia sorte son mantle-like et que les devs se retrouvent a devoir faire un moteur de plus. Ou envoyer bouler les deux.







Avec 3 jeux par an c’est évident …. Reste à voir si mantle fera mieux que 3 jeux par an ….oui.





C’est le serpent qui se mord la queue ton argumentation : AMD ne veut pas de CUDA/PhysX parce que c’est que trois jeux/ans. C’est trois jeux/ans parce que les devs ne veulent pas se faire chier pour seulement 50% des gens. C’est 50% des gens parce qu’il y a deux autres fournisseurs de carte videos …



Reste qu’a situation similaire, on a eu la réponse d’AMD : NIET. Reste a avoir la réponse de Nvidia aujourd’hui. Les prochaines annonces chez eux, c’est leur conférence de fin mars.



Au passage actuellement AMD c’est 31% des configs des utilisateurs Steam, tu crois que les devs vont vouloir se faire chier pour même pas 50% ?





Oué d’un coup ça devient bien plus logique …. tu sais le fait de dire il faut gagner des FPS pour éliminer le tearing est déjà inexact … sinon pourquoi acheter un moniteur compatible G-sync autant acheter une 2ème 780 …





C’est la réponse du mec de chez Nvidia. Mantle est la pour gagner des FPS ou plutôt pour te faire plaisir pour réduire le 99%. Ce qui améliorera le tearing. Le mec de Nvidia répond que pour eux la bonne solution c’est plutôt le GSync. Il ajoute d’ailleurs a coté que pour faire du bas niveau, ils fournissent déjà des bibliothèques (tout comme AMD). Et Mantle va juste plus loin encore.





Et la réponse de AMD au G-sync s’appellera Freesync il te l’avait pas dis ton responsable …?





A l’époque (juste après l’annonce de Mantle), AMD avait pas communiqué dessus. Comment le mec de Nvidia aurait pu communiquer dessus. Au passage, cela a fait l’objet de news sur PCI.





Des arguments, concernant la politique d’une entreprise A, provenant d’un responsable Nvidia un Fanboy qui reçoit un chèque de l’entreprise B?



Un fanboy n’est souvent pas conscient d’être un Fanboy….

Un troll peut être conscient d’être un troll….

Un fanboy conscient d’être un fanboy est un troll ( mais il n’est pas forcément conscient d’être un troll )…



L’important c’est pas d’être un fanboy ou un troll l’important c’est d’en être conscient.





Tu lis pas les commentaires, tu surinterprètes le peu que tu lis et tu viens faire la morale …


Le 02/02/2014 à 15h 45







methos1435 a écrit :



C’est pas faux mais dans la réalité si les développeurs optimisaient leurs jeux pour chaque console ça se saurait….





Ah ils le font, ils sont obligés. Après ce que tu veux je pense, c’est qu’ils le font pas au même niveau de partout, qu’il y a des plateformes ou ils sont plus efficace (moins faignant) que d’autres.


Le 02/02/2014 à 14h 19







CR_B7 a écrit :



Est ce qu’on sait si mantle est utilisé sur xbox one et ps4 ?

C’est peut être une des clé de son succès.





Non c’est pas utilisé. Les deux consoles ont leur propre API bas niveau.


Le 02/02/2014 à 14h 11

J’ai vu d’autres screens comparatif et le résultat est le même. Donc je pense une nuance niveau moteur.

Le 02/02/2014 à 14h 05

Y a toujours cette difference de lumiere entre les screens Mantle et DX 11?

Le 02/02/2014 à 12h 36







metaphore54 a écrit :



Là je ne comprends pas, pourquoi utiliser le moteur de la PS4 et la xone alors que mantle à l’air de remplacer les 2 pour 1 seul développement ?



Enfin si j’ai bien suivi ce que tu as écrit.





J’ai dit fait la même chose : donner un accès bas niveau. J’ai pas dit que c’était la même chose. Les API des consoles sont bien plus poussées que Mantle pourra jamais l’etre. Justement du fait que les deux consoles ont un seul hardware et que les optimisations seront faite pour ce hardware. Mantle lui doit supporter a terme plusieurs générations de cartes AMD.



Et sinon parce que Sony et MS obligent l’utilisation de leur API.


Le 02/02/2014 à 12h 23







brice.wernet a écrit :



Avec le support Linux, de promouvoir à la fois les produit AMD et le moteur de BF4 comme plate-forme de développement de jeux.





C’est pas déjà le cas?





2 problèmes a cela :




  • le premier c’est que EA a pas forcement envie de vendre son moteur a d’autres studios que les siens.

  • les parts de marché d’AMD c’est pas 100%. Donc les devs se devront de faire au mieux 4 moteurs de rendu : Mantle, DX, PS4, XOne. Plus si ils ont pas de bol : X360, PS3, WiiU. Ce qui commence a faire un peu beaucoup. Si on rajoute Gameworks (nvidia) qui ajoute une black box dans le code et donc un moteur pour lui et si Mantle attire du monde un Mantle special Nvidia. Les couts vont vraiment s’envoler (cout de dev et de support).







    La com actuelle s’est: avec le moteur de BF4 et AMD, la config du joueur a baissé de prix.

    Et je suis sûr qu’ils vont trouver le moyen pour que Mantle soit sur PS4 au mois, et sur SteamOS.



    Les SteamBox à base d’APU vont devenir plus intéressantes à terme.



    Mantle sur PS4, il y a pas besoin. L’API est déjà de bas niveau et permet donc deja de faire ce que Mantle permet de faire. Comme sur XOne d’ailleurs, le DX sur place permet déjà de faire ce que Mantle fait. Les rumeurs au début disaient d’ailleurs (avant dementí) que Mantle c’était l’API de la Xone portée sur PC.


Le 02/02/2014 à 12h 16







bojack9512 a écrit :



Heu physx c’est pas une puce supplémentaire(ou je sais pas quoi)sur la carte graphique qui est à part de Cuda? Parce que cuda existait chez nvidia avant le rachat de physx…



Me semblait que Cuda et openCL permettaient des trucs comme physx mais en moins poussé…





Non PhysX existait avant Cuda et nécessitait une puce supplémentaire. Mais Nvidia a racheté la boite et a sortie les 8xxx. Premières cartes a avoir le support Cuda. En même temps Nvidia a recodé PhysX pour qu’il aille sur Cuda.



Cuda et OpenCL sont des bibliothèques de calculs parallélisés qui s’exécutent aussi sur GPU (CUDA que sur GPU d’ailleurs). A la différence de TBB a ces débuts qui était réservé CPU.



PhysX est basé sur CPU et GPU et est une bibliothèque pour faire la physique dans les jeux (comme Hawoc). Mais on en parle le plus souvent pour les effets en plus uniquement basé sur GPU.


Le 02/02/2014 à 12h 07







Ideal a écrit :



Beaucoup de bullshits dans les premiers comms de cette news… et pas spécialement dans ceux que je vais citer



On dirait qu’il y a autant de sérieux ici que dans un débat sur la théorie des genres …

Donc ça trolle pour défendre son troupeau mais au final personne n’a vraiment vu mantle tourné, ni de tests sérieux dessus et pourtant y a autant d’experts sur le sujet que d’auteurs de comms … <img data-src=" />







PhysX avec 3 jeux compatible par an et un intérêt en perfs proche de zéro avec une config qui dépasse pas les 700 euros ? ( AMD a et aura toujours le meilleur rapport qualité-prix pourquoi tu voudrais qu’ils dépensent des royalties pour des techno dont l’intérêt est limité par le prix de ta config … )



Enfin bon prenons ton argument en le transposant dans le sens de la news … donc si y a 3 jeux compatible mantle par an, tu trouverais ça logique et normal que Nvidia développe ces prochaines cartes avec du compatible mantle ( vu que AMD serait ok ) dans l’intérêt des utilisateurs Nvidia …. ?









Pourquoi que trois jeux/an ? Parce que c’est pas supporté par les deux cotés et que donc les devs veulent pas s’y mettre. Et oui je trouverais normal que si ATI l’avait fait, Nvidia devrait le faire pour Mantle. Et même que si il y a beaucoup de jeux utilisant Mantle, Nvidia devrait s’y ranger.



A part 12 problème du style Mantle dépend de l’architecture de la carte, et les carte Nvidia ont une archi différente des cartes AMD. Résultat cela sera un Mantle Bis non compatible avec le premier.







Rendez-vous dans 2 ans alors pour voir qui des deux firmes est capable de ravaler sa fierté en faveur de ses clients …







On sait deja que AMD le fait pas. Reste a voir Nvidia







La réponse est déjà là



Je vois pas en quoi Gsync est une réponse Nvidia à mantle … quoi Nvidia peut pas rétorquer une solution sans faire changer d’écran leurs clients ?

C’est ça que t’essayes de dire ?







Non je dis que quand un journaliste a posé la question a un responsable Nvidia. Celui-ci a répondu que AMD faisait Mantle pour gagner des FPS afin de supprimer le tearing. Et que la réponse a ce problème de la part de Nvidia c’est le GSync.









<img data-src=" /> Je te soupçonnerai presque de troller pour AMD en te faisant passer pour un Fan Nvidia <img data-src=" />



( je dis Fan parce que tes arguments tiennent pas la route niveau logique donc t’es déjà pu un client mais un fan qui a mis sa raison de coté enfin je le vois comme ça )



Non mais un peu de sérieux …. AMD vs Nvidia c’est comme Apple vs Microsoft dans les années 90 les clients n’ont pas leurs mots à dire juste leurs troupeaux à choisir …





Bien sur donner un avis sur une techno avec des arguments qui tiennent la route, c’est être un fanboy …


Le 01/02/2014 à 19h 23







bojack9512 a écrit :



Ah libre dans ce sens effectivement^^.



En même temps je vois pas l’intérêt de AMD pour Cuda quand je vois les performances en OpenCL sur des trucs genre minage de litecoin et autre(une 780ti est du niveau d’une r9 270x)mais bon comme cette techno n’est utilisée par personne pratiquement(en tout cas je connais aucun truc qui s’en sert personnellement)ce qui est plutôt dommage.





L’intérêt il serait pour les utilisateurs de AMD qui pourraient avoir les trucs en plus que permettent CUDA : physX par exemple.


Le 01/02/2014 à 19h 18







divide a écrit :



Le pire, c’est que même si NVIDIA reprenait les specifications de Mantle tel quel, les développeurs seraient de toute facon obligés de réécrire 2 fois leur code, l’architecture hardware d’un GPU NVIDIA étant complètement différente de celle d’un GPU AMD. Pareil pour un hypothétique Mantle Intel, qui nécessiterait une 3eme réécriture de code. Et puis le double de tout ça à la nouvelle génération GPU de AMD/NV/Intel…

Donc cette techno est pourrie à la base…





Le pire c’est que la techno en elle même est intéressante, mais comme c’est limite impossible a généraliser, elle en devient pourrie.


Le 01/02/2014 à 18h 44







bojack9512 a écrit :



Cuda libre? J’ai loupé un épisode?





Nvidia a indiqué qu’il ne s’opposerait pas a ce qu’AMD intègre Cuda dans ses cartes (moyennement finance bien sur). Donc c’est pas libre au sens classique du terme, mais pas non plus réservé au carte Nvidia. Bon AMD a dit niet préférant OpenCL.



Pour Mantle, AMD dit la même chose et on a pas la réponse de Nvidia (enfin si en partie : gsync).


Le 01/02/2014 à 18h 42







sr17 a écrit :



L’ennui, c’est que plus on veut attaquer un hardware à bas niveau, plus on est tributaire des différences techniques entre les constructeurs, plus il est difficile de mettre tout le monde d’accord sur un standard.



Mais tu peux être certain que s’il y a quelque chose qui est standardisable, ça finira par être intégré aux grandes API.





Je me doute bien, ce qui m’inquiète, c’est la situation entre. Si on prend BF4, en moteur de rendu, il a :




  • celui pour PS4

  • celui pour XOne

  • celui pour DX

  • celui pour Mantle



    Cela va être pareil pour Thief 4 et sans aucun doute pour plein d’autres jeux. On parle pas de “simples” ajouts d’effet comme le propose PhysX, mais bien d’un moteur de rendu réécrit.



    Donc si cela a vraiment du succés, ou MS updatera son DX pour faire du mantle-like, la chronos corporation fera sans doute de meme. Cela si c’est possible bien sur. Et si cela l’est pas, Nvidia sortira forcement son équivalent (parce que cela m’étonnerait qu’ils utilisent Mantle). Et les développeurs se retrouveront a dev un nouveau moteur de rendu qui se rajoutera aux autres. Ça coute cher a force.


Le 01/02/2014 à 17h 39







kail a écrit :



La techno est libre me semble-t-il. Ou alors j’ai loupé un épisode.





Ils disent vouloir la mettre libre (enfin que n’importe qui puisse l’utiliser via argent). Le truc marrant, c’est que CUDA du concurrent est aussi “libre” mais AMD a refusé d’y passer.



La meilleur solution, c’est MS qui améliore son DX (comme ca les deux seront obligé de suivre). Cette solution marche aussi avec OpenGL. La pire, NVIDIA développe son propre Mantle. Et les devs se retrouvent a devoir coder : un DX/Open pour les vieilles cartes, un mantle pour les cartes AMD, un mantle-like pour les cartes nvidia …


Le 02/02/2014 à 15h 51







ra-mon a écrit :



Plein de choses





Question depuis la dernière mise a jour automatique d’opera (19), le raccourcie W pour faire une recherche sous wikipedia me lance le wiki fr au lieu du wiki eng. Comment faire pour remettre le wiki eng a la place du fr ?


Le 31/01/2014 à 12h 48







Lafisk a écrit :



Ben en soit … c’est ca <img data-src=" />





Ce que je veux dire, ce que si on vire ce qui fait la base d’un os (les modifications sous le capot), Windows 8 est la plus grande modification d’OS jamais faite depuis le passage du mode ligne de commande.



Mais heureusement un nouvel os ne se limite pas au visible.


Le 31/01/2014 à 12h 45







SolykZ a écrit :



Donc..en clair.. Windows 8.1.1 = Windows 7 avec un menu démarrer en plein écran ? Si on met de côté les améliorations “sous le capot”, c’est à peu près ça… <img data-src=" />





Si on va comme ca : windows 7 = windows vista qui marche = windows xp avec de la 3d = …


Le 31/01/2014 à 12h 12







Sly a écrit :



Va rabattre le capot sur une tour <img data-src=" />



Et ca doit être super pratique si tu rabat le capot juste pour bouger de lieu et te tapper le redémarrage après <img data-src=" />





Tu peux appuyer sur le bouton, c’est efficace et rapide.


Le 31/01/2014 à 12h 02







carbier a écrit :



Tu as une stat du nombre de possesseurs d’iPhone qui sont passés sous Android ? Je serai curieux de voir ce chiffre… très curieux même.

Symbian, Windows Mobile… Sérieux ? Encore une fois qu’elle était la part des ventes de ces smartphones avant iOS et Android ?





Enfin c’est pas comme si le téléphone le plus vendu sous android, celui qui a vraiment lancé la machine, c’était pas un copie collé de l’interface iphone ..


Le 31/01/2014 à 10h 42







Chamaloxxx a écrit :



Ce sont les ventes qui déterminent un succès ou un échec. C’est un échec.





Et bien sur, c’est un échec a cause du nouveau start screen. Cela en est pas un a causes des tablettes qui prennent de plus en plus de place dans les ventes au détriment des PC.


Le 31/01/2014 à 10h 35







Lafisk a écrit :



Des geek donc majoritairement parce que pour qu’une michu aille chercher classic shell déjà ca fait beaucoup …





Ou tout simplement un mec qui leur installe leur PC et met classic shell sans rien leur demander. Comme a une époque, on avait les firefox qui popait après le passage d’un pote.


Le 31/01/2014 à 10h 29







Vincent_H a écrit :



Et tu ne vois pas un lien entre les deux ? <img data-src=" />





L’essor du marché des tablettes a du faire plus de mal aux ventes de PC Windows que metro UI.


Le 30/01/2014 à 18h 56







Edtech a écrit :



Dans un sens, c’est dans les bibli qu’on stocke ses musiques. Dans les autres cas, genre quand on te prête de la musique, tu utilises le filepicker pour aller chercher le morceau sur ta clef USB !



Après, ce n’est pas à toi de faire que les gens soient moins cons et ne stockent pas tout dans C: !





J’ai envie de dire qu’il faudrait que le système permette d’aller chercher autre part sans pour autant permettre d’aller partout. Théoriquement, une appli est juste censée accéder aux fichiers de son bac a sable. Bon on rajoute pour les médias, un accès aux bibliothèques les répertoriant. Mais cela devrait pas aller plus loin que ca a mon avis. Sinon le coté bac a sable et la sécurité qu’il apporte, il existe plus.



Par contre c’est au runtime de faire en sorte que si on insere un DVD/BR, il apparaisse dans la bibliothèque Video, un CD dans la partie Musique, … Ou si on branche un périphérique USB, que son contenu soit classé correctement dans les bibliothèques qu’il faut.


Le 30/01/2014 à 15h 08







jb a écrit :



Tu peux ouvrir tous les fichiers dans ton jail. Et tu n’as aucun filesystem, contrairement à un desktop.





Jail = jailbreak ? Ou bac a sable ?



Dans le cas de la deuxième option, il y a même pas cela sous winRT ? :eeek:


Le 30/01/2014 à 14h 57







jb a écrit :



C’est totalement faux, coder sur iOS ressemble extrêmement fortement à Mac OS X.

Et ils ont threads, sockets et bindings Cocoa/C et les API audios sont identiques.





Pour le coup des fichiers par exemple, tu fais comment sur iOS. Dans mes souvenirs, il y a pas plus de fopen dans le sdk iOS que dans le sdk winRT ?


Le 30/01/2014 à 14h 14







jb a écrit :



Mais ton m3u te donne une liste de fichiers… Que tu peux pas ouvrir sans FilePicker…





Je suis d’accord que c’est relou mais a part vouloir super ouvert (trop sans aucun doute) comme android, tu peux pas changer grand chose. C’est le comportement de base de winrt actuellement : bac a sable extrême pour tout.



Faut malheureusement s’y faire. Quoique cela va sans doute un peu s’améliorer avec les updates du SDK.


Le 30/01/2014 à 14h 09







jb a écrit :



Les threads, les sockets ou les fopen, c’est pas Win32.





C’est faux et archi-faux. Les nouveaux sockets ne permettent pas de faire tous ce qu’on pouvait faire avant, à moins de trixer comme des porcs.



Sans parler du fait que les nouveaux sockets sont codés sur les anciens… Puisque les drivers sont codés pour les anciens…







Et tu ouvres comment un fichier de playlist? Hein, juste un m3u? Ah bah, tu peux pas…



[quote:4897066:yeagermach1]

[*] C’est pareil pour les IPC, l’accès aux devices.

[/list]

Désolé, mais non. Justement, pour les sandbox, tu as des IPC pour discuter entre applis. Et quel est l’intérêt d’interdire l’IPC pour la sécurité?



Les devices, j’en parle même pas… Comment tu affiches une webcam? Comment tu lis un DVD?

En quoi interdire la lecture d’un device améliore la sécurité?





Pas faux, je voyais plus les clés USB et disques durs portable.



Pour les M3U, tu les partages avec l’application comme sur iOS <img data-src=" />



Pour les IPC, c’est le principe de l’isolement appliqué a son extreme.



Pour les sockets, ils permettent peut etre pas de faire comme avant, mais ils en permettent deja pas mal. De plus l’argument qu’ils sont codés sur les anciens est caduque a moins de considérer qu’il faut toujours garder l’ancien code. Pour leur nouveau drivers, les nouvelles sockets seront utilisées.


Le 30/01/2014 à 14h 00







jb a écrit :



C’est un OS où tu:







  • n’a pas de threads corrects,

  • n’a pas de sockets BSD,

  • n’a pas d’IPC,

  • n’a pas de clock de timing,

  • a une stack audio incomplète, et sans background simple,

  • n’a pas d’accès aux fichiers, pas de fopen,

  • n’a pas d’accès aux devices,

  • a tout en Async, mais les APIS sont souvent bugguées,

  • a plein de bugs dans l’UI et dans les tools,

  • une documentation souvent fausse ou très incomplète,







    Ça fait tout de même beaucoup pour une seule plate-forme. Et oui, après ce post, ça va partir en troll…





    Il manque des choses je suis bien d’accord. Mais par exemple :



  • l’absence de socket BSD est compensé par d’autres sockets

  • le non accès aux fichiers c’est le principe de l’appli bac a sable. C’est très chiant j’en conviens, mais comme sur iOS le partage de fichier pour une application existe.

  • C’est pareil pour les IPC, l’accès aux devices.







    Par rapport aux developpement sur iOS, celui sur win8 est meilleurs/moins bon. Perso j’aurais tendance a le trouver meilleur mais il est vrai que je ne fais rien d’aussi poussé que toi.


Le 30/01/2014 à 12h 38







arno53 a écrit :



Le gros probleme c’est qu’ils partaient d’un code existant et développé sous linux et non avec Visual Studio etc



Jb en parlait sur sur son blog ici





D’apres ce que je lis, ce portage a été aussi a l’origine de pas mal de modification en bien de VLC. Donc je comprend pas le OS moisi que JB a utilisé. Le portage de VLC pour Android ou iOS a du aussi présenter les même problèmes.


Le 30/01/2014 à 12h 13







jb a écrit :



Ça, c’est sûr qu’ils n’ont pas compris… Mais bon, ça a été vraiment dur ce projet… Et pourtant on a porté sur plein d’OS pourris…





Sans troll, en quoi le portage a été si compliqué ? API pas au point ? Pas le droit d’utiliser des bibliothèques que vous utilisiez pour d’autres OS ? Plus de travail de réécriture que prévu ??


Le 29/01/2014 à 08h 49







XalG a écrit :



J’ai pas spécialement de soucis avec le startscreen, enfin j’ai pas de soucis avec l’ancien menu démarrer non plus (et les programmes épinglés/plus récents) au final on s’y retrouve.







Et si on te revends/donne un PC déjà utilisé ? <img data-src=" />





Tu peux les relancer, il me semble que c’est meme le comportement par defaut quand tu recré un compte.


Le 29/01/2014 à 07h 33







Chamaloxxx a écrit :



Ben oui mais jusqu’alors le principe c’était : je vais dans un supermarché, je prends une bécane plus ou moins au pif (selon le marchand, le prix, et l’avis du fiston), je rentre, je branche, et je me retrouve sur un environnement qui ressemble à Windows XP, donc l’un dans l’autre je me débrouille.



Là c’est : je rentre, je branche, je découvre une interface complètement nouvelle, je ne sais pas ou cliquer, et encore moins retrouver mes petites habitudes de Windows XP.



Je retourne donc chez le marchand pour avoir une machine moins exotique, et surprise : il n’y a plus de Windows “normal”, il est remplacé par celui-là.



Je rentre, je regarde ma machine avec nostalgie, et quand je demande pourquoi c’est pas comme avant je me fait engueuler parce que je ne sais pas cliquer sur des options mystérieuses, installer un programme encore plus mystérieux (la dernière fois ça m’a foutu des toolbar et ASK en démarrage), et je ne connais pas par coeur la petite centaine de raccourci clavier que je pensais pourtant inutile vu que j’ai une souris.



Bref : je vais acheter une tablette Apple, au moins je suis sûr que c’est simple, sans raccourci-clavier à la con, et ça ressemble à mon Iphone.



Ah ben t’a raison : l’utilisateur lambda change de machine finalement <img data-src=" />





Tu rentres, tu ne zappes pas l’ensemble des explications du début, c’est pas plus con que la moyenne, tu as aucun problème ..