votre avatar

divide

est avec nous depuis le 11 juillet 2009 ❤️

446 commentaires

Le 24/03/2015 à 14h 44

sauf que l’oreille ne perçoit pas des formes d’onde, elle perçoit des fréquences caractérisées par leur phase et leur amplitude. Pour bosser quotidiennement sur des analyses spectrales, je t’assure que de ce coté ça ne change absolument rien. Un signal échantillonné sur 16bit restitue parfaitement une dynamique de 96dB (et va même bien au dela grace au dithering).

Le 03/03/2015 à 14h 00







Edtech a écrit :



Oui, mais c’est assez proche, donc pas forcément compliqué.




Pour compléter mon premier message, il semblerait qu'une grosse partie de Vulkan ressemble énormément à Mantle, avec des fonctions 100% identiques. AMD aurait fourni certaines fonctions telles quelles car collant parfaitement aux attentes de ceux travaillant sur Vulkan (AMD en faisant évidemment parti).      






Donc du coup, on risque d'avoir 3 API différentes mais très proches d'utilisation, tant mieux !








D'ou tu sors ça ? On a pas vu une seule commande Vulkan pour l'instant, la conférence a lieu le 5 mars -\_-    



Le plus probable c’est surtout que ça ressemble à OpenGL, dont il hérite.



Quand au choix de dev sur Mantle ou DX12, si un dev a le choix il prendra uniquement DX12, je vois pas pourquoi il s’embeterait avec Mantle à ce stade.


Le 27/02/2015 à 16h 57

c’est pourtant relativement clair, il font la comparaison avec une voiture qui roule à 60km/h.

En 60ms, elle a le temps de parcourir 1m

En 10ms, 16cm

En 1ms, 1.6cm



Donc logique qu’avec une règle de trois tu retombe sur les mêmes valeurs… Le but est d’illustrer visuellement un temps avec un référentiel compréhensible par (presque) tout le monde ;)

Le 27/01/2015 à 07h 48

C’est aussi un moyen de créer de l’actu une fois le jeu sorti, et donc de maintenir les ventes du jeu principal.

Le 19/01/2015 à 09h 11







manbu a écrit :



Ben oui, pour bien faire il faudrait arriver à les fermer définitivement et mettre leurs animateurs en taule, et ainsi assainir une toile qui devient, où que tu ailles de plus en plus nauséabonde. Malheureusement en l’état c’est impossible.





Tu es la parfaite illustration de ce que dénonce cet article. Et ça fait peur…


Le 13/12/2014 à 10h 11

L’article aurait pu être un peu plus approfondie..



Nimble avait à la base monté un kickstarter, ils ont une vidéo qui laisse rêveur sur le potentiel de leur techno:

https://www.kickstarter.com/projects/nimblevr/nimble-sense-bring-your-hands-into…



Quand à 13th Lab, leur site montre que plus que la reconstruction de décor, ils ont surtout pondu une techno de tracking 3d basé sur une caméra embarqué qui est bluffant de précision, et c’est certainement beaucoup plus cet aspect là qui intéresse Oculus que la reconstruction de nuage de point:

 http://13thlab.com/ (regarder en particulier les 2 dernières vidéos)

Cette techno permettrais au casque d’assurer le tracking 3d de manière beaucoup plus libre et beaucoup moins contraignante que leur solution actuelle.

Le 13/12/2014 à 10h 05

J’ai porté mon appli sur Qt 5.4 et pour moi qui ne suit pas du tout orienté web, les gains sont tout aussi conséquents : le nouveau QOpenGLWidget est super pratique/fluide comparés aux modules précédents, et le support High-DPI sous Windows en plus d’OSX est tout aussi bienvenu.

J’utilise ce framework depuis 2009 (Qt 4.6) et je ne cesse d’être émerveillé par chaque nouvelle version. C’est en train de devenir le framework multi-plateforme/multi-usage ultime pour toute application qui nécessite performance et accès bas niveau.

Pour rappel, il va d’ailleurs bien plus loin que la gestion d’interface, c’est un ensemble de classes qui simplifie et accélère le développement a à peu près tous les niveaux.

Le 01/10/2014 à 15h 19







dimounet a écrit :



Le forfait à 2€ est un peu juste pour la 4G…







Si il est sur le forfait à 2 euros ça m’étonnerait qu’il ai grand chose à foutre de la 4G.


Le 30/09/2014 à 18h 07







Vanilys a écrit :



Windows 10 ou 9 ou 42, finalement, on s’en fout : seul compte ce que cet OS apporte et apportera en nouveauté, en ergonomie, en versatilité et homogénéité.

Enfin, c’est mon point de vue : apparemment, les commentaires précédents montrent que le “10” a l’air d’être la chose la plus importante à retenir …. <img data-src=" />







Pas mieux. Pour l’instant je trouve que c’est un sans faute, ce qui a été annoncé.


Le 30/09/2014 à 18h 04

Et si on parlait un peu du fond ? Pour l’instant je trouve que du bon, tout ce qui a été annoncé pendant la conf !

Le 05/09/2014 à 21h 35

Hubic ca reste trés peu fiable, à chaque fois que j’ai essayé (de la beta à maintenant) j’ai toujours eu des problèmes en voulant réorganiser mes fichiers -_-



Sinon chez Mega c’est toujours 50Go gratos sans limite de taille de fichier, avec un bon débit…

Le 26/07/2014 à 17h 31







benhuriet a écrit :



Je l’ai dit<img data-src=" />, je l’ai déjà fait, j’ai entendu la différence, et j’ai pas du matos exceptionnel







Desolé mais j’ai du mal à te croire, toutes les études sérieuses que j’ai pu lire à ce sujet en test aveugle montrent le contraire : à partir de 256kbps la très grosse majorité des gens est incapable de percevoir la moindre différence avec l’original.

J’en déduis donc que sois ton test était biaisé d’une manière ou d’une autre (encodeur foireux, pas de double aveugle), soit tu as une oreille bionique.


Le 11/07/2014 à 17h 52







darth21 a écrit :



Sur la SP3 il n’y a plus que le type cover (mais qui existait aussi pour les précédents modèles de surface pro), qui est loin d’être tout mou, et qui dispose de vraies touches. Il n’a pas non plus à être trimballé séparément puisqu’il se replie au dos de la tablette et reste donc disponible dès que tu en as besoin.



Tu es bien sûr de connaître l’appareil dont tu parles tant ?







Je n’ai pas mentionné la SP3 que je n’ai pas testé, chez moi j’ai un 2in1 de Lenovo (Yoga 2 Pro) et un prototype Broadwell 2in1, tout deux avec clavier repliable au dos; les seuls SP que j’ai testé sont les 1 et 2, en boutique, et c’était bien des claviers mous détachables.


Le 11/07/2014 à 08h 08







n1kod a écrit :



pour moi c ‘est la même chose.

un semi clavier qui coute un bras.

truc pas pratique des que tu n’as pas une table/bureau a dispo.

Au final si je suis dans mon canap ou dans mon lit ou encore aux toilettes <img data-src=" />, je serais encore emmerdé par ce clavier semi rigide et le poid de “l’ecran”



je la trouve pas mal la surface 3 mais c est juste une tablette évoluée a mon sens.







Je trouve aussi les choix de la surface pro bizarre, avec ce clavier tout mou qui a besoin d’une surface pour être consistant et tenir l’écran, et qui n’a pas de vrai sensation de frappe. Sans compter que tu dois te trimballer le clavier séparement si tu veux le réutiliser plus tard ailleurs. Pour l’instant je suis plus convaincu par les 2in1 repliables, avec un vrai clavier de laptop qui reste disponible dès que besoin.


Le 10/07/2014 à 20h 01







loulnux a écrit :



Affligeant de cécité pour ne pas dire d’autre chose !

Enfin si tu le crois c’est qu’on a dû te le dire.

Non, non ne me demande pas d’argumenter j’ai peur que ça s’éternise en une succession de posts stériles que nous ne serons que seuls à lire; enfin, si il te reste un semblant de conscience, revois ton sujet et n’oublie-pas : thèse, antithèse, synthèse et reparles-nous de tes conclusions lors d’un autre article, les occasions ne manquent pas : le marché du PC est ce qu’on appelle un “marronnier”.







Euh… pour bosser justement sur le sujet (je suis en train d’adapter mon soft pour les convertibles “2in1”), arno53 n’a pas tort, coté Apple c’est presque le neant de ce cote niveau hardware, et du coup OS X n’est pas pensé pour ce segment naissant (la gestion touch se limite au pad car il n’y a pas de mac avec touchscreen, et encore moins de mac convertible) et iOS est une archi bien differente de OS X. Quand a Google son OS le plus populaire, Android, est limité au segment mobile.


Le 10/07/2014 à 18h 02

Microsoft est très loin d’être le seul à rentrer dans la danse “2in1” avec sa Surface Pro, c’est tout un tournant qui est en train d’arriver dans le monde informatique, avec plusieurs solutions (detachables, repliables, …):

intel.com IntelJ’ai actuellement chez moi 2 modèles de ce genre (un en Haswell et un en Broadwell) et c’est vraiment le meilleur des deux mondes. Tu peux passer de l’un à l’autre mode en 2 secondes, et les applications sont capable de detecter ce changement et s’adapter en conséquence immédiatement.

Et le mode tablette n’empêche pas le travail de précision, avec des écrans en 3200x1800 et support des stylets actifs…

Le 11/07/2014 à 06h 22

C’est vrai que x-plane, même en version 10, reste assez moche par rapport a FS et à fortiori Prepar3d… Et la qualité de l’immersion c’est important pour le plaisir de vol.

Le 25/06/2014 à 19h 57







Emralegna a écrit :



Ils ont dû mettre à jour et corriger ce problème depuis ma dernière installation alors, bonne nouvelle.



Les programmes qui laissent leurs ordures derrière après fermeture, non merci.







Encore une fois, Qt n’a jamais laissé d’ordures derrière après fermeture, ni maintenant, ni dans les versions précédentes.


Le 25/06/2014 à 17h 00







Emralegna a écrit :



Et comme c’est du Qt il laisse des processus en arrière plan comme Mumble lorsqu’on ferme le programme non ?







N’importe quoi, Qt n’a rien a voir avec des processus poubelle en arrière plan, si ça fait ça sur Mumble c’est purement un choix des developeurs.


Le 24/06/2014 à 18h 35







Romaindu83 a écrit :



Sur le coup de l’émotion, je dirais que si Crytek devait disparaître corps et âme, cela ne me ferait ni chaud ni froid. A force de développer des jeux vidéos trop en avance sur son temps, et donc injouables dans des conditions correctes, cette société me dégoûte. Son moteur graphique est peut-être un des plus puissant qui existe, il est peut-être un des plus aboutis… mais il faut avoir un Titan (un superordinateur du laboratoire national d’Oak Ridge, dans le Tennessee), pour pouvoir le faire tourner dans les meilleurs conditions possibles.



Mais l’émotion ne me gagnera pas. Si il est avéré que Crytek paie ses employés avec plusieurs semaines de retard, cela peut présager de sa mauvaise situation financière. Aux dernières nouvelles, Crytek, c’est 830 employés. Crytek est donc une grosse société. Une société de cette taille ne paie pas ses 830 employés en retard par inadvertance…

Même si je trouve que Crytek pue à cause de son moteur graphique, elle est tout de même une actrice importante dans l’univers des jeux vidéos. Son CryEngine, au fil des versions, apportent son lot de nouveauté non négligeable. Le souci étant donc qu’il faut un monstre de guerre pour le faire tourner, mais bon….

Enfin, je pense aux employés. Une mauvaise situation financière, et c’est un plan de licenciement qui peut pointer le bout de son nez. Si rien ne se règle, c’est le dépôt de bilan. Et les joueurs pourront toujours ne pensez qu’à et uniquement qu’à leur “Crysis 4’….







N’importe quoi… Crytek est justement excellent en terme d’optimisation au vu de ce qui est affiché. N’importe quelle config de maintenant à 800€ est capable de faire tourner Crysis 23 à fond (et en 2008 c’était le même constat pour Crysis). Le Titan que tu évoque serait par contre bien incapable de faire tourner le CryEngine, pas du tout le hardware, ni le système, ni les apis, ni les drivers adaptés.


Le 20/06/2014 à 05h 23

Pas compatible avec un Galaxy Nexus non plus, un comble !

Le 10/05/2014 à 08h 32







juntawflo a écrit :



sachant que Google achète 10 x plus d’entreprise qu’appelle en moyenne … on pourrait conduire ton raisonnement bancal à google,MS, FBK … Comme c’est Apple on essaye d’exagérer les choses







Ah mais non, je pense la même chose de n’importe quelle entreprise, quelle que soit sa taille, lorsqu’elle commence à rentrer dans ce genre de logique. Que ce soit Google, MS ou FB. Dans tous les cas, quand ton expansion passe par le rachat d’une boite existante, c’est que tes ressources R&D internes ne font pas le poid pour compenser/faire concurrence.


Le 09/05/2014 à 14h 16







Network a écrit :



Et donc ?



Pour toi une entreprise ne doit s’appuyer que sur sa croissance organique ?



C’est quoi le problème avec la croissance externe ? <img data-src=" />







Bah c’est un aveu de faiblesse pour Apple, si c’est juste le pognon qui assure leur expansion et plus leur R&D interne. Et je parle pas de faiblesse au sens économique, mais au sens premier de l’entreprise, l’esprit d’entreprenariat, de création de valeur.


Le 03/05/2014 à 18h 04

C’est avoir une vision un peu étriqué des réseaux et du travail que de ne penser à LI que sous l’angle de la recherche d’emploi. Pour moi LI est énormément utile pour débloquer / faire progresser les projets sur lesquels je travaille, avec un réseau important vous pouvez facilement trouver les bonnes personnes directement, en court circuitant les contacts standard. Un gain en efficacité incomparable.

Le 19/04/2014 à 07h 51

C’est quand même un peu raisonner à l’envers de dire qu’il faut moins d’efficience pour garder un maximum d’emplois… Ce qui compte in fine c’est l’efficience, pas l’emploi tel que définit actuellement dans notre société. Un “emploi” peut revêtir de multiples formes, travailler à l’usine (ou tout autre boulot ingrat similaire) n’est certainement pas le rêve de l’homme. Laissons les machines générer les revenus sur les taches ingrates à notre place !

Le 10/04/2014 à 15h 54

Hop, un bench de perf sans appel pour alimenter le débat:

http://www.codeproject.com/Articles/212856/Head-to-head-benchmark-Csharp-vs-NET

Le 09/04/2014 à 09h 08







charon.G a écrit :



Je finirai là dessus. On ne vit plus dans le même monde qu’il y a dix ans. Le cloud prend de plus en plus de place. Ca va de plus en plus loin. Bientôt on verra apparaître tout un tas de périphériques connectés. Comme harmattanblow j’ai codé longtemps en C++(je continue pour certaines choses) mais ce langage n’a clairement plus sa place dans ce nouveau monde qui se dessine.



Chez Microsoft ils ont déjà choisi, Le C++ devrait se cantonner dans l’avenir à l’intérieur d’une sandbox. Mais tout ce qui est système (os/drivers/services de base) devraient être codé dans un nouveau langage safe.







Ouaip mais ça c’est parce que tu pense “connecté”. Il y a tout un tas d’application où la notion de reseau n’a que peu d’importance, et où une surcouche reste une perte de perf ou une barrière gênante quoi qu’il en soit. Je suis prêt à parier que le CryEngine/UnrealEngine/Unity, le ProTools, le 3DSMax/Maya/XSI et le Photoshop de 2020 seront toujours codés en C++ pur et dur. Même pour Photoshop qui s’est orienté cloud, peut-être que la partie reseau est ou sera un module managé, mais le coeur de l’application j’en doute.



Et puis il y a un autre aspect à prendre en compte: avec .Net, tu ne peux pas écrire une application réellement multiplateforme, c’est limité aux plateformes Microsoft. Quand a Java, il n’est pas connu pour ses excellentes performances..


Le 07/04/2014 à 20h 47







HarmattanBlow a écrit :











Chacun ses priorités; tu as visiblement une obsession pour la sécurité, je ne sais pas dans quel domaine tu bosse mais ça a visiblement une importance particulière. Dans mon domaine ce sont les performances des algo/binaires qui sont importantes avant tout; et à partir du moment ou l’environnement des utilisateurs est à peu près sécurisé (OS à jour les protections d’usage) et qu’ils récupèrent les binaires de source fiables, je ne vois pas de raison de psychoter. Dans mon cas, passer mon code en .Net serait un peu me tirer une balle dans le pied.


Le 05/04/2014 à 17h 57

Je vois ce que tu veux dire, mais tout ne repose pas sur le processing GPU pur et dur:

-Tout d’abord l’arrivée de Mantle et de DX12 montre bien que dans un contexte temps réel les cycles CPU restent importants pour piloter le GPU.

-Il y a des cas ou le GPU ne peut tout simplement pas être utilisé, soit parce que le calcul en lui même ne s’y prête pas (calcul en série), soit parce que le public visé n’est pas équipé en GPU performant (c’est mon cas, j’écris des applications de traitement audio lourd). Et je t’assure que chaque boucle critique est optimisé au pointeur et au compteur près, je mesure des différences sensibles de perf.

J’utilise aussi en parallèle des librairies comme Intel IPP, qui n’existent que pour C/C++.



Quand à la problématique de sécurité telle que tu la décrit, elle me parait un peu étrange: un jeu/programme ne sera détourné de son usage initial que si tu l’as récupéré d’une source douteuse; et dans ce cas tu peux tout autant récupérer des programmes .Net qui auront subis des détournements douteux.

Le 05/04/2014 à 17h 00







HarmattanBlow a écrit :



Enfin ajoute à cela le fait qu’à mes yeux des langages comme le C++ doivent et vont disparaître (peu ou prou) : l’état actuel de la sécurité est intolérable, nous devons admettre notre incapacité à écrire du code sûr et opter pour les outils qui permettent le plus de vérifications automatisées possibles. La seule alternative au code managé c’est la virtualisation stricte (la gourmande) à tous les étages et ça pose beaucoup plus de problèmes (GPGPU etc).







Autant je peux comprendre que tu ai tes propres raisons dans le 1er paragraphe, autant ce 2nd paragraphe… WTF. J’ai l’impression que tu as complètement zappé toutes les applications qui sont basés sur les performances pures, sans aucun lien avec les problématiques de sécurité; je pense aux moteurs 3D temps réel, aux logiciel de création/édition pro dans le domaine 2D/3D/Vidéo/Son, ou l’optimisation du code et du code compilé l’emporte largement sur toute problématique de sécurité ( ? ).

Sans compter qu’une très large majorité de librairies utilitaires/scientifiques/média/hardware sont disponibles uniquement en C/C++.

Il y a eu tellement de langages apparus ces 20 dernières années, et le C++ est toujours aussi présents dans les applis qui demandent des perfs ou un accès bas niveau, donc à mon avis il n’est pas prêt de disparaitre…


Le 05/04/2014 à 08h 18







HarmattanBlow a écrit :



Et bien écoute, en tant qu’ancien dév C++ volontairement reconverti au C# presque depuis son introduction, ça me fait plaisir de lire ça.



Bon après moi j’en suis au stade où ses limites (*) finissent par me sortir par les yeux au point que je cherche un nouveau langage mais je crois que je vais chercher longtemps avant de trouver mieux.

<img data-src=" />





(*) Typage trop restrictif (sur ce point C# &lt; Java &lt; C++ !), absence totale d’optimisations des allocations (à voir si leur compilo AOT corrige ça) qui rend l’utilisation de certaines fonctionnalités prohibitives dans certains contextes, et une certaine verbosité dans certains cas, notamment des choses typiquement fonctionelles (types imputables & co, comme en Java ou C++)







Curieux de savoir ce qui t’as volontairement fait passer de C++ à C# ? Je trouve le combo C++/Qt particulièrement souple et optimisé.


Le 07/04/2014 à 15h 14







Charly32 a écrit :



nVidia qui critique l’approche proprio d’AMD avec Mantle…charité, hôpital, toussah! <img data-src=" />







Ou tu as vu qu’ils critiquaient l’aspect propriétaire ?


Le 06/04/2014 à 15h 57

En pratique avec Free sur Paris, à part les deux premiers mois de lancement où c’était très aléatoire, en moyenne je dois pas avoir plus d’un problème sur 20 appels ou connexions data, donc c’est vraiment pas dérangeant comparé au tarif que je paye.

Le 06/04/2014 à 09h 00







GGGG-Ready a écrit :



BT racheté par Free ! <img data-src=" />

Maintenant on connait le prix à payer avec cette vente. Le prix pour BT, c’est minimum 5 milliards d’euro, et encore faudrait il que Martin soit vendeur <img data-src=" />



Va falloir faire un gros chèque Xavier <img data-src=" /><img data-src=" />







J’ai remonté vite fait ta liste des commentaires sur les 6 derniers mois (http://www.pcinpact.com/inpactien/212185?_page=1 ) et tu n’as commenté QUE des news en rapport avec les 4 opérateurs Français, toujours dans le sens du troll, et avec probablement pas moins de 300 smileys hystériques.

Donc soit tu es payé par un des opérateurs pour commenter systématiquement toutes ces news (toujours dans la caricature à sens unique), soit… t’as une vie bien triste :/


Le 06/04/2014 à 07h 18







GGGG-Ready a écrit :



<img data-src=" />

<img data-src=" /><img data-src=" />

<img data-src=" /><img data-src=" />







Tu devrais utiliser un peu moins de smiley, ça fait un peu hystérique là.


Le 03/04/2014 à 13h 37

ENFIN !



(sinon c’est pas “Aero” mais “Metro”, enfin “Modern UI”… “Aero” c’est la surcouche graphique un peu inutile introduite avec Vista)

Le 02/04/2014 à 10h 35







Jarodd a écrit :



Apparemment elle avait pas mal de soutiens chez les entrepreneurs du secteur (voir le lien vers Twitter de l’actu).







Des entrepreneurs dans son cercle, mais certainement pas les indépendants/TPE du numérique et de l’innovation qu’elle snobait royalement !


Le 02/04/2014 à 10h 24







Fantassin a écrit :



Du numérique… Français ! <img data-src=" />







Pellerin avait déjà bien amorcé la blague avec sa #FrenchTech…


Le 02/04/2014 à 10h 22

Dommage, si Filippetti avait été remplacé ça aurait fait combo gagnant avec le départ de Pellerin…

Le 01/04/2014 à 07h 52

Et c’est pour quand l’Angleterre ? :(

Le 28/03/2014 à 09h 11







dmann a écrit :



Moi je fais confiance aux déclarations des concepteurs de l’oculus Rift, la Sony comme la Microsoft n’ont pas ce qu’il faut dans le ventre pour le faire tourner correctement. Sony avec leur propre modèle devront donc faire de gros sacrifices, soit sur la résolution, soit sur les images par seconde.







T’as oublié un paramètre: la qualité graphique. Toutes les démos VR le montrent bien, les derniers effets nextgen sont bien moins important que la réactivité du moteur. Suffit de calibrer les jeux VR en prenant ça en compte.


Le 26/03/2014 à 12h 24







zozolebo a écrit :



Détrompe-toi. Regarde les récentes affaires judiciaires de Nintendo.



Si je reprends le code source de DOS et que je fais un tout petit truc dans on coin, ils ne viendront pas me chercher des problèmes. Mais si je fais une appli basée là-dessus et que demain elle est téléchargée par 10.000.000 de personnes, je peux te garantir que Microsoft va me coller un procès au cul.



La différence est donc importante pour les éventuelles implications qu’elle pourrait avoir.







Justement, ton exemple est complètement irréaliste par rapport à l’objet en question, qui n’a plus aucune chance d’avoir la moindre utilité autre qu’historique. Et c’est bien pour ça que MS a ouvert le code source, il sait pertinent que les chances de détournement et de monétisation autour de ce code sont nulles.


Le 26/03/2014 à 10h 14







zozolebo a écrit :



Libéré ou ouvert ?



La différence est très importante car si les sources sont libérées, cela signifie qu’on peut réutilisé le code pour en faire ce qu’on veut, tandis que si elles ne sont qu’ouvertes, cela signifie qu’elles restent à 100 % la propriété de Microsoft et qu’on a juste le droit de les regarder, pas de les réutiliser.



Pas d’info sur une éventuelle licence libre concernant ces codes sources ? Connaissant Microsoft je doute fortement que ces codes aient réellement été libérés…







En même qui voudrait réutiliser le code source de la première version du DOS ? Tout a changé depuis, et je pense que MS s’en fout royalement de ce que tu en fais.


Le 25/03/2014 à 20h 35







refuznik a écrit :



Tu connais le prix des quadro ?

Tu peux rajouter 5000$ facilement.







Ce qui est assez ironique vu que la plus puissante des Quadro est d’une puissance ridicule face à ce Titan Z… Que NV vend comme capable d’égaler la puissance de Google Brain (en version triple GPU) !


Le 25/03/2014 à 18h 32







xloxlox a écrit :



oué la 295X a moins de 1000 euro et on en entendra plus parler de cette blague de titan ( qui n’a que le prix de titanesque en fait)

a ce prix t’achete 7 290x , enfin bref , RE - LOLLL <img data-src=" /> <img data-src=" />







<img data-src=" /> T’as idée du rapport Puissance/Watt d’une TItan Z par rapport à 7 290x … ?

AMD est tout simplement incapable de suivre sur ce terrain.


Le 23/03/2014 à 13h 56

J’admet avoir un peu exagéré, mais aussi parce que je trouve l’intérêt de Mantle/DX12 limité pour peu qu’on prenne la peine de restructurer un peu sa méthode de rendu, surtout dans un contexte ou les CPU sont à la hauteur du GPU.



Je réagissais surtout à la remarque sur l’OpenGL vieillissant, ils ont quand même jeté un tas de vieux trucs ces dernières années, et l’API est améliorée chaque année ou presque.

Le 23/03/2014 à 07h 27







AlphaBeta a écrit :



Enfin bref, OpenGL reste basé sur des technos d’un autre temps et les développeurs s’épuisent dessus…. mais n’y voyait pas la un soutien particulier à DirectX…. mais plutôt à une remise à plat d’OpenGL







Gn ? T’es au courant qu’OpenGL a été remis à plat (suppression de l’API vieillissante) depuis OpenGL 3.0 et OpenGL ES 2.0 ?

Et que OpenGL 4.2 qui est dispo depuis plus de 2 ans permet d’atteindre les performances d’un Mantle/DX12 ? -&gt;http://fr.slideshare.net/CassEveritt/approaching-zero-driver-overhead


Le 22/03/2014 à 09h 17

Au fait, ya bien un navigateur internet sur la XBox One ? Si oui, est-il capable d’afficher du WebGL ?

Le 21/03/2014 à 18h 46







garvek a écrit :



Je serais curieux de savoir ce que l’on peut faire avec OpenGL 4. Depuis la version 3 il y avait un certain controle sur le pipeline, mais qu’en est il effectivement de ce genre d’optimisation ? J’ai peur que ce soit du coup encore une grosse avance confortée par M$, surtout que comme d’habitude les constructeurs vont optimiser en premier lieu leur carte pour l’API et non pas pour les usages.







C’est passé beaucoup plus inapercu, mais OpenGL a fait aussi le même genre d’annonce à la GDC hier:http://schedule.gdconf.com/session-id/828316


Le 21/03/2014 à 18h 01







vampire7 a écrit :



Le CPU le fait tout seul, mais si la donnée n’est pas en cache, il y aura bien 4 accès RAM successifs pour remplir le registre 512 bits, ou 2 pour les registres AVX actuels.







Ah ! Je suppose que ca explique en partie pourquoi je n’ai eu qu’un gain d’environ x1.5 en passant des instructions SSE à AVX, et pas x2…

Au fait puisque tu as l’air bien renseigné, tu sais ce qu’est le “prefetch” ? Ça a un rapport avec ça ou pas ?