votre avatar

divide

est avec nous depuis le 11 juillet 2009 ❤️

446 commentaires

Le 21/03/2014 à 17h 26







vampire7 a écrit :



Ca risque au contraire d’être assez anecdotique, vu qu’avec de la RAM en “dual channel”, on ne récupère que 128 bits d’un coup. Et rares sont les algorithmes permettant de faire beaucoup de calculs sans échange avec la RAM…







Je suis pas sur de piger, tu veux dire que toutes les instructions AVX-512 doivent procéder à 4 chargements 128bits avant que l’opération s’execute ? Ce qui voudrait dire aussi que les instructions AVX actuelles doivent aussi procéder à 2 chargements 128bits au préalable ?


Le 21/03/2014 à 16h 26

C’est Broadwell qui apporte l’AVX-512 ? Ca pourrait donner un sacré boost aux calculs ça..!

Le 19/03/2014 à 15h 05







Turom a écrit :



Source?







le fov horizontal de l’OR est de 90 et le vertical 110, tu peux trouver les specs n’importe ou.

Ensuite la news pc inpact fait etat d’un fov horizontal 90 pour le Sony, et que la techno repose aussi sur un ecran unique de 5”, donc du 169 divise en 2 horizontalement. Donc le meme calcul s’applique.


Le 19/03/2014 à 11h 03







Toorist a écrit :



ce qui sera le plus “dangereux” pour les yeux ce n’est pas le fait que l’image soit proche, c’est que la source de lumière très proche de l’œil. Même en adaptant (baisse) progressivement la luminosité, il reste une source de lumière très proche de l’œil qui est bien plus “nocive” et fatigante en cas de forte utilisation que les problèmes de distance.



Après si tu joues avec un tri-screen avec la lumi à fond, ca te changeras pas grand chose <img data-src=" />







Bah que la lumière soit proche ou loin ca ne fait absolument aucune différence, seule l’intensité influe.


Le 19/03/2014 à 10h 27







Faith a écrit :



Pas convaincu…

Le cerveau aura certes l’impression que c’est loin, mais les yeux seront toujours focalisés sur la surface de l’écran: si tu focalises plus loin, tout sera flou, non ?







Bah c’est le principe optique des lentilles qui est a l’oeuvre la, donc si, ton oeil percoit vraiment l’image comme etant a l’infini.


Le 19/03/2014 à 10h 24







Fenris a écrit :



FOV de l’OR : 90° vertical, 110° Horizontal.







Eh non, c’est l’inverse, l’OR a un fov de 90 horizontal et 110 vertical.

Le casque de Sony a exactement les memes specs.


Le 19/03/2014 à 10h 01







Oulanos a écrit :



Moi je me pose surtout la question suivante : déjà que de rester sur un pc toute la sainte journée, j’ai baissé en acuité visuelle depuis ces quelques dernières années. Alors si on commence à se mettre des écrans à 5 cm de la tronche… est-ce que ça ne va pas avoir un impact certain sur la vision des utilisateurs? la fatigue des yeux?







L’optique des casques de RV te donne l’illusion que l’image est a l’infini, donc c’est plus reposant pour les yeux qu’un écran d’ordi (si on pars du principe que c’est la distance qui provoque la fatigue oculaire).


Le 19/03/2014 à 09h 15







Cypus34 a écrit :



C’est pas censé faire de la trouadé ? Comment ils font avec un seul écran ?







Bah… Comme le Rift, en divisant l’ecran en deux.


Le 19/03/2014 à 08h 40







A-snowboard a écrit :



D’après ce que j’ai lu ailleurs.



Champs de vision à 90•



S’pas beaucoup non ?







90 c’est le meme FOV que le Rift et c’est bien plus que quasiment tous les casques hors de prix qui existaient avant le Rift. Donc “pas beaucoup” c’est très, très relatif!







knos a écrit :



Le rendu concept est toujours sublime. (comme l’oculus)



Quand tu vois les protos tu te dis que c’est pas encore ça <img data-src=" />







Sauf qu’ils montrent le casque a la GDC, donc je les vois pas s’amuser a faire un render concept qui n’aurait rien a voir avec ce qu’ils montrent au meme moment. Les dev kits n’existaient pas encore publiquement quand les rendus du Rift ont ete montrés.


Le 14/03/2014 à 07h 54







manu0086 a écrit :



Une dette ? c’est un investissement. Altice sort du cash principalement…







Je pense qu’il parle de la dette pré-existante de numéricable, auquel va s’ajouter ce rachat.


Le 25/02/2014 à 16h 28







FREDOM1989 a écrit :



Fonction annexe comme la 3D utilisé par personne et Physx utilisé dans 2 jeux par ans?



Pour la finitions, elle ne dépendent pour l’essentiel pas de AMD ou Nvidia mais des fabricant de carte Asus/Gigabyt/… Quoique tu en disse les Radeon HD 5000 surtout on nettement écrasé les GTX 400 sortie bien plus tard (environs 6 mois) avec une consommation de fous.







Effectivement ya 3D Vision et PhysX, mais je pensais plus à Cuda, PureVideo/NVEnc, l’excellent support OpenGL, les fonctions graphiques supplémentaires des drivers NVIDIA, etc, etc.

Quand à la finition je ne parle pas du matériel lui-même (qui se vaut d’un coté comme de l’autre) mais de la qualité des drivers et la manière dont tout est pensé pour faciliter la vie des développeurs.

Je sais pas quel critère tu utilise pour dire “écraser”, généralement on utilise plus les PDM que les Watts…


Le 25/02/2014 à 15h 38







FREDOM1989 a écrit :



Radeon HD 5000 VS Geforce GTX 400 Radeon gagne haut la main (sortie plus temps et toujours plus intéressente, la GTX 460(Ti) a tardé et a été la seul carte vraiment concurrentiel)



Radeon HD6000 VS GTX 500 Idem que la génération d’avant avec en prime une GTX 570 pas dégeulasse



Radeon HD 7000 AMD domine jusqu’à l’arrivé bien plus tard des GTX 600 et à ce moment là c’était du coude à coude.



Maintenant depuis les GTX 700 Nvidia a repris l’avantage globalement mais faut arrêté de dire que la domination de Nvidia est logique, AMD a dominé sur plusieurs gen et ses ventes n’ont pas cannibalisées celles de Nvidia.



Je précise que pour mon jugement je prend compte du rapport perf/prix mais aussi de la conso qui était catastrophique sur Fermi comme l’est buldo et ses évolutions chez les CPU AMD (dommage que la micro architecture d’un CPU x86 coute si chers parce qu’il faut qu’AMD sorte de cette saloperie)







AMD n’a jamais dominé le marché GPU (ni CPU d’ailleurs), les performances d’une carte ne se mesurent pas qu’au rapport perf/prix, mais aussi aux features annexes, à la finition, à la documentation et au support développeur en général… Et là ya simplement pas photo.


Le 15/02/2014 à 09h 12







SebGF a écrit :



Et quand y’aura des problèmes d’arnaques ou autres anomalies exploitant l’économie participative, on dira que c’est la faute à l’Etat qui n’a rien fait pour encadrer et protéger le citoyen.



La routine habituelle quoi. <img data-src=" />







Que je sache l’Etat Français n’a jamais été tenu pour responsable d’arnaques montés par des entités privés sans lien avec l’Etat. Les sites de financement participatif sont très clairs à ce sujet, c’est ta propre responsabilité que tu engage quand tu finance un projet, le risque est toujours rappelé. Et heureusement qu’il en est ainsi.


Le 14/02/2014 à 19h 44







Ellierys a écrit :



Franchement je ne vois pas le problème. Je préfère ça plutôt qu’on la file a 22 mecs qui font leur caca nerveux dans un bus.







…ah oui non mais forcément, si tu compare au bas de l’échelle de la légion d’honneur ça parait moins scandaleux <img data-src=" />

Ce qui me dérange dans ce cas précis c’est qu’il y a clairement copinage, cf les visites de Fleur Pellerin à Quantic Dream, l’utilisation à fond des subventions du CNC (tout en étant en partie dans le comité de selection) alors que Quantic Dream tire le gameplay par le bas production après production tout en revendiquant faire de “l’innovation” de manière très arrogante (cf.. toutes les déclarations de Grutolla), etc… De Grutolla sait très bien se mettre en avant en se faisant passer pour la pointe de la technologie francaise et le gouvernement se fait embobiner au point de lui décerner la légion d’honneur…

C’est un peu flippant concernant le discernement du gouvernement à choisir les vrais innovations à subventionner et mettre en avant. Avec ce genre de critère les vrais #FrenchTech vont continuer à se développer aux USA, n’en déplaise à madame Pellerin.


Le 14/02/2014 à 17h 48

Voila un aperçu de ce qui nous attend avec les critères de selection innovation de madame Pellerin:

lefigaro.fr Le Figaro



Cette ministre est décidément de plus en plus désespérante.

Le 14/02/2014 à 16h 47







tAran a écrit :



Pour la première partie je suis d’accord, pour la seconde non.



Je trouve ça très bien que des agréments soient délivrés par l’ACP, ce qui permettra de limiter l’arrivée sur le marché d’escrocs (ils sont nombreux et n’attendent que notre argent).



Un peu comme ce qui se passe avec les agréments pour les établissements de paiement <img data-src=" />







Je pense que le domaine du financement participatif devrait être complètement libre, aux financeurs eux-même de détecter l’embrouille ou non, et d’engager leur responsabilité. Si l’Etat commence à valider les projets qui rentrent dans ses critères, en distribuant les bons et les mauvais points selon son bon vouloir, ça va tout simplement tuer la vraie innovation; et on va revenir au bon modèle bien restrictif déjà en place qui consiste juste à rentrer dans des cases administratives pour être validé. Et je sais hélas de quoi je parle, n’ayant jamais pu rentrer dans les cases des subvention innovation/incubateurs innovations de l’Etat.


Le 14/02/2014 à 16h 25

« La France doit devenir un pays pionnier dans l’économie participative »



Quand on est pionnier, c’est quand on essaye avant les autres, non ?

Comment peut-on revendiquer le statut de pionnier dans le financement participatif alors que Kickstarter existe aux US depuis 2009 et cartonne depuis presque autant d’années ?



Sinon ce genre de proposition ne devrait même pas avoir lieu, dans la mesure ou l’Etat ne devrais tout simplement pas avoir son mot à dire sur les conditions d’accès au financement participatif.

Le 13/02/2014 à 19h 14







127.0.0.1 a écrit :



Non, bien sur. Ce genre de boite prend des cartes graphiques un peu au pif, c’est certain. Leurs critères principaux c’est que ce soit marqué “Professional” et que ca coute cher… Ce sont des preuves de qualité. <img data-src=" />

/ironie







Non mais stop… Ce genre d’argument d’autorité n’a jamais rien prouvé. Surtout dans un secteur aussi dynamique que les nouvelles technologies. Les seuls arguments qui font sens sont les spécifications techniques et les tests réels.

Si tu savais le nombre de dépenses incongrus et choix contre-productifs réalisés par la plupart des grand groupes, ya parfois de quoi désespérer ;)


Le 13/02/2014 à 19h 03







illogict a écrit :



Un des cœurs du Core i7 620m de mon ordinateur portable a cramé après trois ans de bons et loyaux services. Je ne pensais pas que c’était possible non plus.

(Heureusement, il était toujours sous garantie.)







En même temps les CPU/GPU embarqué c’est un peu des cas à part, ils se prennent des méchantes surchauffes et autres chocs mécaniques plus souvent que leur equivalent desktop.


Le 13/02/2014 à 18h 49







127.0.0.1 a écrit :



Facts:



Oscar 2013, meilleurs effets visuels : L’Odyssée de Pi (Life of Pi) .



Effets réalises par le studio Rhythm & Hues, utilisant leur plateforme “Crom” a base de NVIDIA Quadro FX.







Ok, et…? On peut trouver autant de “facts” sur autant de systèmes différents, d’autant que je ne pense pas que R&H ai communiqué en disant que leur boulot aurait été impossible (ou plus difficile) sans Quadro.


Le 13/02/2014 à 17h 58







John Shaft a écrit :



HS



Tu es le divide qui traine aussi sur NoFrag ?



/HS







yep


Le 13/02/2014 à 17h 57







nlougne a écrit :



Excuse moi de te contredire cher ami, Actuellement dans la gamme des utilisateurs de CUDA pour les moteurs de rendu. Tu es largement gagnant en te tapant une GTX 780 ou une TITAN que les versions Pro de chez Nvidia. Blender, Octane engine ou encore Indigo le prouve tout le temps avec des benchmarks. Même le côté limitatif de la mémoire vive des cartes est réglé avec les 6go des TITANS.



Maitenant en terme de pilote Opengl, oui tu dois uniquement regarder les cartes Pro, car celles du grand public sont moisi. Mais moi utilisant que CUDA et OpenCL, blender et Octane tu me verras pas jeter du fric sur une carte Pro Nvidia de si tôt car j’y perds par mon usage. Nvidia a voulue trop faire des cartes spéciques.







Ben, c’est exactement ce que je dis, tu es gagnant avec une GTX par rapport aux Quadros :)

Même en terme de support OpenGL je trouve rien à redire sur les cartes grand public, en tout cas niveau développement je me suis jamais heurté à une incompatibilité vis à vis des normes officielles.


Le 13/02/2014 à 17h 22







misterB a écrit :



Tu sais de quoi tu parles ça fait peur <img data-src=" /><img data-src=" /><img data-src=" />



Pourquoi les studio 3D investissent ils en FIRE ou Quadro si une bête GTX suffit ?







Bah… oui, en tant que développeur de soft GPGPU et gros utilisateur de softs 3d/montage je pense comprendre un peu comment marchent les GPU et les softs qui y font appels (que ce soit des jeux ou des applis). Je t’assure, fais le test par toi même, tu verra si tu te sens pénalisé avec un GPU gamer en utilisation pro.


Le 13/02/2014 à 17h 20







athlon64 a écrit :



Pourquoi ils vendent encore des FirePro et autres si une carte gamer est equivalente et moins chere ? Sont connes les entreprises ou quoi (ironie) <img data-src=" />







C’est en grande partie par habitude et le fait que les fabricants communiquent à outrance sur le segment pro. Mais je t’assure, fais le test toi même, ça a été prouvé et re-prouvé qu’il n’y a absolument aucune différence à l’utilisation sur des applis pro.


Le 13/02/2014 à 17h 17







misterB a écrit :



Et les carte du MacPro sont merdique en jeu vidéo mais poutre la GTX780 en GPGPU, on doit en conclure quoi ?







euh non, vu les specs du GPU du Mac Pro ya aucune chance qu’il poutre une GTX780 en GPGPU (ou alors montre moi les benchs en question…).


Le 13/02/2014 à 17h 16







misterB a écrit :



GTX780



On monte pas une bécane de jeu <img data-src=" /><img data-src=" /><img data-src=" />







…Pour ton info les applis 3D pro utilisent exactement le même jeu d’instruction que les jeux vidéo. Sauf que les GPU gamers sont beaucoup moins cher tout en étant plus performant. Vérifie, la aussi les benchs ne manquent pas. Et si tu n’overclock pas ton GPU, il n’y a pas plus de raison qu’il crame qu’un GPU “pro”.


Le 13/02/2014 à 17h 14







octavarium a écrit :



Tu ne peux pas comparer un i7 et un Xeon <img data-src=" />







Ben, ce sont 2 processeurs x86 avec le même jeu d’instruction (enfin non, le Core i7 a un peu plus d’instructions en l’occurence il me semble), donc si, tu peux les comparer tant en terme de performance calcul (ya une floppée de bench sur le net) qu’en terme de longévité (bon la ya moins de données… mais encore une fois, j’ai jamais vu un core iX cramer).


Le 13/02/2014 à 17h 08

Si on prend les mêmes composants, on arrive peut être à une facture équivalente ou plus chère.



…Mais si on réfléchit 2 secondes, on peut monter une config PC plus puissante que le plus puissant des Mac Pro proposé à 4000€:



2GTX780: 2500€

16Go DDR3: 140€

Intel Core i7 4960X: 900€

Carte Mère: 100€



Total: 2140€ (bon ok j’ai pas inclus le disque dur)



Niveau fiabilité j’ai jamais vu un Core iX cramer après des années d’utilisation intensive, et niveau bench le CPU et le GPU listé ci-dessus s’en sortent mieux que ceux de la config Apple, même dans les applis pro (vérifiez par vous même, les benchs ne manquent pas sur le net).

De plus ça fait longtemps qu’il a été démontré que les GPU “pro” n’apportent rien de plus que les GPU “gamer”, bien au contraire les seconds se révèlent plus véloce (et tout aussi fiables) sur les applis pro.

Le 05/02/2014 à 11h 22







saf04 a écrit :



ben pourquoi tu l’as pas dit avant si tu le savais ?







Bah PC Inpact l’a déjà newsé de nombreuses fois:

pcinpact.com PC INpact



pcinpact.com PC INpact



pcinpact.com PC INpact



pcinpact.com PC INpactQuand aux raisons, on se doutait bien qu’avec un Doom 3 BFG sans support Oculus (alors que techniquement une démo codé par Carmack existait deja avec le support Oculus), ZeniMax était pas super chaud pour la VR…


Le 05/02/2014 à 11h 19

“L’information est passée plutôt inaperçue, mais John Carmack a bel et bien quitté ses fonctions chez iD Software”.



Euh non, je pense qu’on était tous au courant déjà…

Et la raison de son départ pour Oculus ne laissait pas de grands doutes non plus.

Le 04/02/2014 à 20h 35

“seulement 138 millions avaient été déclarés. La société n’avait ainsi versé que 5 millions d’euros en France”



euh, ya que moi que ca choque ce taux d’imposition (5%) anormalement bas ? Comment c’est possible ?

Le 04/02/2014 à 14h 37







Soltek a écrit :



Parait qu’on fait pire à des humains, mais ce n’est qu’une rumeur, si c’était vrai il y aurait des pages Facebook et nos likes les sauveraient.











gogo77 a écrit :



je veux bien croire que maltraiter un animal n’est pas bien, mais lorsqu’il s’agit d’actes envers des humains, les réactions ne sont pas aussi vives.











Eagle1 a écrit :



Où sont ces réactions indignées quand les coupables de meutre, viol, massacre sur adultes, femmes ou enfants sont laissés libre par la justice, en France ?







voila voila… comme quoi non, il n’y a pas que les maltraiteurs de chaton qui sont dénoncés et interpellés.


Le 03/02/2014 à 08h 29







Paulo Paulo a écrit :



Peut-être mais ça n’aurait servi à rien que ce soit open-source puisque nVidia n’aime pas l’open-source… Donc AMD aurait été le seul à l’utiliser. Comme avec Mantle.







Euh…Ton commentaire est légérement à coté de la plaque, NVIDIA étant historiquement celui qui supporte le mieux les normes OpenGL depuis un paquet d’années et qui en a proposé les innovations les plus importantes, et de deux justement vono vient de souligner qu’NVIDIA met en avant OpenACC (une norme libre donc) alors qu’AMD n’y participe pas.

Ta conclusion est donc pour le moins très étrange.


Le 01/02/2014 à 18h 46







yeagermach1 a écrit :



Donc si cela a vraiment du succés, ou MS updatera son DX pour faire du mantle-like, la chronos corporation fera sans doute de meme. Cela si c’est possible bien sur. Et si cela l’est pas, Nvidia sortira forcement son équivalent (parce que cela m’étonnerait qu’ils utilisent Mantle). Et les développeurs se retrouveront a dev un nouveau moteur de rendu qui se rajoutera aux autres. Ça coute cher a force.







Le pire, c’est que même si NVIDIA reprenait les specifications de Mantle tel quel, les développeurs seraient de toute facon obligés de réécrire 2 fois leur code, l’architecture hardware d’un GPU NVIDIA étant complètement différente de celle d’un GPU AMD. Pareil pour un hypothétique Mantle Intel, qui nécessiterait une 3eme réécriture de code. Et puis le double de tout ça à la nouvelle génération GPU de AMD/NV/Intel…

Donc cette techno est pourrie à la base…


Le 01/02/2014 à 18h 40







sr17 a écrit :



Justement non.



Il y aura toujours des cas ou l’on ne pourra pas réduire le nombre de “drawcall”. Et les techniques visant à les réduire coûtent aussi de la puissance CPU, ce qui est dans certains cas le facteur limitant.







Pour avoir suivis (coté dev) l’évolution d’OpenGL depuis 2000, le nombre de calculs et d’algos qui sont déportables du CPU vers le GPU est de plus en plus impressionnant, et cette évolution des standards à diminué d’autant le nombre de drawcalls CPU, les GPU étant de plus en plus autonomes. Donc si tu en arrive au point que le nombre de draw calls est si important dans la charge CPU, c’est qu’il y a vraiment un truc mal branlé dans ton code à la base (comprendre: tu n’as pas su tirer partie au mieux des possibilités de DX/OGL en terme de fonctionnalité, ou tu dois franchement revoir tes passes de rendu).

Par exemple à l’époque d’OpenGL 1.4, il fallait envoyer manuellement tous les sommets d’une sphères en les reliant entre eux (et autant de drawcalls donc), aujourd’hui il suffit juste de demander au GPU de créer une sphère (geometry shader). Pareil pour l’éclairage géré par les shaders, les rendus sur plusieurs targets simultanéments, etc, etc.







sr17 a écrit :



Pourtant, d’un point de vue technique, il est évident que les API de haut niveau sont devenu un énorme facteur limitant. Et c’est encore plus vrai quand on s’éloigne des techniques de rendu standard.







Pour moi coté développeur le facteur limitant c’est clairement la complexité de développement. L’optimisation, ya 10 chemins différents pour y arriver, mais apprendre la spécificité de l’architecture de tel GPU de telle génération sur telle plateforme, et refaire 6 fois de manière différentes le même algorithme (avec logiquement 6 fois plus de temps de dev et de debug), c’est une perte de temps qui aurait pu être investie dans la recherche d’un algo plus performant.

C’est comme si on revenait à l’écriture de programmes illisibles en assembleur, avec du code spécifique pour Intel/AMD, au lieu d’écrire un code lisible et unique en C++.







sr17 a écrit :



On peut certainement s’atteindre à des gains beaucoup plus importants avec certaines techniques novatrices de rendu de terrain.







Bah la génération et le rendu d’un terrain c’est typiquement un truc qui peut être déporté entièrement sur GPU, pour peu qu’il ai les bons geometry/vertex/pixel shader un terrain hyper complexe peut se faire en moins de 10 draw calls…


Le 01/02/2014 à 15h 14







aqwa a écrit :



Une réaction de nvidia est-elle prévue?







A mon avis NVIDIA s’en fout, dans la mesure où les devs vont pas se faire chier à coder du Mantle (dont le code est spécifique à chaque vendeur GPU, chaque génération de GPU et chaque plateforme ..!) pour gagner 15% de perf, alors qu’en remaniant un peu son code DX ou OGL on peut facilement soi-même réduire le nombre de drawcalls (si c’est vraiment un facteur limitant..). Ya plein de techniques pour ça dans les 2 APIs, et surtout un seul code DX ou OGL est universel pour toutes les combinaisons de GPU/Plateforme (surtout avec OGL).

En fait NVIDIA a déjà donné sa réponse, c’est proposer plus d’outils utiles aux développeurs (entre autre via le nouveau SDK Gameworks).


Le 01/02/2014 à 11h 24

Duc HA DUONG conclu parfaitement l’article.

Parce qu’en l’état, la French Tech c’est encore un label bidon attribué selon les propres critères très subjectifs du gouvernement, et pas une vraie initiative globale dont tous les vrais innovateurs pourraient bénéficier.



Par exemple les subventions françaises à l’innovation sont une vaste blague, il s’agit en réalité bien plus de rentrer dans des critères administratifs que dans des critères d’innovation. J’en ai fait l’amère expérience, et après avoir vainement tenté de me faire aider par la France ce sont finalement les USA qui m’ont apporté le soutien dont j’avais besoin. Et la French Tech, c’est hélas exactement la même direction que ça prend avec une philosophie administrative cloisonnée.

Le 16/01/2014 à 15h 19

C’est ça, j’avais économisé autour de 30% après plusieurs mois d’utilisation sur mobile, alors qu’Opera Mobile en parallèle économisait 80%…

Le 16/01/2014 à 14h 39

Hm, j’espère qu’ils ont amélioré la compression, parce que sur la beta on gagnait pas grand chose, contrairement à Opera Mobile qui compresse beaucoup.



Sinon l’intérêt est surtout dans les zones avec peu de reseau (type métro), ça aide pas mal.

Le 16/01/2014 à 14h 36

Sinon Mega c’est 50 Go gratuit ET fichiers de tailles illimités…

Le 23/12/2013 à 18h 12







iamflox a écrit :



Bien que je comprenne les contraintes techniques, je pense quand même qu’il s’est tiré une balle dans le pied. Mais les nouveaux arrivés chez Oculus Rift devront probablement corriger le tir, afin d’éviter de voir se perdre une clientèle au potentiel commercial absolument énorme (sans compter que Sony et Microsoft feront probablement leur propre version du casque VR)







On peut brancher un périphérique de tracking sur XBox One/PS4, ou seule la manette est reconnue ? Dans le second cas, ça risque très difficile d’avoir de la VR sur ces consoles…


Le 21/12/2013 à 07h 28

Sinon il y a d’excellentes alternatives comme ebookdroid, qui lis absolument tous les formats !

Le 19/12/2013 à 11h 31



Seul souci, son seuil de déclenchement était jusqu’alors fixé à 150 000 euros. Une somme bien trop élevée pour les producteurs de jeux sur mobiles dont le budget n’atteint que rarement les six chiffres.







un amendement proposant de revoir ce seuil afin de l’abaisser à 100 000 euro





100.000 ça fait toujours 6 chiffres non ?

Ca aurait eu un vrai impact pour les petits développeurs si le seuil avait perdu un zero, mais la c’est une blague, toujours que les gros qui pourront en bénéficier…

Le 17/12/2013 à 13h 25







athlon64 a écrit :



Le support de OpenGL, je ne sais pas réellement ce que ça apporte, je ne joue pas et pas de 3D.







Attention, OpenGL est utilisé par de plus en plus d’applications, pro ou non, 3D ou non. Ya guère que les traitements de textes qui ne vont probablement pas y passer.

Ceci dit OpenGL 2.0 sera bien suffisant pour la majorité.


Le 07/12/2013 à 12h 34

manu0086, ça fait combien de temps que tu troll systematiquement sur chaque news qui a trait de près ou de loin à Free ? 2 ans ? plus ?

Si tu nous racontais plutot pourquoi cette exaspération constante contre cet opérateur (visiblement c’est personnel vu l’acharnement), tu vivrais peut être plus sereinement après avoir vidé tout ton sac ?

Le 07/12/2013 à 09h 47







Reghr a écrit :



Bonjour,

Toujours le même gros défaut, Sensorly n’existe pas pour les windowsphones donc les résultats sont faussés (autant et bientôt + de WP que de pommeux) car non exhaustifs <img data-src=" />







Tu as un drole de raisonnement mathématique toi… Il n’y a aucune raison pour que les possesseurs de terminaux Windows Phone passent plus dans des zones couvertes en 4G que les possesseurs de terminaux Android ou iOS. Donc statistiquement que les terminaux Windows Phone soient inclus ou pas dans les résultats, ça ne change strictement rien aux tests de couverture.


Le 07/12/2013 à 09h 44







Ribibi a écrit :



Attention à ce que j’en ai lu, le fair use de 20Go ne serait valable qu’en 4G. Si tu n’as que la 3G de dispo chez toi, tu restes au fair use de 3Go.

Maintenant, qqun a-t-il compris autrement les propos de X. Niel ?







Faux, il suffit juste d’avoir un terminal 4G et activer l’option 4G, même si tu ne capte qu’un reseau 3G.


Le 06/12/2013 à 19h 03

Je confirme, c’est fatiguant de voir systématiquement les commentaires trolleurs de manu0086 plusieurs fois par news, toujours dans le même sens et jamais en nuances…

Le 05/12/2013 à 13h 54







Goblin a écrit :



parlez pour avoir le dernier mot, on dirait le critère de reconnaissance d’un freenaute furieux.



Tu vas chez quick et mac do, tien, les menus sont presque au même prix, entente ?

Tu vas chez carrouf, auchan, …, pack de 6 cannettes de coca, 2,50€ , entente ?



réveille toi, les prix sont certes libres mais aussi contraint par de multiple facteurs qui semble te dépasser. Tu aurais aimé quoi comme écart de prix :



Orange : 50€,

Sfr: 40€

Bouygues 30€

Free 20 €



et la tu aurais changé ton fusil d’épaule et dirais encore autre chose.



ps : plus ta marge est faible, plus les prix sont similaires.







? Ben en l’occurence c’est toi qui continu, tu souhaite donc toi aussi avoir le dernier mot non ?



Justement tu cite Quick et McDo, mais eux sont sur le marché de la restauration, là ou il y a bien plus de diversité de prix que dans le domaine des opérateurs: entre un sandwich chez Carrefour, un kebab, un menu burger, un menu dans un restaurant classique et un menu dans un restaurant haut de gamme il y a d’énormes différences de prix qui étaient jusque là inexistants dans le domaine de la telephonie mobile. Free est un peu comme la chaine McDo face à une chaine comme Hipopotamus, par exemple.


Le 05/12/2013 à 13h 35







alexjo74 a écrit :



j’adore les spécialiste qui refont le matche “heureusement qui free est là sinon on payerai tj 100 euros…

1: c’est la concurrence, personne ne t’oblige payer 100 euros pour un forfait (se loger et se nourrir est indispensable, téléphoner est un luxe)

2: même si Free n’était pas arrivée, les prix auraient baisse mais moins rapidement.

3: Avant, tout le monde voulait changer de mobile, et les seuls qui se sont enrichis sont Apple et compagnie

4: Free était obligé de faire des prix aussi bas, car si Free n’avait pas propose de tarifs pareil, personne ne serait allé chez eux.

5: pour ceux qui sortent tout le temps l’amende subit pas les 3 historiques, combien de fois Iliad a été condamné en France et combien d’amendes a t il payé ?

6: arrêtez de vous paindre, Free cherche du personnel payé au SMIC (21K euros par An) + primes.

alors, les personnes du service client ILIAD qui sont payés a dénigrer la concurrence, bougez vous et répondez aux clients mécontents. il y en a plein qui on crû au miroir au alouettes et se sont réveillez avec une gueule de bois.







Justement non, l’amende que tu cite dans ton point 5 montre que ton point 1 est tout sauf de la libre concurrence, et même après leur condamnation les tarifs n’ont en rien baissé, il suffit de voir l’évolution avant et après l’annonce de Free, c’est assez flagrant (et invalide ton point 2 au passage).