Je ne suis pas d’accord là-dessus. A la base j’ai toujours estimé que Minecraft était un peu une techno-démo, ou une vitrine technologique, pour montrer qu’il est tout à fait possible de développer des choses complexes, lourdes et avec une notion de temps-réel en Java.
Sauf que dans ce cas là, c’est une très mauvaise vitrine : le rapport entre la puissance demandée et la qualité des graphismes de la version standard est très mauvais, et Java n’en est même pas la principale raison, c’est juste que le jeu n’a jamais été développé avec une optique de performance.
Même en Java, on peut faire des jeux avec des performances bien meilleures que Minecraft classique.
Par contre, en tant que Linuxien, je suis terriblement déçu, car ça semble évident que la version Windows 10 est destiné, à terme, à remplacer la version classique. En même temps, ça paraissait inévitable avec le rachat par Microsoft. A mon avis la version 1.9 sera la dernière, ou au mieux l’avant dernière.
Est-ce qu’un jour ils nous feront une version Firefox Web edition et un Firefox Usinagaz avec support de la 3D, des manettes de jeu, de …
Sauf que vu que tout ça est dans les standards du Web, donc ton “Firefox Web” ne serait juste qu’un navigateur castré qui créerait des problèmes de compatibilité avec les sites modernes, bref un nouvel IE.
Comme je disais dans un autre commentaire: lorsque nintendo sort une machine moins performante que la gen precedente ils decident de facto de brider l’acces au développeur puisqu’il ne mettent pas à disposition un hardware suffisament performant pour permettre un portage. Demandé à un dev de faire une version d’un jeu pour une seule machine c’est lui demander de prendre un risque financier enorme d’abord car le parc de machine est reduit mais aussi parce que l’on sait que certains jeux ne peuvent tout simplement pas etre adapté comme par exemple les open world. les editeurs doivent donc de facto faire une version bridé de leur jeu .
Alors oui la Wii U est plus faible que la concurrence, mais elle n’est pas moins performante que la génération précédente non plus et la génération précédente avait déjà du GTA 5 et autre open world. Si le marché était là ils y iraient, mais les éditeurs ont appris d’expérience que les ventes de jeux sur Wii U sont phagocytées par l’omniprésence de Nintendo sur sa console. A cause de l’image de la console, seul les party games, et autre skylanders arrivent à percer, ce qui pardoxalement contribue à renforcer cette image.
Nintendo c’est enfermé dans une image dont il peine a sortir. Il n’est même pas certain qu’il le veuille vraiment vu que ces licence maison lui suffisent a rentabiliser ses machines.
Le
22/06/2015 à
13h
01
Je suis de ton avis, la plupart des acheteur de la WiinU n’attendent pas ce type de jeu car il ont acheté une console à l’image familiale. Donc les éditeurs de ce type de jeu n’osent pas s’y froter. La complexité d’adaptation joue aussi bien entendu.
je réagissait juste à ton affirmation que Nintendo bridait les jeux. Ce n’est absolument pas le cas. C’est juste les éditeurs tiers qui manquent.
Le
22/06/2015 à
11h
27
Ishan a écrit :
Ils ont surtout fait comme d’hab, ils ont fait un truc en se disant que c’est ce que les gens voulaient. Le truc c’est que si tu demandes pas un minimum aux gens ce qu’ils veulent, et bien ça ne marche pas forcement…
Ce n’est pas si simple. Henri Ford disait : “Si j’avais demandé au gens ce qu’il souhaitaient, ils auraient répondu des chevaux plus rapides”. Faire ce que disent vouloir les client n’est pas forcément ce qu’il y a de mieux a faire.
Avant que Nintendo sorte la Wii, tout le monde attendait seulement de la nouvelle génération de console de meilleures performances, or grâce à la Wiimote, il a fait un carton avec une console techniquement bien en dessous.
Nintendo a pris le même genre de pari avec le Gamepad de la Wii U et c’est planté cette fois. On n’inove pas sans prendre de risques.
wawadou a écrit :
Ayant une Wii, hormis le gamepad qu’est ce qui differenciait la Wii de la WiiU (vraie question) ?
De meilleures performances graphiques, presque plus aucun jeu qui tire vraiment partie de la wiimote (priorité au Gamepad) et c’est a peu près tout.
coreylus a écrit :
-Je n’aime pas les consoles ayant un catalogue de jeu bridé par le constructeur. (Nintendo ne sort pas de jeux pour adulte ou trés peu)(par exemple je vois mal nintendo sortir des jeux types the evil within)
C’est faux de dire que Nintendo brinde les jeux : La Wii a eu droit a sans doute les 2 jeux les plus violents de cette génération de console : Mad World et Man Hunt 2.
Et pour la Wii U, ils sont allés justqu’a financer Bayonetta 2 (et le remake du 1 qui va avec) alors que son éditeur d’origine avait laisser tomber Platinium Games.
Le problème c’est surtout l’image que se traine Nintendo qui est en effet trop propre qui fait que l’on l’associe un peu trop vite a des jeux gentillets et qui dissuade la plupart des éditeurs tiers.
Mais la représentation textuelle contient beaucoup moins d’informations que la source. En particulier elle ne contient pas les informations de type : maVarDeTypeBidule.monMembreDeTypeTruc devient “charger le contenu de l’adresse maVarSansTypeSpécifié + 12 en tant que i64”
Certes, il y aura de la perte d’infos, ce que je voulais dire c’est que ça sera toujours mieux que du javascript brouillé.
white_tentacle a écrit :
Ils veulent faire faire du C++ aux développeurs web ??? Enfermez-les, ils sont devenus fous !!! " />
Le C++ c’est juste pour l’expérimentation. Je suppose qu’il se sont dit que si il on un bytecode assez bas niveau pour traiter efficacement le C/C++, ça devrait fonctionner aussi avec la plupart des autres langages.
Je pense qu’à terme les développeur web auront des outils de type flash qui leur génèreront les wasm qu’ils ont besoin
Le
21/06/2015 à
17h
35
marba a écrit :
Cette nouvelle m’inquiète pour les mêmes raisons. Aujourd’hui il est possible d’obscurcir le code js, cependant une analyse du comportement et un dé-obscurcissement est toujours possible. Avec le bytecodes c’est casser un peu ce qui à fait que le web est le web. L’ouverture, un langage universel, chacun peu faire du web, héberger son site, tout le monde au meme niveau.
C’est le contraire. Un “obscurscurcissement” efficace peut tout à fait employer des méthodes non bijectives qui font que le résultat ne sera pas réversible alors que le wasm est conçu pour avoir une représentation textuelle lisible.
Il faut voir que le wasm à pour but de remplacer les codes Javascript lourds qui ne sont de toute façon pas l’apanage du débutant. Il ne vise pas a remplacer totalement Javascript. Il sera tout aussi universel, standardisé. Et rien n’empèche d’avoir des outils accessibles aux débutants qui compilent vers du wasm.
Le
21/06/2015 à
13h
06
HarmattanBlow a écrit :
Au prix malheureusement du support de langages plus exotiques. Mais leur choix se défend pour les raisons que tu mentionnes.
Ca n’a rien d’impossible, ca sera au pire plus complexe. A priori il y aura un backend LLVM pour wasm donc quasiment tous les langages devraient pouvoir être supportés.
Le
20/06/2015 à
15h
14
Et pourtant ce n’est pas tout à fait ça.
En fait le wasm sera assez bas niveau (typage,…) et sans contraintes lourde (GC,…) pour permettre d’avoir des performance proches du natif tout en étant le plus neutre possible face aux différents matériels.
Mais techniquement, contrairement à la JVM ou au CLR, il ne se présentera pas, par une suite d’instruction d’un processeur fictif , mais plutôt comme une sorte d’AST : la structure intermédiaire en forme d’arbre sur laquelle travaille le compilateur une fois qu’il a fait l’analyse syntaxique du code.
Selon ce qu’a annoncé l’équipe travaillant sur wasm, ça permettrait à la fois de gagner en taille et en vitesse de traitement.
Le
20/06/2015 à
13h
48
HarmattanBlow a écrit :
Le seul surcoût sera le fait de devoir passer par les API du navigateur plutôt que par celles du système.
A terme, il n’y aura pas forcément de surcoût à ce niveau.
En effet, même si JavaScript, actuellement le seul à vraiment utiliser les API définies par le W3C est dynamiquement typé, les API définies par le W3C sont fortement typées donc théoriquement utilisable de manière optimale par wasm.
Le
20/06/2015 à
12h
34
C’est pas encore garanti : si c’est sandboxé, on peut se permettre d’autoriser les bound check sans compromettre le navigateur.
Le
20/06/2015 à
09h
54
brazomyna a écrit :
Je ne suis tpujours pas d’accord: quel que soit la précompil’ que tu fais, si tu dois rester sur les principes de fonctionnement intrinséque du JS, tu vas pas t’affranchir tout à coup des contraintes inhérentes langage. Par exemple le fait que le langage soit orienté prototype, soit des objets qui sont une map dynamique, avec des strings à comparer pour accéder à un attribut va pas tout à coup se changer pour avoir les perfs d’un typage fort du C++ avec des accés aux attributs via un simple offset mémoire. Mèle chose pour le transtypage, etc…
Justement, si : c’est tout l’intérêt d’asm.js. Il permet de s’affranchir d’une grosse partie des contraintes du langage en le limitant le code à des fonctionalités de bas niveau dont on peut garantir les performances. Les fonctionnalités de haut niveau de C++ ne sont que du sucre syntaxique: elles sont produites à partir de fonctionnalités de bas niveau.
Comme toute les fonctionnalités de haut niveau qui pourraient impacter les performance sont désactivées, c’est infâme à utiliser pour un humain, mais parfait pour un convertisseur.
Et le Web Assembly pourra aller encore plus loin à terme, quand il sera traité directement par le navigateur, vu qu’il n’aura aucune des restrictions liées au langage Javascript.
Bou2004 a écrit :
Ah, c’est le retour des applets java en fait mais avec un compatibilité js. Du coup, quasi-aucun dev web ne va utiliser ce truc là.
Ça dépend pourquoi : en effet ça ne remplacera pas Javascript pour tout et ça n’est absolument pas le but. Javascript est très bon quand il s’agit d’avoir de petits scripts et il n’y a pas de raison de changer ça.
Par contre si on a du code lourd, ou l’on serait tenté d’utiliser du Flash/SilverLight/Java/… ça prend tout son interet.
brazomyna a écrit :
Ce n’est ni plus ni moins que ce que je disais avant: les optimisations possibles sont à regarder du côté du temps de démarrage, pas de l’exécution en soi, car le JS reste le JS.
Tant que ça ne sera pas supporté directement par les navigateurs, Ça sera en effet juste du asm.js qui se chargera plus vite.
Mais c’est déjà un gain énorme :
- par rapport a du JavaScript standard vu les gros écarts de performances avec asm.js
- par rapport à du asm.js classique dont le temps de chargement est le principal souci.
Et quand on ne passera plus par du transpilage, les performances seront certainement très proches du natif.
brazomyna a écrit :
donc c’est hors du cadre de ce dont on parle ici puisque le WebAssembly concerne le support de l’ECMA Script dans son ensemble.
Tu as mal compris. Pour assurer la compatibilité, le WebAssembly est conçu pour être transpilé vers Javascript dans un premier temps, mais à terme il sera traité directement par le navigateur.
Le
19/06/2015 à
20h
10
brazomyna a écrit :
je vois pas comment ça peut faire gagner quoi que ce soit en perfs lors de l’exécution.
Ce que cette solution semble améliorer c’est juste le temps entre le moment où le code a fini de charger et le début de son exécution.
Donc ça démarrera plus vite mais ça s’exécutera pas plus vite pour autant.
Le bytecode permettra d’améliorer les performances car il permettra de faire des chose plus bas niveau que le Javascript. Un peu comme le fait actuellement asm.js mais en encore plus poussé vu qu’il n’y a pas la contrainte de la syntaxe Javascript.
Bou2004 a écrit :
Par contre, c’est quoi cette histoire de C/C++ ? " />
Hum, quelles optimisations ? Ça rend juste le code plus court et plus chiant à lire.
L’objectif de ce bytecode est de pouvoir être généré a partir d’autres langages, et le C et le C++ sont les premiers langages qui devraient permettre de le faire
francois-battail a écrit :
Bof, analyse lexicale, sémantique et optimisation c’est pas forcément critique si après le code fait un max de requêtes en JSON par exemple de plus il faut soit pré-compiler côté serveur soit le faire à la volée puisqu’il faudrait proposer deux versions (JS et version compilée). Et avec la compression et HTTP 2 qui se profile le gain qui serait obtenu par ce moyen semble complètement marginal si l’application est bien foutue dès le départ.
En fait il n’y aurait que la version compilée en wasm a transmettre. Il y aurait une bibliothèque javascript coté client qui s’occuperait de faire la conversion wasm -> javascript. Cette bibliothèque n’aurait a être chargée qu’une fois sur les navigateurs encore non compatibles et ne sera plus nécessaire du tout sur les futurs navigateurs qui prendront en charge la norme.
Des mesures qui ont été publiées, même avec la compression activées, il semble que le gain est très sensible.
Parce que je suis juste incapable de jouer a un FPS au gamepad, alors que même si ca n’est pas aussi efficace que la souris, je trouvais très sympa les FPS Wii à la Wiimote.
Le souci c’est pas pocket en lui même, c’est le fait de ne pas avoir le choix.
Pour la recherche intégrée, il y a google par défaut, mais il y a aussi la possibilité de changer par ce que tu veux. Pourquoi ils n’ont pas fait pareil avec pocket ?
A priori ça sera bien personnalisable. Mais seul Pocket est mis en avant par défaut.
Enfin, l’actualité montre qu’il n’ont on pas rien n’a foutre des financiers, sinon il ne ferait pas rentrer la publicité cqfd.
Tu as mal compris ma phrase, Mozilla n’en a clairement pas rien a foutre des finances.
Je disais que les financiers n’avait rien a foutre de la position du PDG sur le mariage homosexuel. Eux ce qui les intéresse, c’est comment monétiser les part de marché de Mozilla.
Le
25/05/2015 à
21h
59
Jeanprofite a écrit :
Tu dis qu’il a pris «des position politiques personnelles contre le mariage homosexuel»
Si le rapport n’est pas direct, il marque, pour moi, une forme de prostitution : ce qui est important ce n’est pas la qualité du codeur mais son conformisme avec ce qui est attendu par les «clients».
Bah oui quand tu es directeur d’une société/association, tu portes son image, et la clairement l’image déplaisait a la communauté : le cœur de Mozilla. Les financiers, ils n’en ont clairement rien a foutre.
Le
25/05/2015 à
20h
58
Jeanprofite a écrit :
J’aime bien Thunderbird aussi, vont-ils le laisser à l’abandon ou le pourrir aussi ?
En fait la fondation Mozilla ne s’occupe plus de Thunderbird depuis un bon moment maintenant, c’est une communauté indépendante qui s’en occupe. Mozilla continue seulement de fournir l’infrastructure serveur.
Le
25/05/2015 à
20h
54
Pour compléter lys bleu :
Jeanprofite a écrit :
La fondation Mozilla est une pompe à fric qui s’est habituée à vivre dans le luxe des bobos, la «démission» de Brendan Eich en est une preuve.
C’est quoi le rapport entre la démission de Brendan Eich et le luxe?
Le soucis avec Brendan Eich, c’est qu’i a pris des position politiques personnelles contre le mariage homosexuel qui fait qu’une bonne partie de contributeur n’a pas apprécié qu’il représente la fondation. On peut trouver la démission justifiée ou non, mais s’il y a bien un truc de sur, c’est que ça n’a rien a voir avec de l’argent.
Je te conseille de revoir ton histoire, les régimes totalitaires n’ont pas attendu les USA pour pratiquer l’espionnage de masse. A coté de la Stasi, la NSA c’est des tout petits joueur.
Les personas seront peut-être là. Par contre les extensions, j’en doute car ça serait contraire à la politique d’Apple qui interdit ça.
Le
22/05/2015 à
11h
19
JR_Ewing a écrit :
ils me font rire les branquignols de chez Mozilla! " /> WP et Win RT ça les intéresse pas de développer une version de firefox dessus car en gros l’excuse donnée c’est qu’ils peuvent pas faire totalement ce qu’ils veulent. Par contre, sur iOS ils sont prêts à baisser leurs frocs! Super cohérent! " /> " />
L’excuse pour WinRT n’est absolument pas qu’ils ne pouvaient pas. Ils avaient commencé une version compatible WinRT.
Le problème c’etait que tout le monde s’en foutait et comme il n’y avait aucun retour dessus il ne progressait pas. Du coup, ils ont préféré abandonner que laisser un produit bogué.
Ils le disent pas, mais c’est sur qu’il y aura des coques, officielles ou non, tout le monde n’est pas forcément fan du look puzzle.
js2082 a écrit :
Rien ne nous dit que ce sera le cas avec le projet ara.
Surtout que cette affirmation est fausse, Nest est un parfait contre-exemple de ce que tu dis.
Ça serait un revirement de situation vu qu’ils ont annoncé que ca serait le cas. D’ailleurs ils ont déjà rendu disponible une bonne partie des spécifications.
Le
21/05/2015 à
13h
51
maestro321 a écrit :
Le jour au je veux changer un module, si je ne veux pas que mon téléphone soit dépareillé je vais donc devoir en trouver un rouge… Et le même rouge de préférence..
Rien n’empêche de prendre les couleurs que tu veux et de mettre une coque rouge par dessus.
trash54 a écrit :
pas de clavier physique prévus domage
Pour le moment non mais techniquement ça devrait pouvoir être réalisable.
js2082 a écrit :
S’agissant de Google, la tentation est grande d’inclure au sein de la structure de base une puce pouvant permettre l’accès au tel et à tous ses modules par un tiers extérieur, le tout à l’insu de l’utilisateur.
Sauf que Google ne fabrique que des prototypes, pas le produit final. Il ne fera que publier des specs et tous les fabricants intéressés pourront produire les éléments.
Orange, la sécurité routière ne vous dit pas merci.
A priori ce genre d’outil, c’est a destination des passagers, pas du conducteur. Pour faire un accident de voiture pas besoin de 3G, la 2G est déjà amplement suffisante
Pour le moment aucun éditeur n’est au poil, Mais il y a des plugin qui permettent d’avoir la gestion de la coloration syntaxique et parfois un support partiel de l’auto-completion pour pas mal d’éditeurs/IDE.
Je cite ceux qui me reviennent en tête mais il doit y en avoir d’autres :
Peut-on créer des interfaces graphiques avec Rust ?
Pour le moment Rust n’inclut pas de système de GUI cross-plateforme dans sa bibliothèque standard.
Ceci dit, Rust peut techniquement s’interfacer avec les bibliothèques du système Win32API / Cocoa / Gtk+. Il y a des bindings pour ces bibliothèques disponibles sur crates.io.
Par contre, il n’y a pour le moment aucun projet de bibliothèque GUI cross-plateforme comme Qt ou wxWidget en Rust soit arrivé a un état mature.
Il y a bien une bibliothèque de GUI cross plateforme: Conrod mais elle est plutôt faite pour des appli graphiques.
Le
19/05/2015 à
15h
28
HarmattanBlow a écrit :
Non, et la preuve en est que le compilateur standard n’autorise pas la désactivation des vérifications des indices des tableaux, et que pendant longtemps le langage n’a pas supporté les modèles à base de mémoire partagée.
Rust a été fait pour être vérifiable par le compilateur. Pas pour être rapide. Ce sont deux besoins différents, irréconciliables une partie non-négligeable du temps). Le fait qu’on ait utilisé C++ pour ces deux besoins a été une erreur, il faut deux langages.
Rust pourrait devenir un langage performant mais ce n’est pas l’intention de Mozilla. Par ailleurs je doute que ceux qui ont besoin de performances soient prêts à se farcir les fourches caudines du langage. Enfin je ne pense pas qu’il soit assez sécurisé pour devenir le nouveau langage système de référence.
Difficile de savoir quel sera l’avenir de Rust.
On ne peut pas désactiver le bound checking globalement dans tout le programme mais on peut le faire au cas par cas via un bloc unsafe, ce qui est a mon avis amplement suffisant car les situations ou le bound checking est un vrai frein aux performance est en général facilement identifiable.
Je trouve au contraire que Rust essaie clairement d’offrir le compromis le plus réaliste possible entre sécurité et performance. Ils ont clairement fait de vrais compromis pour les performances par exemple en ne détectant les integer overflow qu’en mode débuggage.
Le
19/05/2015 à
15h
07
Khalev a écrit :
Un benchmark datant des alentours du 24 avril (donc ça a pu s’amélioré depuis):
Cet article est mal renseigné, et publié par une société qui vend des outils d’analyse statique de code C++.
brokensoul a écrit :
Il
y a quand même une bonne différence de perfs, on n’est pas prêts de
passer sur Rust dans ma boîte dans ces conditions… Je suis surpris de
voir c++ plus lent que c par contre
Pour ce qui est des benchmarks, sur 3 d’entre eux ont des résultat entre le C et Rust sont équivalents
Sur les autres :
-
Regex-dna:
le programme C du test utilise une bibliothèque de Regex plus rapide
mais moins complète, que celle incluse par défaut dans Rust.
Fasta: Le code C est Mutithreadé, celui en Rust ne l’est pas.
n-body: Le code C fait appel à du SSE alors que le code Rust ne le fait pas
Bref si on ne compare pas des programmes équivalent ont peut tirer toutes les conclusions qu’on veut.
Il y a aussi des différence notable dans la méthodes employées par les programmes C et C++ ce qui explique aussi les écarts. Le problème du “benchmark-game” c’est que c’est comme son nom l’indique un jeu du codeur qui fera le meilleur code, pas vraiment un bon outil pour comparer des langages.
brazomyna a écrit :
Le problème de perf, c’est pas les pointeurs en soit, c’est la notion de “bound checking” qui va avec dans les langages qui proposent une abstraction complète de tout ce qui touche à l’accès mémoire. Et ce problème de perf en est de moins en moins un.
Le bound checking est en effet un point ou le performance de Rust peuvent être en deçà du C. Cependant comme tu le dis dans la plupart des cas l’impact est négligeable, d’autant plus que Rust est capable de s’en passer totalement quand on utilise un itérateur.
Si on se retrouve dans un des rares cas ou on a une section de code critique au niveau des performances qui doit faire beaucoup d’accès a des indice variés d’un tableau, on peut utiliser un bloc unsafe pour faire des accès non vérifiés localement.
1) Justement là on est plus dans le crapware mais clairement dans le domaine du malware, qui peut être traité sans ambiguïté comme tel par les blacklist de sécurité et les anti-virus et être nettoyé violemment
2) Actuellement on a rien mieux et de standard sur le web. Ça permet quand même déjà de se protéger des intermédiaires ce qui n'est pas négligeable, tout particulièrement quand on passe par un hotspot Wifi.
Si tu attends quelque chose de NSA proof, il te faut autre chose que du web.
3) Bien que l'idée me plaise, ça aurait au mieux été ignoré au pire ça aurait saoulé tout le monde.
Le
13/05/2015 à
12h
39
C’est selon leur choix, mais vu qu’il ne souffrent pas trop du phénomène des extension malicieuses, il est probable qu’ils ne le feront pas.
En tout cas pour le moment ce n’est pas prévu pour Seamonkey et Thunderbird.
Le
13/05/2015 à
12h
19
Le problème c’est qu’une option dans about:config c’est beaucoup trop facile a faire sauter. Il y aura une version spéciale qui accepte les addons non signés (en plus de la version développeur) si tu veux.
Renseigne toi surhttps://letsencrypt.org que soutien Mozilla, qui justement vise a résoudre ça. Et même sans cela, si installer un certificat SSL n’est pas utra trivial, c’est pas non plus hors de portée de la compréhension d’une personne qui a fait son site web et installé son serveur web.
Ils ont quand même mis des messages sur la page d’accueil pour sensibliser, mais sans grand résultat. Tu aurais voulu qu’ils modifient les sites web qu’ils affichent pour
faire passer leur message? Ca aurait carément une atteinte a la
neutralité.
Le
13/05/2015 à
11h
55
Eored a écrit :
Rien sur l’intégration du service pocket ( pas du tout libre) dans Mozilla 40 ?
De ce que j’ai compris l’implémentation de Mozilla sera libre et pourra reposer sur des comptes Mozilla (donc cryptés)
Le
13/05/2015 à
10h
00
marba a écrit :
Sinon pour Nxi ce serait sympa de faire un article de fond sur les objectifs stratégiques ainsi que la philosophie et la politique de Mozilla suite aux mouvements à la tête de Mozilla dernièrement et les annonces un peu inquiétantes depuis quelques temps : signature des modules obligatoires, http2 + ssl quasi obligatoire (contre la liberté), inclusion de DRM.
Bref on a l’impression que Mozilla est en train de se faire bouffer par les financiers, ce serait cool de faire un point pour savoir où cette fondation/entreprise en est.
- La signature des module obligatoire est devenue utile au vu du grand nombre d’extensions malveillantes, cependant obtenir la signature de ton application par Mozilla est gratuit. Si tu tiens a utiliser des extension non signées c’est encore possible en utilisant la version développeur de Firefox.
- Pour le fait de pousser à l’utilisation du https c’est un mouvement général qui constitue un très bon point pour la sécurité mais ça peut en effet poser problème car la certification à un cout, certes pas énorme pour une entreprise, mais qui peut gener un site perso.
Cependant il semble que rien n’ait été encore décidé sur le sujet, et si limitation il y a ça ne devrais être que sur certaine fonctionnalités particulières a venir. Mozilla ne compte pas enterrer le http de sitôt.
- Pour les DRM Video ils ont clairement fait campagne contre leur intégration au standard, mais comme quasiment personne à part l’EFF ne les a relayés, il se sont retrouvé bien seul et ont été contraint de les gérer de force pour ne pas se retrouver marginalisés.
Ils l’ont implémenté de la manière la plus neutre possible en cloisonnant le DRM dans une Sandbox.
Exactement, mais le gros inconvenant avec plus de ActiveX/NPAPI c’est que tu peux plus faire d’extension intégré à la page, ou faut tricher de façon très moche en établissant un stream avec le daemon, bref une usine à gaz.
Moi je dirais au contraire que c’est bien plus propre : laisser le navigateur faire ce qu’il est censé faire et avoir une application séparée pour le reste. Les navigateur sont assez des usines a gaz comme cela pour que l’on ne leur rajoute pas de suppléments obligatoires pour profiter d’un site.
Si cela signifie que j’ai à acheter windows 10 une fois pour l’avoir à vie ça me va complétement :p.
Après, j’ai des gros doutes justement à ce sujet, si une licence suffit, si je change une partie de mon matériel, microsoft ne vas t’il pas rendre la réactivation payante ? Ou pire abonnement ?
Bien sur les licences seront vendues avec ta machine (un peu comme MacOS X). Quand tu changera de machine, tu devras repayer Windows. Microsoft n’est pas devenu philanthrope, il change juste ça manière de te faire payer.
Par contre il y a un truc que je comprend pas c’est comment il fait pour s’échapper d’une sandbox. Écrire un octet mémoire en boucle va certes surcharger l’outil d’analyse, mais je ne vois pas comment ça permettrait de sortir.
J’avais cru comprendre qu’il aurait les sauvegardes des jeux synchronisés en ligne également ? (pratique quand on jeu sur plusieurs machines). Quelqu’un peut confirmé, ou pas cette info ?
Je n’ai rien lu de tel.
Je pense qu’ils y ont forcément pensé, mais qu’ils n’ont pas actuellement les moyens d’assurer eux même l’hébergement des sauvegardes de tous les joueurs.
c’est bien pour ça que je me suis acheté depuis un moment un GamePad2, pour les émulateurs android.
Et zelda64 se joue facilement dessus!
Tu utilise quels émulateurs, car pour la N64, j’en ai essayé pas mal quand j’ai acheté ma Gamepad2, mais je n’en ai pas trouvé qui émule Majora’s Mask sans au mieux de très vilains glitch graphiques.
Le
25/03/2015 à
08h
33
Athropos a écrit :
Une horreur, d’ailleurs ils ont laissé tomber sur 3DS (voir ALBW), ce n’est peut-être pas un hasard. À l’époque ils voulaient mettre en avant leur écran tactile, ça n’a pas été une réussite.
Ce n’est pas mon avis, je craignait pour la maniabilité au début mais en fait c’était tout le contraire, ça fonctionnait extrêmement bien.
Si ça n’a pas été reconduit sur 3DS c’est surtout parce que sur cette console, on est presque forcé d’utiliser en écran principal celui du haut, qui n’est pas tactile. En effet il est sensiblement plus grand et c’est celui qui gère la 3D.
Ils avaient dit officiellement “il n’y aura jamais de warcraft IV”.
Ils ont changé d’avis ? " />
Non ils ont juste dit qu’il n’y avait rien de prévu sur le sujet et que l’évolution du monde de Warcraft qui se fait désormais principalement dans WoW rendait cela complexe à envisager, mais pas que ça n’arriverait jamais.
Zekk a écrit :
Et, à ma connaissance, SC2 est le seul RTS où, en skirmish, tu n’as pas toutes les unités qu’en campagne. Je comprends toujours pas pourquoi les medics marines sont passés à la trappe en skirmish, et qu’on soit obligé de jouer MMM avec des medivacs et non des medics.
…
Zekk a écrit :
Le problème, c’est que Bli² a jamais été foutu d’équilibrer correctement leurs jeux. En se basant toujours sur le principe unité A > unité B > unité C -> unité A etc etc…, on en arrive à carrément supprimer des unités du jeux.
Tu te pleins à la fois du manque de diversité des unités et de l’équilibre, or plus on rajoute d’unité fondamentalement différente, plus l’équilibrage devient complexe.
L’équilibrage c’est une science très complexe qui ne peut être parfaite à partir du moment ou on a des races vraiment différentes et Blizzard est certainement l’éditeur de RTS qui le travaille le plus, et c’est le moins qu’on attend de lui étant donné que StarcraftII est une référence de l’esport.
On est d’accord. Ce que je veux dire c’est que nos politique ne cesse de nous dire que si l’on sort de l’euro, la france coule hors on a un exemple concret qui montre que ce ne sera pas le cas. Il y aura des vagues, mais sans plus.
Sauf que c’est deux chose qui n’ont rien a voir.
Personne ne pense que c’est le cour qui poserait problème : le franc comme l’euro ont déjà été très bas sans que ça pose de soucis insurmontable. Mais surtout la confiance qui se perdrait, sans compter le cout inutile d’une nouvelle transition et des augmentations opportunistes qui la suivaient. Si le but et de sortir de l’euro est d’éviter d’avoir une monnaie surévaluée, ce n’est visiblement plus la peine, vue la BCE s’en occupe enfin.
Le
13/03/2015 à
10h
56
neokoplex a écrit :
Je ne comprends pas, l’euro à baisser de plus de 30 % entre juin 2014 et aujourd’hui, je n’ai pas l’impression que nous sommes 30% plus pauvre…
Cela signifie t'il que l'inflation ne serait pas si horrible que cela.
Finalement la sortie de l'euro n'est peut être pas l'apocalypse que l'on nous vend.
Comme dis kikoo26 il est marrant de voir le comportement de deux sociétés américaines. Entre l'une qui augmente ces tarifs et l'autre qui "accepte" de voir ses bénéfices chuter.
Il y a plusieurs facteur a cela.
Le plus important est que le cour du pétrole, qui est de loin notre première importation, s'est effondré à peu près en même temps que l'euro. Si ça n'avait pas été le cas tu peux être sur que tu aurais eu les routiers, agriculteurs pécheurs,... et autre professions qui en dépendent directement dans la rue, comme à chaque grosse hausse pour demander des compte a un gouvernement qui n'y peux pas grand chose.
De plus il faut voir que la majorité de nos importations vient toujours de la zone euro, ce qui ne nous impacte pas.
Ensuite il y a un délai entre le moment ou l’euro augmente et celui ou les distributeurs grand public mettent a jour leur prix. Intel ne sont pas des enfants de chœur, il veulent éviter le hausse qui sont psychologiquement mauvaises pour le consommateur, mais il mettront évidement à jour leur prix si la baisse se confirme comme l’a fait Apple. La hausse ne se ressentira pas forcément immédiatement sur le portefeuille, mais se fera forcément à la longe si la situation perdure, surtout dans l’informatique ou tout se fait en dollars.
Donc oui il y aura un impact pour le pouvoir d’achat, certainement pas cataclysmique(sauf si le pétrole repart à la hausse), mais je pense que ça vaut bien une compétitivité accrue de nos exportations.
Perso j’aime bien avoir mes jeux centralisés dans Steam avec les fonctionnalités communautaires. Je trouve dommage, quand le jeu existe en version Steam, qu’ils ne proposent pas la possibilité d’obtenir une clé, comme le fait Humble Bundle (souvent clé Steam + Téléchareable) ^^
A priori GoG travaille la dessus avec leur projet GoG Galaxy qui a l'air prometteur sur le papier. J'attends vraiment de voir ce que ça va donner.
Je suis assez partagé sur Steam. Autant j’apprécie la bibliothèque unique et les maj automatisées sont bien. Autant le coté trop intégrés et communautaire m’énerve au plus haut point.
1012 commentaires
Minecraft : édition Windows 10, future version 1.9 et Story mode
06/07/2015
Le 06/07/2015 à 11h 05
Firefox : une version 39 et de grandes ambitions pour le jeu vidéo
03/07/2015
Le 03/07/2015 à 13h 28
Nintendo : « Peut-être que les gens n’ont pas compris le concept de la Wii U »
22/06/2015
Le 22/06/2015 à 13h 36
Le 22/06/2015 à 13h 01
Je suis de ton avis, la plupart des acheteur de la WiinU n’attendent pas ce type de jeu car il ont acheté une console à l’image familiale. Donc les éditeurs de ce type de jeu n’osent pas s’y froter. La complexité d’adaptation joue aussi bien entendu.
je réagissait juste à ton affirmation que Nintendo bridait les jeux. Ce n’est absolument pas le cas. C’est juste les éditeurs tiers qui manquent.
Le 22/06/2015 à 11h 27
WebAssembly, le format binaire du web créé par Apple, Google, Microsoft et Mozilla
19/06/2015
Le 22/06/2015 à 09h 50
Le 21/06/2015 à 17h 35
Le 21/06/2015 à 13h 06
Le 20/06/2015 à 15h 14
Et pourtant ce n’est pas tout à fait ça.
En fait le wasm sera assez bas niveau (typage,…) et sans contraintes lourde (GC,…) pour permettre d’avoir des performance proches du natif tout en étant le plus neutre possible face aux différents matériels.
Mais techniquement, contrairement à la JVM ou au CLR, il ne se présentera pas, par une suite d’instruction d’un processeur fictif , mais plutôt comme une sorte d’AST : la structure intermédiaire en forme d’arbre sur laquelle travaille le compilateur une fois qu’il a fait l’analyse syntaxique du code.
Selon ce qu’a annoncé l’équipe travaillant sur wasm, ça permettrait à la fois de gagner en taille et en vitesse de traitement.
Le 20/06/2015 à 13h 48
Le 20/06/2015 à 12h 34
C’est pas encore garanti : si c’est sandboxé, on peut se permettre d’autoriser les bound check sans compromettre le navigateur.
Le 20/06/2015 à 09h 54
Le 19/06/2015 à 20h 10
Splatoon sur Wii U : un jeu de tir qui ne manque pas de pigment
11/06/2015
Le 11/06/2015 à 18h 01
Le jeu peut il se jouer à la Wiimote?
Parce que je suis juste incapable de jouer a un FPS au gamepad, alors que même si ca n’est pas aussi efficace que la souris, je trouvais très sympa les FPS Wii à la Wiimote.
Fallout 4 accompagnera Doom à l’E3
03/06/2015
Le 03/06/2015 à 16h 02
Firefox 38.0.5 entérine l’intégration de Pocket et du mode lecture
02/06/2015
Le 02/06/2015 à 19h 33
FIFA 16 fait une petite place au foot féminin
29/05/2015
Le 29/05/2015 à 09h 52
La publicité débarque dans Firefox bêta cette semaine
25/05/2015
Le 26/05/2015 à 07h 06
Le 25/05/2015 à 21h 59
Le 25/05/2015 à 20h 58
Le 25/05/2015 à 20h 54
Pour compléter lys bleu :
Un DLC invite les écoutes de masse dans Tropico 5
25/05/2015
Le 25/05/2015 à 08h 13
Je te conseille de revoir ton histoire, les régimes totalitaires n’ont pas attendu les USA pour pratiquer l’espionnage de masse. A coté de la Stasi, la NSA c’est des tout petits joueur.
Mozilla recrute des testeurs pour son futur Firefox sur iOS
22/05/2015
Le 22/05/2015 à 17h 01
Les personas seront peut-être là. Par contre les extensions, j’en doute car ça serait contraire à la politique d’Apple qui interdit ça.
Le 22/05/2015 à 11h 19
Projet Ara : le long chemin du smartphone modulaire de Google
21/05/2015
Le 21/05/2015 à 14h 02
Le 21/05/2015 à 13h 51
Orange Airbox Auto : un « hot spot » Wi-Fi 4G pensé pour la voiture
21/05/2015
Le 21/05/2015 à 13h 32
Mozilla publie la version finale de son langage de développement Rust
19/05/2015
Le 20/05/2015 à 20h 58
Pour le moment aucun éditeur n’est au poil, Mais il y a des plugin qui permettent d’avoir la gestion de la coloration syntaxique et parfois un support partiel de l’auto-completion pour pas mal d’éditeurs/IDE.
Je cite ceux qui me reviennent en tête mais il doit y en avoir d’autres :
Le 20/05/2015 à 11h 53
Le 19/05/2015 à 15h 28
Le 19/05/2015 à 15h 07
Firefox 38 prend en charge les EME, mais Netflix doit donner son feu vert
13/05/2015
Le 13/05/2015 à 13h 27
=>Marba
1) Justement là on est plus dans le crapware mais clairement dans le domaine du malware, qui peut être traité sans ambiguïté comme tel par les blacklist de sécurité et les anti-virus et être nettoyé violemment
Le 13/05/2015 à 12h 39
C’est selon leur choix, mais vu qu’il ne souffrent pas trop du phénomène des extension malicieuses, il est probable qu’ils ne le feront pas.
En tout cas pour le moment ce n’est pas prévu pour Seamonkey et Thunderbird.
Le 13/05/2015 à 12h 19
faire passer leur message? Ca aurait carément une atteinte a la
neutralité.
Le 13/05/2015 à 11h 55
Le 13/05/2015 à 10h 00
Edge/Spartan fait le ménage dans les vieilles technologies et abandonne les ActiveX
11/05/2015
Le 12/05/2015 à 06h 32
« Windows 10 sera la dernière version de Windows »
11/05/2015
Le 11/05/2015 à 08h 54
Rombertik, le spyware qui pratique la terre brûlée s’il est détecté
07/05/2015
Le 07/05/2015 à 16h 43
Par contre il y a un truc que je comprend pas c’est comment il fait pour s’échapper d’une sandbox. Écrire un octet mémoire en boucle va certes surcharger l’outil d’analyse, mais je ne vois pas comment ça permettrait de sortir.
CD Projekt prépare le lancement de The Witcher 3 avec la bêta « ouverte » de GOG Galaxy
06/05/2015
Le 07/05/2015 à 12h 29
Humble Origin Bundle 2 : EA brade encore ses jeux pour la bonne cause
15/04/2015
Le 15/04/2015 à 15h 35
A voir, Certains jeux marchent plutôt bien via Wine.
Le 15/04/2015 à 14h 49
Nintendo détaille sa stratégie sur le mobile et mise sur le rassemblement
25/03/2015
Le 26/03/2015 à 16h 14
Le 25/03/2015 à 08h 33
3DMark : un nouveau test pour comparer DirectX 11, 12 et Mantle
20/03/2015
Le 20/03/2015 à 16h 05
Starcraft II : la bêta fermée de Legacy of the Void dans deux semaines
19/03/2015
Le 19/03/2015 à 11h 10
Intel : la baisse de l’euro rime avec la baisse des prévisions
13/03/2015
Le 13/03/2015 à 12h 26
Le 13/03/2015 à 10h 56
Apple : HBO Now, MacBook passif de 12″, iOS 8.2 et Apple Watch de 349 à… 10 000 $
09/03/2015
Le 09/03/2015 à 19h 37
Humble Bundle broie du noir avec 7 jeux monochromatiques
06/03/2015
Le 06/03/2015 à 12h 05