Je me demande de l’intérêt d’utiliser un middleware comme UE4 & co tout seul dans ton garage sans aucun but commercial… :o
Mais bon on peut être idéaliste.
Mais les mecs comme Epic / Crytek ou Frostbite c’est plusieurs dizaines/centaines de M$ qu’ils ont investis en R&D, donc je me demande comment ils vivent… Bon Epic on sait, ils ont fait des contrat a 2 ou 3 chiffres avec EA & co à une époque (UE2.5 et UE3)… " /> Mais bon…
A quoi peut bien servir d’avoir un outil ? Oh attend d’apprendre a s’en servir soit même. C’est fou non ? " />
Le
03/03/2015 à
08h
52
the_mei a écrit :
Quand on vois les prix pratiquer, on se demande comment ils vivent… La guerre des prix n’a pas forcement de sens, car n’importe qui peux se payer ses outils…
Comparé a une licence Visual Studio ou même d’autres IDE moins cher pour Java/Ruby/PHP & co, c’est pas si énorme.
C’est 19€ par mois du coup pour un usage perso ça peu vite revenir cher. L’idée et au final de faire payer ce qui se font de l’argent avec UE et laisser les autres faire ce qu’ils veulent. Ce qui me semble être une excellente idée.
Pour les pays capable qui veulent envoyer des hommes dans l’espace c’est totalement faux.
Et pour la question des prix le raisonnement est bancal. Les prix des entreprises Chinoises sont intéressant mais pas si bas que ça. A contrario les entreprises Occidental savent aussi vendre des produits chinois a bas prix. De plus je doute que le Chinois moyen souhaite continuer a être payer une misère toute sa vie.
udev est développé par Kay Sievers, qui est employé par Red Hat.
D-Bus, bien qu’hébergé sur FreeDesktop (tout comme systemd et de nombreux autres projets), a tout d’abord été créé par Red Hat, qui emploie la plupart des développeurs clé (John Palmeri, Colin Walters…)
Après, bien sûr, Red Hat ne fait pas tout. La communauté, ainsi que plusieurs centaines d’entreprises contribuent désormais au libre. Il n’en demeure pas moins que la contribution de Red Hat est cruciale, tandis que celle de Canonical est complètement insignifiante. Et non, Mir ou Unity n’ont strictement aucune importance. Ce sont juste des choix possibles en plus.
Si Red Hat disparaissait demain, le développement de Linux et du desktop seraient sérieusement freinés. Si Canonical disparaissait demain, ça n’aurait aucune importance. Plein d’autres distributions prendraient sa place.
Udev a été cree par Greg Kroah-Hartman . Mais encore une fois vouloir donner la “propriete” d’un projet libre a une personne alors que c’est souvent une communaute qui participe c’est tres tres reducteurs.
Qu’un acteur du libre disparaisse ce serait dans tout les cas une mauvaise nouvelle, mais personne n’est irremplaçable la disparition d’un acteur ne signifie pas la disparition des projets et des développeurs. Ca vaut pour Red-Hat, pour Canonical et pour tous les autres acteurs . Maintenant que tu le veuilles ou non Canonical est un acteur important dans le monde Linux. Et ma foi limiter Canonical a Unity et Mir est aussi très réducteur.
Le
27/02/2015 à
19h
21
Bylon a écrit :
Merci pour les clarifications Rozgann !
Et je n’ai pas creusé, mais j’imagine que X-Mir c’est précisément pour les applis qui s’attendent à trouver un X alors que tu es sous Mir. La fameuse “compatibilité” en somme. C’est bien ça ?
Oui dans la vidéo que j’ai mise plus haut on voit Libre Office qui est en fait exécute via XMir. On le voit car le thème n’est pas correctement charge et ressemble a un thème de Windows 95. du coup pour l’utilisateur si ils font bien leur boulot ça devrait être relativement transparent.
Le
27/02/2015 à
19h
19
Okki a écrit :
Ça a le don de me filer des boutons, quand je lis ça. Toutes les technologies qui font que Linux est désormais facilement utilisable par n’importe qui (NetworkManager, PulseAudio, D-Bus, DeviceKit, udev, systemd…) ont toutes été développées par Red Hat.
Canonical s’est contenté d’arriver, de prendre une Debian, de distribuer quelques CD et de faire pas mal de marketing. Donc oui, on peut les « remercier » pour la promotion, mais ne surtout pas oublier qu’ils n’en seraient pas là sans tout le travail accompli par Red Hat, Debian et compagnie.
A carrément ^^ . Toutes les technologies ? Genre ils ont inventé Linux et le papa de Linus c’est Mr RedHat " />. Dans le genre exagération c’est pas mal.
Canonical fait une part du boulot comme tout ceux qui bossent sur l’ensemble de l’eco-systeme Linux que ce soit en dev, en reportant des bug, en faisant du design, de la promo, du marketing etc. Vouloir rendre RedHat comme l’unique parent de toute les technos c’est un gros mensonge, un énorme manque de respect pour le reste de la communauté qui participe et une sacre claque pour l’idée du libre (Je prends le boulot des autre et je dit que j’en suis l’unique auteur).
Par exemple D-Bus c’est un projet de la Freedesktop fondation, Udev c’est maintenu par un dev de la Linux Fondation…
Le
27/02/2015 à
18h
07
Bylon a écrit :
Et sinon… où ils en sont du très controversé MIR ? " />
Je vois qu’ils tentent Wayland sur le spin-off Gnome, ils auraient laissé tombé leur bébé ?
Mir c’est pour aller avec Unity 8. Les autres variantes d’Ubuntu utiliserons Wayland.
Sinon ils continuent d’avancer Avec Unity8 et Mir:
Et finalement, est ce que c’est si important de savoir quelle distrib’ fait le plus gros score de download. Le but n’est il pas finalement de choisir la distrib’ que nous convient.
Par curiosité, c’est plus intéressant d’essayer de voir comment évoluent les PDM de Linux en général. Mais après oui le principal c’est d’avoir le choix et que chacun y trouve son bonheur.
Le
27/02/2015 à
15h
50
Konrad a écrit :
Oui je sais mais bon c’était pour donner une idée.
Si tu as une source fiable sur l’utilisation des différentes distributions je suis preneur. " />
Disons que Distrowatch n’est pas du tout une statistique qui donne une idée de quelle distributions est la utilisée http://distrowatch.com/dwres.php?resource=popularity). Pour ça a une époque il y avais des stats wiki mais qui sont plus mises a jours et qui donnaient un truc du genre 50% pour Ubuntu 10% pour Mint. Y’a aussi les stats Steam qui ciblent plutôt les joueurs mais qui sont intéressantes et donnent une répartition un peu dans le même ordre d’idée.
Le
27/02/2015 à
15h
17
Konrad a écrit :
Selon Distrowatch, Mint devient davantage utilisée que Ubuntu, ce qui est un peu embarrassant pour cette dernière quand même.
La plupart des gens, quand ils installent une distribution, s’en tiennent à l’environnement fourni de base. Si Unity ne leur plait pas, ils vont quitter Ubuntu pour aller voir ailleurs (Mint par exemple).
Distrowatch n’est pas une stats d’usage des distributions
S’ils se conforment enfin aux standards de la 3W pourquoi pas. Perso ça fait 6 ans que je ne perds plus mon temps à rendre compatible mes sites avec IE…
Les versions récentes d’IE comme la 11 supportent relativement bien les standards récents. Le problème vient plus du fait de devoir aller supporter des navigateurs comme IE8…
Le
27/02/2015 à
10h
49
Bonnes nouvelles en tout cas. Reste a se débarrasser des anciens IE, a rendre Spartan indépendant de windows et multiplateforme.
Donc si l’on héberge pas soi-même, rien à faire à part attendre la prise en charge.
Pour les optimisations caduques je trouve ça plutôt bien, ça va remettre tout le monde à niveau. Je fais confiance aux plus acharnées pour trouver de nouvelles bidouilles.
Normalement oui. Après il y aura du coup peut être d’autres “bidouilles/optimisations” pour le HTTP/2.
Ca revient à copier les contenus des fichiers dans un seul fichier, non ? Éventuellement, virer les sauts de lignes, les espaces inutiles ce genre de truc ?
Ben, je tripatouille mon propre CMS depuis assez longtemps et justement la semaine dernière je me suis relancé dans un système où l’utilisateur peut créer son propre module d’affichage de contenu et l’inclure au site. Dans cette optique, il m’a semblé naturel d’avoir le js et le css spécifiques au module dans un dossier à part, et de charger toutes les ressources utiles en fonction du contenu de la page demandée (une page qui utilise les modules 1 et 3 ne chargera pas le js qui fait tourner le module 2)
Ca ne coute pas beaucoup plus cher de remplacer la recherche des ressources utiles par une copie de tous les js en un seul et de charger ce (gros) fichier tout le temps pour tout le monde.
Reste à voir les perfs.
Après tout, ce genre de projet est plus fait pour bidouiller que pour répondre à un réel besoin. Si je peux produire du code utile, cool, je distribue. Mais sinon c’est plus pour m’auto-former et garder la main.
Je pense que tu dois pouvoir utiliser des lib déjà existantes pour faire ça. Sauf évidement si tu veux faire ça toi même.
Pour minifier c’est pas seulement virer les commentaires et les espaces inutiles mais aussi compresser le code (un exemple avec jquery :http://code.jquery.com/jquery-1.11.2.min.js).
Le
18/02/2015 à
14h
37
Koxinga22 a écrit :
En gros, il faudrait qu’à la publication, le generateur aille lire tous les js des modules actifs et recopie leur contenu dans un seul js à mettre en prod (les noms de fonctions sont préfixés du nom de module donc pas de conflit à l’horizon)
Oui, normalement pour les framework modernes (genre Symfony en php) ca se gère automatiquement. Pour Wordpress je pense qu’il doit y avoir des plugins mais c’est dommage qu’il gèrent pas ça nativement et proprement.
Le
18/02/2015 à
13h
50
Koxinga22 a écrit :
Je préfère Firebug, l’onglet network du module de debug par defaut de FF n’est ni pratique ni ergonomique.
Mais donc, c’est “juste” le temps de chargement des fichiers qui fait tiquer ? parce qu’au final, ca ne change pas grand chose d’avoir un js de 1000 lignes ou 10 js de 100 lignes, la différence se compte en millisecondes.
Et une fois les fichiers chargés en cache, il n’y a plus d’appels donc cet “inconvénient” de devoir attendre 3 ms ne se produit que lors du premier chargement.
Plutôt bénin comme problème selon moi.
Et très largement compensé par la praticité d’un code modulaire dont on ne charge que les éléments utiles.
C’est pas bénin car selon ou tu te trouves sur la planète le temps communication avec le serveur peu facilement exploser.
Sur des sites, si tu veux avoir des performances correcte il faut que le site soit chargé en quelques secondes. Par exemple si tu as un objectif de chargement de la page en 3s et que tu as 10 js qui mettent 200ms a charger tu te retrouves déjà a 2 secondes juste pour charger du JS. Si tu fais pareil pour le css tu passes a 4 secondes.
Ca s’appel de l’optimisation. C’est souvent pénalisant en terme de visites que ce soit pour les visites directes ou pour les moteurs de recherches. Apres si tu as un ptit blog perso c’est pas la mort mais pour du professionnel il vaut mieux faire attention.
Le
18/02/2015 à
13h
13
Koxinga22 a écrit :
Je n’utilise pas wordpress mais … il y a un inconvénient à séparer ces CSS et JS en plusieurs fichiers ?
(une dizaine semble trop selon toi)
Pour le dev c’est beaucoup mieux d’avoir des fichiers bien séparés. Ça permet d’avoir une organisation claire et de faciliter le debug.
Pour la prod il faut toutefois prévoir de les fusionner en un seul fichier et minifier le code. Sinon tu augmentes le temps de téléchargement (fichier plus gros) et pour chaque fichier ton navigateur va faire une requête : demande du fichier…attente de la réponse du serveur…téléchargement du fichier…
Pour te faire une idée, si tu utilises Firefox tu vas sur un site tu fais ctrl + shit + i et tu vas dans l’onglet “network” Tu recharge la page et il va te montrer tout les fichier télécharger et le temps de chargement. Si tu regardes le Timing pour chaque fichier tu as souvent par exemple un temps d’attente ou le navigateur attente la réponse du serveur. C’est souvent court mais si tu multiplies par 20 fichiers ça peu facilement représenter plusieurs secondes.
Pour la quantité de données certes, mais dans certains cas tu n’as pas la choix. Et là les performances commencent à rentrer en compte.
Quand je parle de maintenance et de rapidité de dev, je ne pense pas qu’au code (sur ce point on est d’accord, tout est question de maîtrise du langage et de discipline). Je pensais plus au jeu de composants UI complet et ultra extensible de Flex, qu’on ne retrouve guère que dans ExtJS.
Sinon, en l’absence d’implémentation des Web Components dans les navigateurs actuels, on est bon pour mixer des plugins JQuery UI et autres widgets piochés à gauche à droite, tous développés de façons différentes…
Là où Flex faisait la quasi unanimité dans le monde de la RIA (avec le bénéfice de l’énorme communauté derrière), en JS je peine à trouver quelque chose de pérenne (je mets en gras car c’est vraiment là où le bas blesse àmha).
Les nouveaux frameworks JS sortent à une cadence hallucinante et passent de mode en quelques semaines à quelques mois, difficile d’en choisir un pour une application devant évoluer et être maintenue sur plusieurs années.
Quand je regarde ce que les géants du web utilisent pour leurs applications, pas de quoi être rassuré non plus…
Qu’il s’agisse d’Apple, Google, MS, Mozilla, Facebook et j’en passe, personne ne semble vouloir développer en JS. Chacun cherche un moyen de s’en passer en transpilant, et encore une fois la pérénité de ces technos approche le ridicule.
Rien que chez Google : GWT, décédé au profit de Dart, lui-même abandonné au profit d’AtScript… inspiré du TypeScript de Microsoft " />
Pas mieux niveau framework, AngularJS étant voué à la base à migrer vers le Dart, pour au final prendre le virage AtScript au dernier moment… laissant les contributeurs d’AngularDart comme des cons.
Bref, le JS pour du site web OK, mais pour une application web d’entreprise complexe et devant être maintenue sur de nombreuses années, il semblerait que personne n’ait de solution concrète et pérenne.
Je ne suis pas vraiment d’accord sur la pérenite. A partir du moment ou tu restes sur les projets principaux y’a pas de soucis. AngularJS et maintenant la depuis quelques temps et c’est toujours du JS. EmberJS aussi. Et des petits nouveaux comme ReactJS sont soutenu par Facebook et déjà suffisamment stable.
Si tu pars sur un projets maintenu sur le long terme il n’y a pas de soucis. Apres il faut bien voir selon les besoins de l’application chaque framework ayant ses avantages et inconvénients en termes de performances selon les choix qui seront faits.
Le
18/02/2015 à
10h
02
Zed-K a écrit :
Ça s’appelle une RIA ;)
Quand tu développe des applications pro, tu peux vite être amené à devoir gérer de grandes quantités de données.
Pour ce type d’applications, je n’ai rien vu en JS qui réussisse à égaler Flex, autant en terme de performances, de maintenabilité et de rapidité de développement.
Ce qui s’en rapproche le plus à la limite c’est Ext.JS, mais c’est pas encore ça àmha.
Oui mais gérer une grande quantité de données ne veut pas dire que tu dois afficher 2000 lignes a l’utilisateur d’un coup pour qu’il puisse éditer " />. En général tu essayes de trouver des solutions pour épargner des mal de tête a l’utilisateur.
La maintenance et la rapidité de dev ce n’est pas vraiment un argument. Ces points dépendent du dev.En effet si tu maîtrise bien Flex y’a des chances que ce soit plus rapide a dev dessus et a faire du code clean que sur un framework JS. Et inversement pour un dev JS avec son framework favoris.
Pour ce qui est de JS je pense que y’a pas mal de framework interessants a tester : ReactJS, EmberJs, Meteor, etc.
Le
18/02/2015 à
09h
03
jaretlafoudre a écrit :
Essaye de faire un datagrid en HTML5 compatible tout navigateur capable de gerer plus de 2000 lignes…
Au boulot l’interface de nos appli étaient en flash (généré par Flex), on a pas encore trouvé mieux dans les framwork JS, et de très loin niveau performance…
En même temps si tu fais un datagrid de 2000 lignes c’est peut être pas HTML5 le problème mais ton interface ^^ .
Le
17/02/2015 à
19h
33
chickenwing a écrit :
Comme d’habitude, on crache sur Flash sans se rendre compte que le Html 5 apportera les mêmes galères, en plus gourmand. Le seul tort de Flash est de ne pas être open-source, c’est pour ça que les grands acteurs du web ont voulu le tuer.
La révolution c’est pas pour vous, c’est pour eux !
Finalement adobe a très mal joué sur ce coup là, ils auraient mieux fait de le passer open-sources, on en serait pas là….
Flash s’est tué tout seul. Le plugin est pourri mal fichu et il n’a pas suivit l’évolution des technos web en général. Le HTML5 va résoudre et résout déjà de nombreux soucis. On ne sera plus dépendant d’une seule implémentation et il sera géré nativement par le navigateur. Et je vois pas pourquoi il sera plus gourmand a l’avenir…
Je vous trouve bien cavalier d’utiliser le mot marginal pour un Firefox OS qui n’a “que” 12 téléphones en 1 an et demi, dont un flame en rupture de stock, sans compter la bonne vingtaine de partenaires industriels dont aucun n’a quitté le navire !
Concernant le support natif des webapps chez Canonical, j’attendrais de voir si ces applis se lancent dans un navigateur sous-jacent, ou si, comme vous semblez le soutenir, elles s’exécutent réellement en natif.
Côté marché, il est clair que la première ambition de Firefox OS était des smartphones grand public à bas coût visant d’abord les pays émergents, mais en 1 an et demi, nul ne pourra nier la montée en gamme des modèles en Europe, et il est évident que la fondation Mozilla n’est pas connue pour lâcher le morceau…
Règle 1 : provoquer la frustration du consommateur, tout en cachant soigneusement que nos smartphones sont fabriqués avec du sang et des larmes. C’est là où ceux qui changent de smartphone comme ils changent de chemise me font littéralement gerber.
Marginal dans le sens : très peu de parts de marche. Pour le reste oui il me semble que c’est du natif. Et tant mieux si on peut avoir au moins ça en commun avec ces OS ce sera une bonne chose.
En ce qui me concerne, je verrais bien Ubuntu OS comme offre pro de niche à destination des informaticiens. J’en ai parmi mes clients, et ils ne sont satisfaits par rien de ce qui existe à l’heure actuelle.
FFOS pour l’entrée de gamme no frills, ça se défend. Il m’intéresse, à titre privé, comme alternative à Androïd. Par contre, en milieu pro, pour des contrats grands comptes ayant besoin de flottes d’appareils basiques sans fonctions spécifiques au client, ça peut se vendre. A voir…
Pourquoi pas, surtout qu’il y, il me semble des trucs intéressant au niveau gestion et déploiement donc a voir. Perso c’est l’un des deux systèmes qui m’intéressent avec SalfishOS pour remplacer mon Iphone 4S.
Le
09/02/2015 à
11h
06
hansi a écrit :
@seb2411
Effectivement je n’ai pas tout pris du début. Mais j’ai quand même quelques (gros) doutes sur la question. Mozilla est en train de standardiser certaines API et continue d’avancer - et à part coller un Firefox dans ce téléphone pour suivre la marche, ce qui provoquerait forcément une perte de performance puisqu’on rajouterait une couche par rapport à du Firefox OS natif, j’ai du mal à voir comment Canonical pourrait suivre cette voie.
Quoi qu’il en soit, Firefox OS a prouvé sa viabilité en 1 an et demi, là où Canonical a tout à démontrer. Le seul endroit où je les attendrai, ce serait par exemple sur du SSH, de l’OpenVPN, ou des protocoles particuliers (bluetooth dans la voiture par exemple), qui ne sont pas encore pris en charge par FFOS. A part des créneaux plus “pro”, j’ai du mal à voir où ils pourraient jouer, et là où le bas blesse, c’est qu’ils sont seuls et en retard - mais on verra bien…
Coté support, Ubuntu Phone supporte nativement Webkit/Blink et Cordova. Du coup si les API sont standardisés elles seront supportés sous Ubuntu Phone aussi. Je ne vois pas trop pourquoi ils devraient rajouter une couche ?
FirefoxOS comme pas mal de petits OS reste assez marginal face aux grand le mettre en tant que référence et dire que Canonical peut difficilement faire ce qu’a fait Mozilla c’est un peu bizarre. De mon point de vue FirefoxOS reste très orienté sur le marché bas de gamme avec un OS assez basique et simple. La ou Ubuntu Phone cherche à pousser une expérience plus avancée, avec plus de possibilités. Ils sont sur des marchés qui me semblent différents.
Et pour finir, dire qu’ils sont en retard par rapport aux autres c’est un peu gonfle sachant que FirefoxOS n’est pas arrivé le premier. " /> Il restent beaucoup de chose a faire pour Ubuntu Phone mais le fait d’avoir trouver déjà deux smartphone de lancements c’est un bon départ.
Le
08/02/2015 à
19h
51
hansi a écrit :
Certains commentaires m’ont bien amusé, mais il faut être réaliste. Si on fait un sondage sur ce forum entre ceux qui savent faire une page web, et ceux qui savent programmer sous Qt, je suis certain qu’on trouvera sans problème beaucoup de gens dans la première catégorie, et très peu dans la seconde…
Ce n’est pas que ce Canonical Phone soit dépourvu d’intérêt, mais il arrive trop tard, et ne bénéficiera pas de l’avantage évident de Firefox OS : une myriade de webmaster qui ont du talent et des idées plein la tête, avec un HTML5 qui offre désormais des outils de rendus réellement pros…
T’as pas du lire tous les commentaires alors car Ubuntu supporte aussi les applications HTML.
Le
07/02/2015 à
09h
36
SebGF a écrit :
Depuis le temps qu’ils teasent du concret serait le bienvenue.
Oui. La on parle de quelque chose qui serait plus une présentation/lancement visiblement mais bon il vaut mieux attendre pour voir ^^ . L’avantage du MX4 c’est qu’il pourrait être vendu en Asie par Meizu et dans le reste du monde via le store de Canonical. Par contre j’attends de voir le prix.
Le
07/02/2015 à
09h
30
A noter que Meizu va présenter un MX4 avec Ubuntu au prochain salon du Mobile début mars. C’est déjà du plus gros, plus performant et plus cher.
Qui est toujours activé par défaut dans la version 14.10 (contrairement à ce que me disait quelqu’un sur ce site).
Les lens Amazon et compagnie sont toujours active par défaut sur la version 7 d’Unity. Sur la version 8 (Celle fournie sur smartphone) ce n’est plus le cas.
D’un côté, y’a les abonnés… ils paient donc tout ce qu’ils lisent est forcément top méga génial… (bon ok, ne généralisons pas et n’y incluons pas tous les abonnés, certains savent faire la part des choses), de l’autre, bah les lecteurs qui en ont marre du racolage de PCI par des titres mensongers/volontairement tronqués de leur sens. (mais l’excuse sera encore et tjrs : pas assez de place pour détailler le titre… et le sous-titre est là… vous savez comme les petits caractères au bas d’un contrat…)
Honnêtement ce genre de remarque tu ferais mieux de te les garder. Avant de faire des procès d’intentions a tout le monde fait un peu d’introspection t’as du boulot.
Si ça peut te rassurer mon expérience avec le Note n’est pas beaucoup plus plaisante… Rien de méchant hein, juste que ça rame en permanence alors que durant la première année c’était bien fluide (et non, je n’ai pas rajouté 100 applis, et je coupe la 3G dès que je peux). Mais j’ai tellement la flemme (et la frousse surtout) de tenter un rootage + Cyanogen… " />
Le pire c’est que j’ai eu une dégradation même avant les mises a jours avec des applications qui se sont mises a planter du jours au lendemain. Maintenant c’est pire puisque j’ai plein de bug, c’est plus réactif du tout et j’ai pas mal de soucis avec des applications même basiques. Et justement je m’attendais a un suivit de meilleur qualité de la part d’Apple que Samsung.
Le
03/02/2015 à
10h
54
Citan666 a écrit :
…. " />
C’est vrai que les mises a jours iOS sont pas une reussite. Du moins sur mon 4S.
oui mais tu a du oublier le “visit store” et un aibus “air Bucarest” ca donne pas envie.. vaut mieux investir dans xplane, se prendre deux avions payant (a320 et boeing 737) et aller sur le site telecharger gratuitement une tonne d’avion qui sont pour la plupard hyper proche e la realité
Le store vend juste la version gratuite que tu peux télécharger. Si tu veux sur support physique tu payes. C’est aussi un moyen de soutenir le projet. Pour avoir connu flightgear y’a quelques année ils ont fait un grand bon en avant même si ils leur reste pas mal de boulot a faire.
Après je sais pas comment ils tiennent la comparaison vis a vis de Xplane ou FSX c’etait juste histoire de troller un peu Winston67 " />
Le
30/01/2015 à
08h
19
morlog a écrit :
Hé ben … quelle violence.
On a (un peu) critiqué ton jouet favoris alors tu t’énerves tout seul dans ton coin en montrant les dents ?
Je connais plusieurs GROS fan de simulateurs (que ce soit avion avec FSX, ou train avec TrainZ et Train Simulator) c’est bien la première fois que je vois un gars s’énerver autant pour si peu, et heureusement vu qu’il y a mon beau père dans le lot, j’aurai peur qu’il me saute à la gorge et m’ouvre la carotide avec les dents si je lui fais une remarque…
Alors déjà quel est le foutu rapport avec le matos ?
C’est vrai, acheter un palonnier de qualité ça coûte cher ? Merci d’être passé Captain Obvious. Sans toi on s’en serait pas douté.
Et … quel est le foutu rapport avec Ubuntu, les iPhones, et les NAS ?
No sé.
Ensuite qui a parlé de “sale capitaliste US” ?
Tu lis bien ce que tu veux dans un article et dans les commentaires.
Enfin, oui c’est cher, je pense qu’à peu prêt tout le monde le sait (le savait déjà).
Mais tu permets à certaines personnes de trouver ça TROP cher ? Ou on doit juste dire “amen” et être d’accord avec les tarifs proposés et surtout TON avis ?
Tu trouves peut-être acceptable d’avoir chaque région à 20€ … d’autres peuvent trouver ça injustifié (que ça soit le cas ou non).
La seule phrase du sujet qui “juge” (vraiment un peu) c’est:
“ Certes, le nouvel éditeur avait bien prévenu que de nouvelles extensions au jeu étaient au programme, mais leur nombre, leur fréquence d’apparition ainsi que leur tarif, deux tiers du prix du jeu de base, a de quoi laisser perplexe. ”
La vache … quelle attaque !
Ça méritait bien de monter sur ses grands chevaux et s’énerver comme ça.
Il a osé écrire “a de quoi laisser perplexe” … vite à l’échafaud.
Mais sinon … t’as pas l’impression de t’être emporté pour rien ?
En même temps y’a quoi se mettre en rogne de dépenser autant de fric dans un jeux et tout ces DLC quand tu as FlightGear pour 0€ http://www.flightgear.org/about/features/). " />
Mouais .. m’enfin .. les nombreux onglets que tu ouvres sur ton navigateur chrome, firefox ect .. c’est un peu beaucoup grâce à cette machine à café. Jamais compris pourquoi Opera n’a jamais eu le succès qu’il aurait du avoir.
Ou pas. Opéra n’a pas inventé les onglets. Ils ont été les premier (?) à l’intégrer sur navigateur c’est différent. Pour le succès il a tout simplement été éclipsé par Firefox qui avait en plus l’avantage d’être libre.
Ca reste le gros soucis du jeu. Le 32 bits est instable quand on met trop d’addons (mémoire vite saturé) et le 64bits est instable car c’est une bidouille reconnue par la Team
A bon ? Chez moi sur 3 PC different en 64Bits ca fonctionne sans problèmes.
Oui mais se dire qu’elle n’a jamais été utilisé auparavant, sans preuves, est aussi naïf.
Des serveurs d’entreprises vulnérables il y en a beaucoup. Des black hat, il y en a beaucoup aussi. Maintenant je ne sais pas comment marche le marché noir sur Internet, mais cela m’étonnerait beaucoup que les failles qui circulent ne soient que des failles déjà publiées et patchées.
Le monde du marché noire et du piratage en tout genre c’est pas une boite noire. Tu peux même acheter des logiciels pour hacker et pirater. Du coup si de tel outils ont été publié pour exploiter cette faille cela se saurait.
Du coup si personne n’est au courant ça réduit fortement les possibilités que la faille puisse avoir été exploité.
Le
28/01/2015 à
13h
38
sepas a écrit :
Ou alors, ils l’auraient corrigée il y a 2 ans " />
Non puisqu’ils patchent après que les failles soient publiques.
Le
28/01/2015 à
13h
20
sepas a écrit :
Heureusement, le patch existe depuis 2 ans, manquerait plus qu’ils mettent plusieurs semaines avant de le mettre à dispo
Oui on est pas chez Microsoft. Sinon il auraient attendu 1 mois de plus histoire d’être sur que la faille aura eu le temps d’être exploiter et auraient ensuite accuse des tiers d’être responsable… " />
Le
28/01/2015 à
13h
17
sepas a écrit :
Un bug de buffer overflow…Désolé mais en général, ce genre de bug est souvent exploité à des fins malveillantes.
Non, ce n’est pas du troll, loin de là, je trouve juste ça limite qu’une erreur comme celle là puisse arriver.
Oui c’est clairement un erreur de la part des devs de Glib d’avoir laisse passer ca.
Le
28/01/2015 à
12h
47
after_burner a écrit :
Moi ça me semble pas spécialement meilleur, la correction du bug protège de cette faille, il ne s’agit même pas de corriger mais d’appliquer la correction, déjà faite et connue.
Soit y a un truc qui m’échappe dans l’article, soit on peut dire que c’est pas franchement une meilleure attitude…
La correction du bug corrigeait un bug. Elle n’avait pas été considéré comme une faille de sécurité. Si la mise a jours avait été indiqué y’a 2 ans comme une faille toutes les distrib maintenues auraient publiées à ce moment la.
Le
28/01/2015 à
12h
45
Konrad a écrit :
La faille date de 2000, mais jusqu’à preuve du contraire, personne ne l’avait vue ni n’était au courant.
En 2013 ça a été considéré comme un «bug», ça a été corrigé. Ça n’était pas considéré comme une faille, c’est pour cela que certaines distributions ne se sont pas particulièrement alarmé, et ont fait traîner la mise à jour.
C’est seulement hier (27 janvier) que l’exploit a été révélé, et qu’il est avéré que c’est bien une faille critique. Du coup maintenant toutes les distributions vont se magner de mettre à jour.
Donc oui, c’est complètement différent d’un éditeur qui a été prévenu explicitement d’une faille critique, et qui n’a toujours rien fait 3 mois après. Dire qu’il a fallu 2 ans pour corriger la faille, c’est complètement mensonger.
Quelques corrections.
C’est pas que les distributions traînent a mettre a jours, c’est plutôt que les distributions comme Ubuntu 12.04 ne reçoivent plus que des mises a jours de sécurité. Du coup si y’a pas de faille répertoriés ils ne mettent pas a jours.
Et de fait les distributions ont envoyé les mises a jours de sécurité avant la divulgation publique du bug.
" />
Le
28/01/2015 à
12h
37
sepas a écrit :
Désolé mais ça a été divulgué il y a 2 ans.
Il suffit qu’une seule personne ait étudié cette remontée il y a 2 ans et en a profité pour faire un exploit, ça fait 2 ans que ça marche.
Maintenant que certains ont considéré que ce n’était pas un bug de sécu, c’est une erreur d’analyses, que certains hacker n’ont peut être pas commis
Tous les OS ont des bugs, sauf que celui-ci a été pointé et non corrigé.
Le fait de le pointer aurait dû amener une correction. Vous nous vendez assez de "C'est du libre, c'est corrigé tout de suite"
Il y a 2 ans c’est passé comme un bug pas comme faille de sécurité. Il n’y a pas eu de bulletin de sécurité ni d’autre alerte dans ce genre. Du coup la faille n’a été découverte comme faille que récemment et a bien été corrigé rapidement a contrario de windows qui attends la publication pour râler et les fixer ensuite.
C’est du troll volontaire de vouloir interpréter ça comme un manque de de réactivité…
Le
28/01/2015 à
12h
34
sepas a écrit :
Oui j’ai bien compris. Sauf qu’on parle d’un bug qui a été décrit. C’est du code libre, comment Est-ce possible avec les millions de personnes qui lisent ce code que personne n’ait vu qu’il y avait un problème de sécu?
Désolé mais que ce soit du libre ou du proprio, on te décrit un bug, ça met pas longtemps à voir que ça touche la sécu. On parle quand même d’une librairie largement utilisée et les problèmes de sécu par buffer overflow, ça date pas d’hier…
Bref, je ne suis pas là pour troller mais pour vous montrer que oui, ça peut prendre du temps avant de corriger un bug, pour une multitude de raisons différentes.
Ça n’a pas été considéré comme une faille de sécurité. Pourquoi ? Il faudrait voir mais du coup ça n’a pas suivit le processus de diffusion des failles de sécurité. Si tu veux jouer aux comparaisons, à la différence la faille Windows tu remarqueras que la faille a été résolus avant l’annonce de sa découverte.
Le
28/01/2015 à
12h
15
sepas a écrit :
J’ai lu l’article, mais tu vas m’expliquer que ce n’est pas la même chose.
La faille a été divulguée il y a 2 ans. Certaines distrib l’ont corrigées tout de suite, c’est bien qu’il ont vu le risque. Pourquoi pas les autres?
C’est juste écris dans l’article. " />
Le
28/01/2015 à
11h
47
sepas a écrit :
2 ans pour patcher?
Quand je pense que certains trouvaient énorme le temps qu’il a fallut à MS pour patcher la divulgation de Google…on les retrouve ici et comme par hasard, tout est normal car le fix est enfin sorti
A tu lus l’article ou tu viens juste pour troller ?
Le
28/01/2015 à
11h
46
HenryBasmati a écrit :
Le problème c’est depuis un moment, NXI ne traite plus uniquement des infos liées à l’informatique justement (d’où le changement de nom)
On peut toujours parler de ligne éditoriale pas claire mais le fait est qu’à force de se disperser, on perd en précision et surtout en valeur ajoutée. De plus l’info arrive de + en + avec du retard je trouve tout en n’apportant pas plus que ce qui a été dit ailleurs :-(
Ma foi il y a plusieurs facteurs:
Ce sont des être humains qui peuvent faire des erreurs, qui ont des sujets favoris.
Il n’ont sûrement pas la science infuse et une equipe de specialiste dans tout les domaines et ne peuvent donc pas forcement traiter tout les sujet avec la même précision/profondeur.
Le problème vient aussi peut être du fait que tu attends qu’ils traitent l’information dans le sens que tu veux (biaisé).
Le
28/01/2015 à
10h
08
Le sandboxing et l’utilisation des outils modernes du Kernel sont quand même un gros plus qui sont encore sous exploités sur Desktop et qui peuvent limiter/réduire les soucis de sécurité sur les machines.
Sur serveur ça permet déjà d’améliorer pas mal de choses et ces nouvelles technos viennent souvent accompagnées de méthodes/concepts et outils qui renforcent encore un peu plus la sécurité de l’ensemble.
Maintenant c’est comme tout y’a pas de solution miracle. Mais on peut essaye de mitiger les risques.
2352 commentaires
L’Unreal Engine 4 devient presque gratuit
03/03/2015
Le 03/03/2015 à 09h 11
Le 03/03/2015 à 08h 52
Xiaomi Yi Sports : une petite caméra à moins de 100 $ qui grimpe jusqu’à 240 fps
03/03/2015
Le 03/03/2015 à 08h 50
Wasteland 2 va migrer vers le moteur Unity 5
02/03/2015
Le 02/03/2015 à 09h 51
Après c’est pas vraiment un changement de moteur du jeux. On reste sur Unity.
Ubuntu 15.04 : la bêta 1 et la variante Mate sont disponibles
27/02/2015
Le 27/02/2015 à 19h 49
Le 27/02/2015 à 19h 21
Le 27/02/2015 à 19h 19
Le 27/02/2015 à 18h 07
Le 27/02/2015 à 17h 47
Le 27/02/2015 à 15h 50
Le 27/02/2015 à 15h 17
Spartan : Microsoft explique son besoin d’un nouveau navigateur
27/02/2015
Le 27/02/2015 à 12h 54
Le 27/02/2015 à 10h 49
Bonnes nouvelles en tout cas. Reste a se débarrasser des anciens IE, a rendre Spartan indépendant de windows et multiplateforme.
Firefox 36 est désormais compatible avec le HTTP/2
25/02/2015
Le 25/02/2015 à 13h 20
[MàJ] Le protocole HTTP/2 a désormais son document RFC
15/05/2015
Le 18/02/2015 à 14h 56
Le 18/02/2015 à 14h 37
Le 18/02/2015 à 13h 50
Le 18/02/2015 à 13h 13
Shumway : Firefox Nightly peut lire du contenu Flash… sans Flash
17/02/2015
Le 18/02/2015 à 13h 23
Le 18/02/2015 à 12h 11
Le 18/02/2015 à 10h 02
Le 18/02/2015 à 09h 03
Le 17/02/2015 à 19h 33
[MàJ] Aquaris E4.5 : le premier smartphone sous Ubuntu Touch arrive pour 169,90 €
06/02/2015
Le 11/02/2015 à 21h 25
Le 09/02/2015 à 11h 22
Le 09/02/2015 à 11h 06
Le 08/02/2015 à 19h 51
Le 07/02/2015 à 09h 36
Le 07/02/2015 à 09h 30
A noter que Meizu va présenter un MX4 avec Ubuntu au prochain salon du Mobile début mars. C’est déjà du plus gros, plus performant et plus cher.
Le 06/02/2015 à 22h 32
ANFR : Free Mobile premier sur la 4G avec 327 antennes de plus
04/02/2015
Le 04/02/2015 à 14h 33
Fragmentation Android : 1,6 % pour Lollipop, mais KitKat stagne
03/02/2015
Le 03/02/2015 à 11h 33
Le 03/02/2015 à 10h 54
À peine revenu sur Steam, Flight Simulator X se dote déjà de DLC
29/01/2015
Le 30/01/2015 à 10h 04
Le 30/01/2015 à 08h 19
Vivaldi : un navigateur web pour ceux « qui en veulent plus »
27/01/2015
Le 29/01/2015 à 08h 41
Kerbal Space Program va dire adieu à l’Early Access
28/01/2015
Le 28/01/2015 à 15h 51
YouTube bascule par défaut à la balise vidéo HTML5
28/01/2015
Le 28/01/2015 à 15h 19
Tant mieux. Il faut pousser le papy Flash a la retraite ^^
Ghost : la nouvelle faille critique qui fait trembler Linux
28/01/2015
Le 28/01/2015 à 14h 33
Le 28/01/2015 à 13h 38
Le 28/01/2015 à 13h 20
Le 28/01/2015 à 13h 17
Le 28/01/2015 à 12h 47
Le 28/01/2015 à 12h 45
Le 28/01/2015 à 12h 37
Le 28/01/2015 à 12h 34
Le 28/01/2015 à 12h 15
Le 28/01/2015 à 11h 47
Le 28/01/2015 à 11h 46
Le 28/01/2015 à 10h 08
Le sandboxing et l’utilisation des outils modernes du Kernel sont quand même un gros plus qui sont encore sous exploités sur Desktop et qui peuvent limiter/réduire les soucis de sécurité sur les machines.
Sur serveur ça permet déjà d’améliorer pas mal de choses et ces nouvelles technos viennent souvent accompagnées de méthodes/concepts et outils qui renforcent encore un peu plus la sécurité de l’ensemble.
Maintenant c’est comme tout y’a pas de solution miracle. Mais on peut essaye de mitiger les risques.