votre avatar

seb2411

est avec nous depuis le 24 octobre 2008 ❤️

2352 commentaires

Le 03/03/2015 à 09h 11







the_mei a écrit :



Je me demande de l’intérêt d’utiliser un middleware comme UE4 & co tout seul dans ton garage sans aucun but commercial… :o



Mais bon on peut être idéaliste.

Mais les mecs comme Epic / Crytek ou Frostbite c’est plusieurs dizaines/centaines de M$ qu’ils ont investis en R&D, donc je me demande comment ils vivent… Bon Epic on sait, ils ont fait des contrat a 2 ou 3 chiffres avec EA & co à une époque (UE2.5 et UE3)… <img data-src=" /> Mais bon…





A quoi peut bien servir d’avoir un outil ? Oh attend d’apprendre a s’en servir soit même. C’est fou non ? <img data-src=" />


Le 03/03/2015 à 08h 52







the_mei a écrit :



Quand on vois les prix pratiquer, on se demande comment ils vivent… La guerre des prix n’a pas forcement de sens, car n’importe qui peux se payer ses outils…



Comparé a une licence Visual Studio ou même d’autres IDE moins cher pour Java/Ruby/PHP & co, c’est pas si énorme.





C’est 19€ par mois du coup pour un usage perso ça peu vite revenir cher. L’idée et au final de faire payer ce qui se font de l’argent avec UE et laisser les autres faire ce qu’ils veulent. Ce qui me semble être une excellente idée.


Le 03/03/2015 à 08h 50







Soltek a écrit :



Je quote Timo parce que j’ai trouvé ça INtéressant :







Source.





Pour les pays capable qui veulent envoyer des hommes dans l’espace c’est totalement faux.&nbsp;

Et pour la question des prix le raisonnement est bancal. Les prix des entreprises Chinoises sont intéressant mais pas si bas que ça. A contrario les entreprises Occidental savent aussi vendre des produits chinois a bas prix. De plus je doute que le Chinois moyen souhaite continuer a être payer une misère toute sa vie.


Le 02/03/2015 à 09h 51

Après c’est pas vraiment un changement de moteur du jeux. On reste sur Unity.

Le 27/02/2015 à 19h 49







Okki a écrit :



udev est développé par Kay Sievers, qui est employé par Red Hat.



D-Bus, bien qu’hébergé sur FreeDesktop (tout comme systemd et de nombreux autres projets), a tout d’abord été créé par Red Hat, qui emploie la plupart des développeurs clé (John Palmeri, Colin Walters…)



Après, bien sûr, Red Hat ne fait pas tout. La communauté, ainsi que plusieurs centaines d’entreprises contribuent désormais au libre. Il n’en demeure pas moins que la contribution de Red Hat est cruciale, tandis que celle de Canonical est complètement insignifiante. Et non, Mir ou Unity n’ont strictement aucune importance. Ce sont juste des choix possibles en plus.



Si Red Hat disparaissait demain, le développement de Linux et du desktop seraient sérieusement freinés. Si Canonical disparaissait demain, ça n’aurait aucune importance. Plein d’autres distributions prendraient sa place.





Udev a été cree par&nbsp;Greg Kroah-Hartman . Mais encore une fois vouloir donner la “propriete” d’un projet libre a une personne alors que c’est souvent une communaute qui participe c’est tres tres reducteurs.



Qu’un acteur du libre disparaisse ce serait dans tout les cas une mauvaise nouvelle, mais personne n’est irremplaçable la disparition d’un acteur ne signifie pas la disparition des projets et des développeurs. Ca vaut pour Red-Hat, pour Canonical et pour tous les autres acteurs . Maintenant que tu le veuilles ou non Canonical est un acteur important dans le monde Linux. Et ma foi limiter Canonical a Unity et Mir est aussi très réducteur.


Le 27/02/2015 à 19h 21







Bylon a écrit :



Merci pour les clarifications Rozgann !



Et je n’ai pas creusé, mais j’imagine que X-Mir c’est précisément pour les applis qui s’attendent à trouver un X alors que tu es sous Mir. La fameuse “compatibilité” en somme. C’est bien ça ?





Oui dans la vidéo que j’ai mise plus haut on voit Libre Office qui est en fait exécute via XMir. On le voit car le thème n’est pas correctement charge et ressemble a un thème de Windows 95. du coup pour l’utilisateur si ils font bien leur boulot ça devrait être relativement transparent.


Le 27/02/2015 à 19h 19







Okki a écrit :



Ça a le don de me filer des boutons, quand je lis ça. Toutes les technologies qui font que Linux est désormais facilement utilisable par n’importe qui (NetworkManager, PulseAudio, D-Bus, DeviceKit, udev, systemd…) ont toutes été développées par Red Hat.



Canonical s’est contenté d’arriver, de prendre une Debian, de distribuer quelques CD et de faire pas mal de marketing. Donc oui, on peut les « remercier » pour la promotion, mais ne surtout pas oublier qu’ils n’en seraient pas là sans tout le travail accompli par Red Hat, Debian et compagnie.





A carrément ^^ . Toutes les technologies ? Genre ils ont inventé Linux et le papa de Linus c’est Mr RedHat <img data-src=" />. Dans le genre exagération c’est pas mal.



Canonical fait une part du boulot comme tout ceux qui bossent sur l’ensemble de l’eco-systeme Linux que ce soit en dev, en reportant des bug, en faisant du design, de la promo, du marketing etc. Vouloir rendre RedHat comme l’unique parent de toute les technos c’est un gros mensonge, un énorme manque de respect pour le reste de la communauté qui participe et une sacre claque pour l’idée du libre (Je prends le boulot des autre et je dit que j’en suis l’unique auteur).



Par exemple D-Bus c’est un projet de la Freedesktop fondation, Udev c’est maintenu par un dev de la Linux Fondation…&nbsp;


Le 27/02/2015 à 18h 07







Bylon a écrit :



Et sinon… où ils en sont du très controversé MIR ? <img data-src=" />



Je vois qu’ils tentent Wayland sur le spin-off Gnome, ils auraient laissé tombé leur bébé ?





Mir c’est pour aller avec Unity 8. Les autres variantes d’Ubuntu utiliserons Wayland.

Sinon ils continuent d’avancer Avec Unity8 et Mir:

youtube.com YouTube


Le 27/02/2015 à 17h 47







Alesk a écrit :



Et finalement, est ce que c’est si important de savoir quelle distrib’ fait le plus gros score de download. Le but n’est il pas finalement de choisir la distrib’ que nous convient.





Par curiosité, c’est plus intéressant d’essayer de voir comment évoluent les PDM de Linux en général. Mais après oui le principal c’est d’avoir le choix et que chacun y trouve son bonheur.


Le 27/02/2015 à 15h 50







Konrad a écrit :



Oui je sais mais bon c’était pour donner une idée.

Si tu as une source fiable sur l’utilisation des différentes distributions je suis preneur. <img data-src=" />





Disons que Distrowatch n’est pas du tout une statistique qui donne une idée de quelle distributions est la utilisée http://distrowatch.com/dwres.php?resource=popularity). Pour ça a une époque il y avais des stats wiki mais qui sont plus mises a jours et qui donnaient un truc du genre 50% pour Ubuntu 10% pour Mint. Y’a aussi les stats Steam qui ciblent plutôt les joueurs mais qui sont intéressantes et donnent une répartition un peu dans le même ordre d’idée.


Le 27/02/2015 à 15h 17







Konrad a écrit :



Selon Distrowatch, Mint devient davantage utilisée que Ubuntu, ce qui est un peu embarrassant pour cette dernière quand même.



La plupart des gens, quand ils installent une distribution, s’en tiennent à l’environnement fourni de base. Si Unity ne leur plait pas, ils vont quitter Ubuntu pour aller voir ailleurs (Mint par exemple).





Distrowatch n’est pas une stats d’usage des distributions&nbsp;


Le 27/02/2015 à 12h 54







flamwolf a écrit :



S’ils se conforment enfin aux standards de la 3W pourquoi pas. Perso ça fait 6 ans que je ne perds plus mon temps à rendre compatible mes sites avec IE…





Les versions récentes d’IE comme la 11 supportent relativement bien les standards récents. Le problème vient plus du fait de devoir aller supporter des navigateurs comme IE8… &nbsp;


Le 27/02/2015 à 10h 49

Bonnes nouvelles en tout cas. Reste a se débarrasser des anciens IE, a rendre Spartan indépendant de windows et multiplateforme.

Le 25/02/2015 à 13h 20







Koxinga22 a écrit :



Hmm … très bien très bien.

Donc si l’on héberge pas soi-même, rien à faire à part attendre la prise en charge.



Pour les optimisations caduques je trouve ça plutôt bien, ça va remettre tout le monde à niveau. Je fais confiance aux plus acharnées pour trouver de nouvelles bidouilles.





Normalement oui. Après il y aura du coup peut être d’autres “bidouilles/optimisations” pour le HTTP/2.


Le 18/02/2015 à 14h 56







Koxinga22 a écrit :



Ca revient à copier les contenus des fichiers dans un seul fichier, non ? Éventuellement, virer les sauts de lignes, les espaces inutiles ce genre de truc ?





Ben, je tripatouille mon propre CMS depuis assez longtemps et justement la semaine dernière je me suis relancé dans un système où l’utilisateur peut créer son propre module d’affichage de contenu et l’inclure au site. Dans cette optique, il m’a semblé naturel d’avoir le js et le css spécifiques au module dans un dossier à part, et de charger toutes les ressources utiles en fonction du contenu de la page demandée (une page qui utilise les modules 1 et 3 ne chargera pas le js qui fait tourner le module 2)

Ca ne coute pas beaucoup plus cher de remplacer la recherche des ressources utiles par une copie de tous les js en un seul et de charger ce (gros) fichier tout le temps pour tout le monde.

Reste à voir les perfs.



Après tout, ce genre de projet est plus fait pour bidouiller que pour répondre à un réel besoin. Si je peux produire du code utile, cool, je distribue. Mais sinon c’est plus pour m’auto-former et garder la main.





Je pense que tu dois pouvoir utiliser des lib déjà existantes pour faire ça. Sauf évidement si tu veux faire ça toi même.



Pour minifier c’est pas seulement virer les commentaires et les espaces inutiles mais aussi compresser le code (un exemple avec jquery :http://code.jquery.com/jquery-1.11.2.min.js).


Le 18/02/2015 à 14h 37







Koxinga22 a écrit :



En gros, il faudrait qu’à la publication, le generateur aille lire tous les js des modules actifs et recopie leur contenu dans un seul js à mettre en prod (les noms de fonctions sont préfixés du nom de module donc pas de conflit à l’horizon)





Oui, normalement pour les framework modernes (genre Symfony en php) ca se gère automatiquement.&nbsp; Pour Wordpress je pense qu’il doit y avoir des plugins mais c’est dommage qu’il gèrent pas ça nativement et proprement.


Le 18/02/2015 à 13h 50







Koxinga22 a écrit :



Je préfère Firebug, l’onglet network du module de debug par defaut de FF n’est ni pratique ni ergonomique.

Mais donc, c’est “juste” le temps de chargement des fichiers qui fait tiquer ? parce qu’au final, ca ne change pas grand chose d’avoir un js de 1000 lignes ou 10 js de 100 lignes, la différence se compte en millisecondes.

Et une fois les fichiers chargés en cache, il n’y a plus d’appels donc cet “inconvénient” de devoir attendre 3 ms ne se produit que lors du premier chargement.



Plutôt bénin comme problème selon moi.

Et très largement compensé par la praticité d’un code modulaire dont on ne charge que les éléments utiles.





C’est pas bénin car selon ou tu te trouves sur la planète le temps communication avec le serveur peu facilement exploser.

Sur des sites, si tu veux avoir des performances correcte il faut que le site soit chargé en quelques secondes. Par exemple si tu as un objectif de chargement de la page en 3s et que tu as 10 js qui mettent 200ms a charger tu te retrouves déjà a 2 secondes juste pour charger du JS. Si tu fais pareil pour le css tu passes a 4 secondes.



Ca s’appel de l’optimisation. C’est souvent pénalisant en terme de visites que ce soit pour les visites directes ou pour les moteurs de recherches. Apres si tu as un ptit blog perso c’est pas la mort mais pour du professionnel il vaut mieux faire attention.


Le 18/02/2015 à 13h 13







Koxinga22 a écrit :



Je n’utilise pas wordpress mais … il y a un inconvénient à séparer ces CSS et JS en plusieurs fichiers ?

(une dizaine semble trop selon toi)





Pour le dev c’est beaucoup mieux d’avoir des fichiers bien séparés. Ça permet d’avoir une organisation claire et de faciliter le debug.

&nbsp;

Pour la prod il faut toutefois prévoir de les fusionner en un seul fichier et minifier le code. Sinon tu augmentes le temps de téléchargement (fichier plus gros) et pour chaque fichier ton navigateur va faire une requête : demande du fichier…attente de la réponse du serveur…téléchargement du fichier…



Pour te faire une idée, si tu utilises Firefox tu vas sur un site tu fais ctrl + shit + i et tu vas dans l’onglet “network” Tu recharge la page et il va te montrer tout les fichier télécharger et le temps de chargement. Si tu regardes le Timing pour chaque fichier tu as souvent par exemple un temps d’attente ou le navigateur attente la réponse du serveur. C’est souvent court mais si tu multiplies par 20 fichiers ça peu facilement représenter plusieurs secondes.


Le 18/02/2015 à 13h 23







Wukerz a écrit :



c’est raté pour m’épargner le mal de tête… <img data-src=" />



<img data-src=" />





<img data-src=" />

<img data-src=" />


Le 18/02/2015 à 12h 11







Zed-K a écrit :



Pour la quantité de données certes, mais dans certains cas tu n’as pas la choix. Et là les performances commencent à rentrer en compte.



Quand je parle de maintenance et de rapidité de dev, je ne pense pas qu’au code (sur ce point on est d’accord, tout est question de maîtrise du langage et de discipline).&nbsp;Je pensais plus au jeu de composants UI complet et ultra extensible de Flex, qu’on ne retrouve guère que dans ExtJS.

Sinon, en l’absence d’implémentation des Web Components dans les navigateurs actuels, on est bon pour mixer des plugins JQuery UI et autres widgets piochés à gauche à droite, tous développés de façons différentes…



Là où Flex faisait la quasi unanimité dans le monde de la RIA (avec le bénéfice de l’énorme communauté derrière), en JS je peine à trouver quelque chose de pérenne&nbsp;(je mets en gras car c’est vraiment là où le bas blesse àmha).



Les nouveaux frameworks JS sortent à une cadence hallucinante et passent de mode en quelques semaines à quelques mois, difficile d’en choisir un pour une application devant évoluer et être maintenue sur plusieurs années.

&nbsp;

Quand je regarde ce que les géants du web utilisent pour leurs applications, pas de quoi être rassuré non plus…

Qu’il s’agisse d’Apple, Google, MS, Mozilla, Facebook et j’en passe, personne ne semble vouloir développer en JS. Chacun cherche un moyen de s’en passer en transpilant, et encore une fois la pérénité de ces technos approche le ridicule.

Rien que chez Google :&nbsp;GWT, décédé au profit de Dart, lui-même abandonné au profit d’AtScript… inspiré du TypeScript de Microsoft&nbsp;<img data-src=" />

Pas mieux niveau framework, AngularJS étant voué à la base à migrer vers le Dart, pour au final prendre le virage AtScript au dernier moment… laissant les contributeurs d’AngularDart comme des cons.



Bref, le JS pour du site web OK, mais pour une application web d’entreprise complexe et devant être maintenue sur de nombreuses années, il semblerait que personne n’ait de solution concrète et pérenne.





Je ne suis pas vraiment d’accord sur la pérenite. A partir du moment ou tu restes sur les projets principaux y’a pas de soucis. AngularJS et maintenant la depuis quelques temps et c’est toujours du JS. EmberJS aussi. Et des petits nouveaux comme ReactJS sont soutenu par Facebook et déjà suffisamment stable.



Si tu pars sur un projets maintenu sur le long terme il n’y a pas de soucis. Apres il faut bien voir selon les besoins de l’application chaque framework ayant ses avantages et inconvénients en termes de performances selon les choix qui seront faits.


Le 18/02/2015 à 10h 02







Zed-K a écrit :



Ça s’appelle une RIA ;)

Quand tu développe des applications pro, tu peux vite être amené à devoir gérer de grandes quantités de données.



Pour ce type d’applications, je n’ai rien vu en JS qui réussisse à égaler Flex, autant en terme de performances, de maintenabilité et de rapidité de développement.

Ce qui s’en rapproche le plus à la limite c’est Ext.JS, mais c’est pas encore ça àmha.





Oui mais gérer une grande quantité de données ne veut pas dire que tu dois afficher 2000 lignes a l’utilisateur d’un coup pour qu’il puisse éditer <img data-src=" />. En général tu essayes de trouver des solutions pour épargner des mal de tête a l’utilisateur.



La maintenance et la rapidité de dev ce n’est pas vraiment un argument. Ces points dépendent du dev.En effet si tu maîtrise bien Flex y’a des chances que ce soit plus rapide a dev dessus et a faire du code clean que sur un framework JS. Et inversement pour un dev JS avec son framework favoris.



Pour ce qui est de JS je pense que y’a pas mal de framework interessants a tester : ReactJS, EmberJs, Meteor, etc.

&nbsp;


Le 18/02/2015 à 09h 03







jaretlafoudre a écrit :



Essaye de faire un datagrid en HTML5 compatible tout navigateur capable de gerer plus de 2000 lignes…



Au boulot l’interface de nos appli étaient en flash (généré par Flex), on a pas encore trouvé mieux dans les framwork JS, et de très loin niveau performance…





En même temps si tu fais un datagrid de 2000 lignes c’est peut être pas HTML5 le problème mais ton interface ^^ .


Le 17/02/2015 à 19h 33







chickenwing a écrit :



Comme d’habitude, on crache sur Flash sans se rendre compte que le Html 5 apportera les mêmes galères, en plus gourmand. Le seul tort de Flash est de ne pas être open-source, c’est pour ça que les grands acteurs du web ont voulu le tuer.

La révolution c’est pas pour vous, c’est pour eux !



Finalement adobe a très mal joué sur ce coup là, ils auraient mieux fait de le passer open-sources, on en serait pas là….





Flash s’est tué tout seul. Le plugin est pourri mal fichu et il n’a pas suivit l’évolution des technos web en général.&nbsp; Le HTML5 va résoudre et résout déjà de nombreux soucis. On ne sera plus dépendant d’une seule implémentation et il sera géré nativement par le navigateur. Et je vois pas pourquoi il sera plus gourmand a l’avenir…


Le 11/02/2015 à 21h 25







hansi a écrit :



@seb2411

Je vous trouve bien cavalier d’utiliser le mot marginal pour un Firefox OS qui n’a “que” 12 téléphones en 1 an et demi, dont un flame en rupture de stock, sans compter la bonne vingtaine de partenaires industriels dont aucun n’a quitté le navire !

Concernant le support natif des webapps chez Canonical, j’attendrais de voir si ces applis se lancent dans un navigateur sous-jacent, ou si, comme vous semblez le soutenir, elles s’exécutent réellement en natif.

Côté marché, il est clair que la première ambition de Firefox OS était des smartphones grand public à bas coût visant d’abord les pays émergents, mais en 1 an et demi, nul ne pourra nier la montée en gamme des modèles en Europe, et il est évident que la fondation Mozilla n’est pas connue pour lâcher le morceau…



@Faith

Règle 1 : provoquer la frustration du consommateur, tout en cachant soigneusement que nos smartphones sont fabriqués avec du sang et des larmes. C’est là où ceux qui changent de smartphone comme ils changent de chemise me font littéralement gerber.





Marginal dans le sens : très peu de parts de marche. Pour le reste oui il me semble que c’est du natif. Et tant mieux si on peut avoir au moins ça en commun avec ces OS ce sera une bonne chose.



Visiblement les ventes sont aller assez vites:

twitter.com Twitter


Le 09/02/2015 à 11h 22







Hey Joe a écrit :



En ce qui me concerne, je verrais bien Ubuntu OS comme offre pro de niche à destination des informaticiens. J’en ai parmi mes clients, et ils ne sont satisfaits par rien de ce qui existe à l’heure actuelle.



FFOS pour l’entrée de gamme no frills, ça se défend. Il m’intéresse, à titre privé, comme alternative à Androïd. Par contre, en milieu pro, pour des contrats grands comptes ayant besoin de flottes d’appareils basiques sans fonctions spécifiques au client, ça peut se vendre. A voir…





Pourquoi pas, surtout qu’il y, il me semble des trucs intéressant au niveau gestion et déploiement donc a voir. Perso c’est l’un des deux systèmes qui m’intéressent avec SalfishOS pour remplacer mon Iphone 4S.&nbsp;


Le 09/02/2015 à 11h 06







hansi a écrit :



&nbsp;@seb2411

&nbsp;

Effectivement je n’ai pas tout pris du début. Mais j’ai quand même quelques (gros) doutes sur la question. Mozilla est en train de standardiser certaines API et continue d’avancer - et à part coller un Firefox dans ce téléphone pour suivre la marche, ce qui provoquerait forcément une perte de performance puisqu’on rajouterait une couche par rapport à du Firefox OS natif, j’ai du mal à voir comment Canonical pourrait suivre cette voie.

Quoi qu’il en soit, Firefox OS a prouvé sa viabilité en 1 an et demi, là où Canonical a tout à démontrer. Le seul endroit où je les attendrai, ce serait par exemple sur du SSH, de l’OpenVPN, ou des protocoles particuliers (bluetooth dans la voiture par exemple), qui ne sont pas encore pris en charge par FFOS. A part des créneaux plus “pro”, j’ai du mal à voir où ils pourraient jouer, et là où le bas blesse, c’est qu’ils sont seuls et en retard - mais on verra bien…







Coté support, Ubuntu Phone supporte nativement Webkit/Blink et Cordova. Du coup si les API sont standardisés elles seront supportés sous Ubuntu Phone aussi. Je ne vois pas trop pourquoi ils devraient rajouter une couche ?



FirefoxOS comme pas mal de petits OS reste assez marginal face aux grand le mettre en tant que référence et dire que Canonical peut difficilement faire ce qu’a fait Mozilla c’est un peu bizarre. De mon point de vue FirefoxOS reste très orienté sur le marché bas de gamme avec un OS assez basique et simple. La ou Ubuntu Phone cherche à pousser une expérience plus avancée, avec plus de possibilités. Ils sont sur des marchés qui me semblent différents.



Et pour finir, dire qu’ils sont en retard par rapport aux autres c’est un peu gonfle sachant que FirefoxOS n’est pas arrivé le premier. <img data-src=" /> Il restent beaucoup de chose a faire pour Ubuntu Phone mais le fait d’avoir trouver déjà deux smartphone de lancements c’est un bon départ.


Le 08/02/2015 à 19h 51







hansi a écrit :



Certains commentaires m’ont bien amusé, mais il faut être réaliste. Si on fait un sondage sur ce forum entre ceux qui savent faire une page web, et ceux qui savent programmer sous Qt, je suis certain qu’on trouvera sans problème beaucoup de gens dans la première catégorie, et très peu dans la seconde…

Ce n’est pas que ce Canonical Phone soit dépourvu d’intérêt, mais il arrive trop tard, et ne bénéficiera pas de l’avantage évident de Firefox OS : une myriade de webmaster qui ont du talent et des idées plein la tête, avec un HTML5 qui offre désormais des outils de rendus réellement pros…





T’as pas du lire tous les commentaires alors car Ubuntu supporte aussi les applications HTML.


Le 07/02/2015 à 09h 36







SebGF a écrit :



Depuis le temps qu’ils teasent du concret serait le bienvenue.





Oui. La on parle de quelque chose qui serait plus une présentation/lancement visiblement mais bon il vaut mieux attendre pour voir ^^ . L’avantage du MX4 c’est qu’il pourrait être vendu en Asie par Meizu et dans le reste du monde via le store de Canonical. Par contre j’attends de voir le prix.&nbsp;


Le 07/02/2015 à 09h 30

A noter que Meizu va présenter un MX4 avec Ubuntu au prochain salon du Mobile début mars. C’est déjà du plus gros, plus performant et plus cher.

Le 06/02/2015 à 22h 32







FRANCKYIV a écrit :



Tu parles de ceci ?



Adresse Web :

http://www.toutes-les-solutions.fr/phpbb/topic3961.html



Qui est toujours activé par défaut dans la version 14.10 (contrairement à ce que me disait quelqu’un sur ce site).





Les lens Amazon et compagnie sont toujours active par défaut sur la version 7 d’Unity. Sur la version 8 (Celle fournie sur smartphone) ce n’est plus le cas.


Le 04/02/2015 à 14h 33







manu0086 a écrit :



D’un côté, y’a les abonnés… ils paient donc tout ce qu’ils lisent est forcément top méga génial… (bon ok, ne généralisons pas et n’y incluons pas tous les abonnés, certains savent faire la part des choses), de l’autre, bah les lecteurs qui en ont marre du racolage de PCI par des titres mensongers/volontairement tronqués de leur sens. (mais l’excuse sera encore et tjrs : pas assez de place pour détailler le titre… et le sous-titre est là… vous savez comme les petits caractères au bas d’un contrat…)





Honnêtement ce genre de remarque tu ferais mieux de te les garder. Avant de faire des procès d’intentions a tout le monde fait un peu d’introspection t’as du boulot.


Le 03/02/2015 à 11h 33







Citan666 a écrit :



Si ça peut te rassurer mon expérience avec le Note n’est pas beaucoup plus plaisante… Rien de méchant hein, juste que ça rame en permanence alors que durant la première année c’était bien fluide (et non, je n’ai pas rajouté 100 applis, et je coupe la 3G dès que je peux). Mais j’ai tellement la flemme (et la frousse surtout) de tenter un rootage + Cyanogen… <img data-src=" />





Le pire c’est que j’ai eu une dégradation même avant les mises a jours avec des applications qui se sont mises a planter du jours au lendemain. Maintenant c’est pire puisque j’ai plein de bug, c’est plus réactif du tout et j’ai pas mal de soucis avec des applications même basiques. Et justement je m’attendais a un suivit de meilleur qualité de la part d’Apple que Samsung.


Le 03/02/2015 à 10h 54







Citan666 a écrit :



…. <img data-src=" />





C’est vrai que les mises a jours iOS sont pas une reussite. Du moins sur mon 4S.&nbsp;


Le 30/01/2015 à 10h 04







bloopy36 a écrit :



oui mais tu a du oublier le “visit store” et un aibus “air Bucarest” ca donne pas envie.. vaut mieux investir dans xplane, se prendre deux avions payant (a320 et boeing 737) et aller sur le site telecharger gratuitement une tonne d’avion qui sont pour la plupard hyper proche e la realité





Le store vend juste la version gratuite que tu peux télécharger. Si tu veux sur support physique tu payes. C’est aussi un moyen de soutenir le projet. Pour avoir connu flightgear y’a quelques année ils ont fait un grand bon en avant même si ils leur reste pas mal de boulot a faire.



Après je sais pas comment ils tiennent la comparaison vis a vis de Xplane ou FSX c’etait juste histoire de troller un peu Winston67 <img data-src=" />


Le 30/01/2015 à 08h 19







morlog a écrit :



Hé ben … quelle violence.

On a (un peu) critiqué ton jouet favoris alors tu t’énerves tout seul dans ton coin en montrant les dents ?



Je connais plusieurs GROS fan de simulateurs (que ce soit avion avec FSX, ou train avec TrainZ et Train Simulator) c’est bien la première fois que je vois un gars s’énerver autant pour si peu, et heureusement vu qu’il y a mon beau père dans le lot, j’aurai peur qu’il me saute à la gorge et m’ouvre la carotide avec les dents si je lui fais une remarque…





Alors déjà quel est le foutu rapport avec le matos ?

C’est vrai, acheter un palonnier de qualité ça coûte cher ? Merci d’être passé Captain Obvious. Sans toi on s’en serait pas douté.



Et … quel est le foutu rapport avec Ubuntu, les iPhones, et les NAS ?

No sé.



Ensuite qui a parlé de “sale capitaliste US” ?

Tu lis bien ce que tu veux dans un article et dans les commentaires.



Enfin, oui c’est cher, je pense qu’à peu prêt tout le monde le sait (le savait déjà).

Mais tu permets à certaines personnes de trouver ça TROP cher ? Ou on doit juste dire “amen” et être d’accord avec les tarifs proposés et surtout TON avis ?

Tu trouves peut-être acceptable d’avoir chaque région à 20€ … d’autres peuvent trouver ça injustifié (que ça soit le cas ou non).



La seule phrase du sujet qui “juge” (vraiment un peu) c’est:



“ Certes, le nouvel éditeur avait bien prévenu que de nouvelles extensions au jeu étaient au programme, mais leur nombre, leur fréquence d’apparition ainsi que leur tarif, deux tiers du prix du jeu de base, a de quoi laisser perplexe. ”



La vache … quelle attaque !

Ça méritait bien de monter sur ses grands chevaux et s’énerver comme ça.

Il a osé écrire “a de quoi laisser perplexe” … vite à l’échafaud.



Mais sinon … t’as pas l’impression de t’être emporté pour rien ?





En même temps y’a quoi se mettre en rogne de dépenser autant de fric dans un jeux et tout ces DLC quand tu as FlightGear pour 0€ http://www.flightgear.org/about/features/). <img data-src=" />&nbsp;


Le 29/01/2015 à 08h 41







Monsieur_S a écrit :



Mouais .. m’enfin .. les nombreux onglets que tu ouvres sur ton navigateur chrome, firefox ect .. c’est un peu beaucoup grâce à cette machine à café. Jamais compris pourquoi Opera n’a jamais eu le succès qu’il aurait du avoir.&nbsp;





Ou pas. Opéra n’a pas inventé les onglets. Ils ont été les premier (?) à l’intégrer sur navigateur c’est différent. Pour le succès il a tout simplement été éclipsé par Firefox qui avait en plus l’avantage d’être libre.&nbsp;


Le 28/01/2015 à 15h 51







Mustard27 a écrit :



Ca reste le gros soucis du jeu. Le 32 bits est instable quand on met trop d’addons (mémoire vite saturé) et le 64bits est instable car c’est une bidouille reconnue par la Team





A bon ? Chez moi sur 3 PC different en 64Bits ca fonctionne sans problèmes.


Le 28/01/2015 à 15h 19

Tant mieux. Il faut pousser le papy Flash a la retraite&nbsp; ^^

Le 28/01/2015 à 14h 33







Jed08 a écrit :



Oui mais se dire qu’elle n’a jamais été utilisé auparavant, sans preuves, est aussi naïf.

Des serveurs d’entreprises vulnérables il y en a beaucoup. Des black hat, il y en a beaucoup aussi. Maintenant je ne sais pas comment marche le marché noir sur Internet, mais cela m’étonnerait beaucoup que les failles qui circulent ne soient que des failles déjà publiées et patchées.





Le monde du marché noire et du piratage en tout genre c’est pas une boite noire. Tu peux même acheter des logiciels pour hacker et pirater. Du coup si de tel outils ont été publié pour exploiter cette faille cela se saurait.

Du coup si personne n’est au courant ça réduit fortement les possibilités que la faille puisse avoir été exploité.


Le 28/01/2015 à 13h 38







sepas a écrit :



Ou alors, ils l’auraient corrigée il y a 2 ans <img data-src=" />





Non puisqu’ils patchent après que les failles soient publiques.

&nbsp;&nbsp;


Le 28/01/2015 à 13h 20







sepas a écrit :



Heureusement, le patch existe depuis 2 ans, manquerait plus qu’ils mettent plusieurs semaines avant de le mettre à dispo





Oui on est pas chez Microsoft. Sinon il auraient attendu 1 mois de plus histoire d’être sur que la faille aura eu le temps d’être exploiter et auraient ensuite accuse des tiers d’être responsable… <img data-src=" />


Le 28/01/2015 à 13h 17







sepas a écrit :



Un bug de buffer overflow…Désolé mais en général, ce genre de bug est souvent exploité à des fins malveillantes.

Non, ce n’est pas du troll, loin de là, je trouve juste ça limite qu’une erreur comme celle là puisse arriver.





Oui c’est clairement un erreur de la part des devs de Glib d’avoir laisse passer ca.&nbsp;


Le 28/01/2015 à 12h 47







after_burner a écrit :



Moi ça me semble pas spécialement meilleur, la correction du bug protège de cette faille, il ne s’agit même pas de corriger mais d’appliquer la correction, déjà faite et connue.



Soit y a un truc qui m’échappe dans l’article, soit on peut dire que c’est pas franchement une meilleure attitude…





La correction du bug corrigeait un bug. Elle n’avait pas été considéré comme une faille de sécurité. Si la mise a jours avait été indiqué y’a 2 ans comme une faille toutes les distrib maintenues auraient publiées à ce moment la.


Le 28/01/2015 à 12h 45







Konrad a écrit :



La faille date de 2000, mais jusqu’à preuve du contraire, personne ne l’avait vue ni n’était au courant.



En 2013 ça a été considéré comme un «bug», ça a été corrigé. Ça n’était pas considéré comme une faille, c’est pour cela que certaines distributions ne se sont pas particulièrement alarmé, et ont fait traîner la mise à jour.



C’est seulement hier (27 janvier) que l’exploit a été révélé, et qu’il est avéré que c’est bien une faille critique. Du coup maintenant toutes les distributions vont se magner de mettre à jour.









Donc oui, c’est complètement différent d’un éditeur qui a été prévenu explicitement d’une faille critique, et qui n’a toujours rien fait 3 mois après. Dire qu’il a fallu 2 ans pour corriger la faille, c’est complètement mensonger.





Quelques corrections.




  • C’est pas que les distributions traînent a mettre a jours, c’est plutôt que les distributions comme Ubuntu 12.04 ne reçoivent plus que des mises a jours de sécurité. Du coup si y’a pas de faille répertoriés ils ne mettent pas a jours.

  • Et de fait les distributions ont envoyé les mises a jours de sécurité avant la divulgation publique du bug.

    <img data-src=" />


Le 28/01/2015 à 12h 37







sepas a écrit :



Désolé mais ça a été divulgué il y a 2 ans.

Il suffit qu’une seule personne ait étudié cette remontée il y a 2 ans et en a profité pour faire un exploit, ça fait 2 ans que ça marche.

Maintenant que certains ont considéré que ce n’était pas un bug de sécu, c’est une erreur d’analyses, que certains hacker n’ont peut être pas commis

Tous les OS ont des bugs, sauf que celui-ci a été pointé et non corrigé.



Le fait de le pointer aurait dû amener une correction. Vous nous vendez assez de "C'est du libre, c'est corrigé tout de suite"







Il y a 2 ans c’est passé comme un bug pas comme faille de sécurité. Il n’y a pas eu de bulletin de sécurité ni d’autre alerte dans ce genre. Du coup la faille n’a été découverte comme faille que récemment et a bien été corrigé rapidement&nbsp; a contrario de windows qui attends la publication pour râler et les fixer ensuite.



C’est du troll volontaire de vouloir interpréter ça comme un manque de de réactivité…


Le 28/01/2015 à 12h 34







sepas a écrit :



Oui j’ai bien compris. Sauf qu’on parle d’un bug qui a été décrit. C’est du code libre, comment Est-ce possible avec les millions de personnes qui lisent ce code que personne n’ait vu qu’il y avait un problème de sécu?

Désolé mais que ce soit du libre ou du proprio, on te décrit un bug, ça met pas longtemps à voir que ça touche la sécu. On parle quand même d’une librairie largement utilisée et les problèmes de sécu par buffer overflow, ça date pas d’hier…

Bref, je ne suis pas là pour troller mais pour vous montrer que oui, ça peut prendre du temps avant de corriger un bug, pour une multitude de raisons différentes.





Ça n’a pas été considéré comme une faille de sécurité. Pourquoi ? Il faudrait voir mais du coup ça n’a pas suivit le processus de diffusion des failles de sécurité. Si tu veux jouer aux comparaisons, à la différence la faille Windows tu remarqueras que la faille a été résolus avant l’annonce de sa découverte.&nbsp;


Le 28/01/2015 à 12h 15







sepas a écrit :



J’ai lu l’article, mais tu vas m’expliquer que ce n’est pas la même chose.

La faille a été divulguée il y a 2 ans. Certaines distrib l’ont corrigées tout de suite, c’est bien qu’il ont vu le risque. Pourquoi pas les autres?





C’est juste écris dans l’article.&nbsp;<img data-src=" />


Le 28/01/2015 à 11h 47







sepas a écrit :



2 ans pour patcher?

Quand je pense que certains trouvaient énorme le temps qu’il a fallut à MS pour patcher la divulgation de Google…on les retrouve ici et comme par hasard, tout est normal car le fix est enfin sorti







A tu lus l’article ou tu viens juste pour troller ?


Le 28/01/2015 à 11h 46







HenryBasmati a écrit :



Le problème c’est depuis un moment, NXI ne traite plus uniquement des infos liées à l’informatique justement (d’où le changement de nom)

On peut toujours parler de ligne éditoriale pas claire mais le fait est qu’à force de se disperser, on perd en précision et surtout en valeur ajoutée. De plus l’info arrive de + en + avec du retard je trouve tout en&nbsp; n’apportant pas plus que ce qui a été dit ailleurs&nbsp;&nbsp; :-(





Ma foi il y a plusieurs facteurs:




  • Ce sont des être humains qui peuvent faire des erreurs, qui ont des sujets favoris.

  • Il n’ont sûrement pas la science infuse et une equipe de specialiste dans tout les domaines et ne peuvent donc pas forcement traiter tout les sujet avec la même précision/profondeur.

  • Le problème vient aussi peut être du fait que tu attends qu’ils traitent l’information dans le sens que tu veux (biaisé).


Le 28/01/2015 à 10h 08

Le sandboxing et l’utilisation des outils modernes du Kernel sont quand même un gros plus qui sont encore sous exploités sur Desktop et qui peuvent limiter/réduire les soucis de sécurité sur les machines.



Sur serveur ça permet déjà d’améliorer pas mal de choses et ces nouvelles technos viennent souvent accompagnées de méthodes/concepts et outils qui renforcent encore un peu plus la sécurité de l’ensemble.



Maintenant c’est comme tout y’a pas de solution miracle. Mais on peut essaye de mitiger les risques.