votre avatar

Konrad

est avec nous depuis le 3 août 2010 ❤️

4337 commentaires

Le 26/03/2014 à 21h 23







v1nce a écrit :



Dit-il citant un article de wikipedia barré d’un gros “problème de neutralité”





Oui on peut critiquer Wikipedia et ses contributeurs qui peuvent exprimer leur avis.



En revanche si tu veux critiquer les articles scientifiques sur le sujet, qui sont bardés de données quantitatives, où des spécialistes ont analysé le génome de je-sais-pas-combien d’être humains, va falloir être convaincant. <img data-src=" />


Le 26/03/2014 à 21h 21







arno53 a écrit :



J’ai pas envie de dévié sur la question de l’adoption pour tous qui est un autre débat que le simple mariage. Car oui le mariage au final ce n’est qu’un bout de papier avantageux pour les impots….





Justement non, les deux débats ne sont pas dissociés. Depuis bien longtemps, l’adoption est possible par un couple marié, ou bien par une personne seule (oui oui un homme seul ou une femme seule peuvent adopter un enfant -cet aspect de la loi n’a d’ailleurs jamais choqué les gens qui disent qu’un enfant doit avoir un papa et une maman…).



La loi



Donc, dès lors que l’on autorise le mariage à des couples homosexuels, cela leur ouvre le droit d’adopter. Le droit d’adoption va avec le mariage.



Donc, être pour le mariage pour tous mais contre l’adoption pour tous, ça n’a pas de sens, c’est méconnaître totalement les lois sur le mariage.


Le 26/03/2014 à 19h 44







didig55 a écrit :



Moi ça ne me gène pas, appelons un chat un chat.

Et je suis bien placé pour dire ça car j’ai un ami noir [ oops un ami “de couleur” ]

paye mon argument <img data-src=" />



Bref plus sérieusement, et c’est mon avis PERSONNEL, je pense que le mot race à certes aujourd’hui une connotation péjorative mais qui pour moi est aujourd’hui dû en grande partie à l’espèce de tabou autour de ce mot…





Non, ce n’est pas une question d’avis personnel, ni de tabou autour du mot «race».



Ce mot a une définition bien précise. Les études en taxinomie et en génétique montrent qu’on ne peut pas distinguer de races différences au sein de l’espèce humaine.



J’invite tout le monde à lire, par exemple, l’article de Wikipedia sur la question, il y a des références à des articles scientifiques si vous voulez pousser plus loin :





Les études scientifiques, fondées depuis le milieu du XXe siècle sur la génétique, ont montré que le concept de « race » n’est pas pertinent pour caractériser les différents sous-groupes géographiques de l’espèce humaine car la variabilité génétique entre individus d’un même sous-groupe est plus importante que la variabilité génétique moyenne entre sous-groupes géographiques. Le consensus scientifique actuel rejette en tout état de cause la présence d’arguments biologiques pour légitimer la notion de « race »





C’est pour cette raison que le mot «race» a été retiré de la législation française.


Le 26/03/2014 à 18h 32







johan.cb a écrit :



Ça n’est pas vraiment le débat de la news mais un raciste discrimine une autre race en considérant qu’il en existe des supérieures/inférieures.



Le simple fait de parler race (au sens de différence ou de “subdivision de l’espèce humaine”) n’est absolument pas raciste: aucune discrimination n’est faite.





Effectivement ce n’est pas vraiment le débat, mais l’idée qu’il existe des races dans l’espèce humaine va à l’encontre du consensus scientifique, donc à l’encontre de données et d’interprétations quantitatives. Donc l’idée qu’il existe différentes races n’est pas soutenu par des faits avérés, ça ne peut être qu’une conviction complètement subjective.



J’ai du mal à imaginer quelqu’un qui tient à tout prix dire qu’il existe des races différentes, et qui en même temps dirait que toutes les races sont égales…



Je maintiens donc mon opinion : défendre l’idée qu’il existe différentes races, c’est déjà être raciste.


Le 26/03/2014 à 17h 19







A-snowboard a écrit :



Y a que moi que ça m’interpelle qu’on parle de race ?





Non il n’y a pas que toi, ça me choque aussi à chaque fois. La génétique a montré qu’on ne peut pas distinguer de «races» dans l’espèce humaine.



Pour moi, continuer à parler de «races» pour des humains, c’est être raciste (=défendre l’idée qu’il existe des races).


Le 26/03/2014 à 18h 37







babelouest a écrit :



On va y arriver





Presque, un / en trop à la fin de l’adresse <img data-src=" />


Le 26/03/2014 à 15h 59







babelouest a écrit :



(bon, çà ne marche toujours pas)





Méthode :



1- cliquer sur le bouton “Lien”, apparaîtra alors une balise url=http://



2- remplacer le &quothttp://” par le vrai lien



3- écrire ce que tu veux entre les balises.



Ça donne ça <img data-src=" />


Le 26/03/2014 à 15h 45







babelouest a écrit :



http://www.flickr.com/photos/andysretrocomputers/4005457497/





Toi il faut que tu apprennes à faire des liens Interweb…


Le 26/03/2014 à 15h 43







babelouest a écrit :



C’est fou tout çà. Les journées, les journées que j’ai passée sur le premier Sim City ! (sous DOS) Et effectivement, config.sys at autoexec.bat devaient se configurer au caractère près, sinon le jeu ne se lançait pas.



Mes premières jouissances : travailler sur les lecteurs de bandes sans fin, sur ZX Spectrum : il suffisait de deux secondes pour charger l’appli, au lieu de trois minutes avec le lecteur de cassettes.

google.fr Google





Fixed <img data-src=" />


Le 26/03/2014 à 14h 30







Winderly a écrit :



Euh tu parles de quel diamètre ?





Le diamètre des trous.



Voir par exemple cette comparaison, où le diamètre des trous est appelé w (width).


Le 26/03/2014 à 13h 49







knos a écrit :



+1 de 0.7mo a 1.44.



Ce serai comme graver des dvd avec des cd vierge maintenant.





Rien à voir, comme quelqu’un l’a expliqué plus haut ça permettait d’écrire sur les deux faces du plateau magnétique de la disquette, donc de doubler sa capacité. Ça se faisait avec un même lecteur, la technique de lecture/écriture était la même.



Les CD et DVD sont incompatibles entre eux : pas la même fréquence laser, pas la même optique, pas le même diamètre ni profondeur des trous à la surface de la galette…


Le 26/03/2014 à 10h 15







zozolebo a écrit :



Libéré ou ouvert ?



La différence est très importante car si les sources sont libérées, cela signifie qu’on peut réutilisé le code pour en faire ce qu’on veut, tandis que si elles ne sont qu’ouvertes, cela signifie qu’elles restent à 100 % la propriété de Microsoft et qu’on a juste le droit de les regarder, pas de les réutiliser.



Pas d’info sur une éventuelle licence libre concernant ces codes sources ? Connaissant Microsoft je doute fortement que ces codes aient réellement été libérés…





Juste ouvertes. Notamment il n’est pas autorisé de redistribuer le code source, ni de revendre un travail basé sur ce code source.



La licence


Le 26/03/2014 à 13h 34

Ça va la version Word 1.0 dont le code source vient d’être ouvert n’est pas touchée <img data-src=" />

Le 26/03/2014 à 10h 07







charon.G a écrit :



Je parle bien sur des haters, désolé pour l’imprécision. Après ce n’est pas mon genre de critiquer gratuitement Linux, les gens qui me connaissent le savent très bien. Par contre quand je défend mon point de vue en soutenant Microsoft je me prends souvent une volée d’intégristes libristes intolérants. Je suis sur ce site depuis plus 9 ans j’en ai vu passer des trolls. Je me suis fait aussi aggresser un bon nombre de fois pour la simple raison que je défend Microsoft.



Sinon oui je fais qu’énoncer la vérité, si Midori devait sortir, beaucoup de libristes(en particulier haters) ne changeront pas d’avis sur Microsoft et ce serait pareil si windows devenait libre.

Il y a eu une news il y a quelque temps sur un autre sujet à propos de la gratuité ou prix très bas de Windows 9/wp8. Les commentaires n’ont pas changé.Quand on est buté c’est pour la vie.





Merci pour la précision <img data-src=" />



Je pense qu’il y a des Microsoft haters qui utilisent tous types de systèmes, que ce soit MacOS (qui n’est pas libre…), un UNIX quelconque (libre ou pas), Linux… Je suis sûr qu’il y a même des gens qui utilisent Windows et qui vont cracher sur Microsoft à la moindre occasion.



Du coup, c’est l’association «Microsoft hater = forcément libriste» qui me dérange.


Le 26/03/2014 à 09h 50







lossendae a écrit :



Midori… il y a des chances qu’MS propose bientot un truc vraiment sympa qui fera grincer des dents tous les libristes persuadés qu’MS est incapable de faire mieux…









charon.G a écrit :



Ouh la tu pêches à la dynamite tu vas les attirer <img data-src=" />

Sinon quand midori sortira ils resteront dans le deni,tu es un peu trop optimiste. Il y a plusieurs informations qui laisse entendre que Microsoft bosse une évolution de C#(M#) annoncé comme étant plus rapide que le C++. Quand ça sortira des benchmarks suivront et ils continueront à nier l’évidence…









charon.G a écrit :



Tu sais je pense que le cas est telllement désespéré, si Microsoft devait ouvrir le code source de Windows sur une licence libre, ils continueraient à basher Microsoft





Ça va vous vous faites plaisir à basher du libriste sur une news qui n’a rien à voir ? On vous laisse entre vous ? Vous dénoncez le bashing gratuit mais en faites vous-mêmes ? <img data-src=" />



Microsoft a déjà fait de l’Open Source. Microsoft a déjà contribué au noyau Linux. Microsoft a déjà ouvert certains de ses formats de fichiers (OOXML par exemple). Microsoft contribue déjà à l’élaboration de standards, sur le Web notamment (membre du W3C).



Je suis libriste mais je reconnais tout cela. Il ne faut pas confondre «libriste» et «Microsoft hater». Merci <img data-src=" />



D’un autre côté je reconnais que je critique Microsoft sur un certain nombre de points. Je ne pense pas être un «hater» pour autant. Votre OS est Windows, le mien est GNU/Linux, chacun peut respecter le choix de l’autre sans pour autant cracher dessus. <img data-src=" />


Le 26/03/2014 à 07h 35

Félicitations M. Lamport, de la part de quelqu’un qui fait du calcul intensif sur clusters tous les jours <img data-src=" />









DayWalker a écrit :



Oh, c’est aussi le papa de LaTeX <img data-src=" />





Pour ajouter en précision : TeX a été inventé et mis au point par Donald Knuth. LaTeX a été mis au point par Lamport pour faciliter l’usage de TeX. Combinés ils sont un format d’écriture de fichiers qui ne s’est pas démodé depuis les années 1970. Il est intéressant de noter qu’on peut prendre un document TeX des années 1970, le lire et le compiler aujourd’hui, c’est donc un format de fichiers très pérenne. On ne peut pas en dire autant des formats de fichiers «modernes»…


Le 25/03/2014 à 22h 43

Il lui est arrivé quoi à Wolverine, il s’est fait attaquer par Ken le survivant ? <img data-src=" />

Le 25/03/2014 à 13h 37







Mithrill a écrit :



La réponse est simple : Chrome OS.



(étonnant que personne ici n’en ai parlé d’ailleurs…)





Ce serait donc une tentative de limiter les ventes de Chrome OS, en proposant des machines où Windows est gratuit ?



Edit: du coup rien à voir avec la mise à la retraite de Windows XP…


Le 25/03/2014 à 10h 04







Kaamelott a écrit :



Bientôt Microsoft donnera de l’argent pour les gens qui n’ont pas encore fait évolué leur OS, et ces mêmes personnes continuront à raler…





Bientôt Microsoft donnera Windows gratuitement à tout le monde, et se rémunérera grâce à la publicité intégrée dans l’OS…



#Oh wait <img data-src=" />


Le 25/03/2014 à 09h 18



Or, les États-Unis ne sont pas le pays le plus concerné par le problème de la part de marché de Windows XP, où elle est d’environ 15 %, contre 30 % en moyenne pour l’ensemble de la planète, et plus de 50 % dans certains pays asiatiques.



Exactement. Si le but était vraiment d’inciter les gens à quitter Windows XP pour un système plus récent, l’offre serait étendue à toute la planète. Les États-Unis sont loin d’être le pays où Windows XP est le plus présent.



Notamment, en Chine la plupart des Windows XP sont piratés. S’il proposait une telle offre en Chine, Microsoft pourrait renverser la vapeur et faire passer les gens vers des licences légales de Windows 8.

Le 24/03/2014 à 10h 09

Et un site homologué par la Hadopi et qui fait du streaming, ça s’appelle un PUR player ?

Le 23/03/2014 à 18h 18

Rho David n’a pas regardé ce lien idiot du dimanche (qui est loin d’être idiot), sinon il saurait qu’on n’a pas voté «pour choisir le prochain maire» mais pour le prochain conseil municipal <img data-src=" />

Le 23/03/2014 à 14h 38







jmanici a écrit :



[quote:4964269:charon.G]faut pas exagérer non plus.

si opengl permettait d’atteindre les perfs de mantle ou dx12, alors pourquoi mantle aurait il été créé?



j’ai vu ton slide, et ça a pas grand chose a voir avec mantle et dx12.

c’est surtout des banalités du genre “regroupez les appels openGL plutôt que de faire des appels individuels moins efficaces.”



au final, je crois que le mythe du opengl plus rapide que directx vient de la présentation de la version openGL du moteur source par valve sous linux.

Ils ont comparé leur vieillissant moteur sous dx9 avec une version qu’ils ont réécrite 10ans plus tard sous une version récente d’openGL.

c’est comme comparer les perfs JS de IE6 et chrome 30 et en conclure que IE est un navigateur lent.



au passage, directx11 supportait déjà des APIs de bas niveau, mais certains drivers GPU n’étaient pas assez optimisé pour que ça se traduise par un gain de perf.

dx12 se base sur cet enseignement pour changer la donne.





Direct X a de très bonnes performances, c’est très bien, tant mieux pour lui.



Ce qui est dommage c’est qu’il n’est disponible que pour Windows.



Avec l’arrivée et l’expansion des autres plates-formes (Android, iOS, applis 3D sur le Web avec WebGL, SteamOS…) ça devient de plus en plus important d’avoir une API multi-plateformes.



Perso je joue sous GNU/Linux, et avec tout le respect, je m’en tamponne que Direct X soit plus rapide que OpenGL : Direct X n’est tout simplement pas disponible pour ma plate-forme.



Quand on sait que Microsoft fait partie des membres fondateurs du consortium OpenGL, avant de faire scission et développer Direct X dans son coin…


Le 22/03/2014 à 08h 56







Faith a écrit :



Sauf qu’OpenGL tourne sur Windows…Abandonner DirectX ne veut pas dire abandonner Windows ;)





Sauf qu’OpenGL ne tourne pas sur la XBOX… Abandonner Direct X signifie abandonner la XBOX. ;)



Il y avait déjà des jeux OpenGL sous Windows. Il y avait même des jeux qui pouvaient tourner aussi bien en Direct X qu’en Open GL sous Windows (par exemple, Left 4 Dead 2 était uniquement Direct X, Valve a travaillé sur une version OpenGL pour Windows).



Tout ce que je dis, c’est que Microsoft met tellement Direct X en avant, et Direct X est utilisé par tellement de développeurs, qu’il est illusoire de croire que tout le monde va abandonner Direct X au profit d’OpenGL. Mais cela n’empêche pas d’avoir, en plus, une version OpenGL qui tourne sur les autres plates-formes.



Perso je joue sous GNU/Linux, je me moque un peu qu’il y ait une version Direct X ou pas. Ce que je veux c’est une version OpenGL qui tourne sur ma plate-forme. ^^







zefling a écrit :



Sauf les dév qui font plus rien sur PC.





Oui mais ceux-là ne feront pas pencher la balance. Ils n’utilisaient pas Direct X avant, ils ne l’utiliseront pas à l’avenir.



Encore une fois ce que je veux dire c’est : avant, pas mal de jeux ne sortaient qu’en Direct X, donc uniquement sous Windows (et éventuellement XBOX). À l’avenir, de plus en plus de titres sortiront aussi en version Open GL (ou, pour certains titres, uniquement en OpenGL) pour d’autres plates-formes (MacOS X, GNU/Linux, Android, navigateurs/WebGL…).


Le 21/03/2014 à 21h 31

Abandonner Direct X, je pense qu’aucun développeur de jeu ne le fera de si tôt. Windows est quand même présent sur la quasi-totalité des PC, aucun éditeur de jeu ne se risquerait à se priver de cela.



En revanche, je suis persuadé que l’on verra de plus en plus de jeux qui seront développés aussi en OpenGL, en plus de Direct X, pour toutes les raisons évoquées ci-avant.

Le 21/03/2014 à 14h 05

Intéressant je m’en vais tester ça ce week-end !

Le 20/03/2014 à 17h 04







Fuinril a écrit :



“en creusant dans le compte email utilisé par le blogueur, un compte Hotmail”



<img data-src=" />





Effectivement pas très malin le blogueur <img data-src=" />


Le 20/03/2014 à 14h 46

Pfff toutes les mêmes <img data-src=" />



Par contre c’est vrai que les slides sont particulièrement laids. Quitte à collaborer avec Microsoft, Apple et Google, ils auraient pu prendre des formations Power Point et des leçons de design et de communication.

Le 19/03/2014 à 21h 53

Pour rajouter au sérieux du titre, il y a des fautes dans la bande-annonce <img data-src=" />



“Moving grass” (de l’herbe qui se déplace ?!?) au lieu de “Mowing grass” (tondre la pelouse)



“Precission driving” (precession ?) au lieu de “Precision driving”



Ça envoie du rêve <img data-src=" />

Le 19/03/2014 à 16h 05







WereWindle a écrit :



bah si tu rajoutes ces machines de la morts, faudra renommer l’émission en Moi, moche et mes champs





Ou “J’ai une copine et je laboure”



Amis de la poésie bonsoir <img data-src=" />


Le 19/03/2014 à 16h 31







bojack9512 a écrit :



Perso j’utilisais des abréviations en plus de mettre un mot sur 20^^.



Je comprendrais jamais comment les gens peuvent faire cette faute.





Moi je comprendrai jamais les gens qui confondent le conditionnel et le futur ^^



(PS: c’est pas méchant, je taquine <img data-src=" /> )


Le 19/03/2014 à 16h 29

Ça me fait penser que j’ai récemment maté la saison 1 de Game Of Thrones en DVD, et sur plusieurs épisodes les sous-titres français comportaient l’expression «avoir tord» (oui oui, avec un D).



Les ravages de l’orthographe…

Le 19/03/2014 à 16h 19







WereWindle a écrit :



+1



il existe : un E à l’envers

pour tout (quel que soit aussi dans mon cas) : un V avec une barre horizontale (ou un A à l’envers)

Idem pour appartient, ensemble, moyenne, somme etc.



Pour le coup, il fallait une pierre de Rosette à mes potes quand je leur passais mes notes de cours <img data-src=" />





Et ? des gens qui écrivent comme ça ∀ salons de discussion ? ^^



Edit: zut le code html passe pas… <img data-src=" />


Le 19/03/2014 à 16h 15







Grebz a écrit :



Moi ce qui me fait le plus peur dans les forums, ce n’est pas tant le langage SMS et les abréviations foireuses (même si ça me pique les yeux), mais plutôt le fait de tomber sur des phrases totalement incompréhensibles, sans ponctuation (ou mal utilisée) et grammaticalement bancales.

Je plains les profs de français qui doivent déchiffrer les copies de leurs élèves et essayer de comprendre où ils ont voulu en venir.

À ces niveaux-là, ce n’est plus seulement l’orthographe qui est en cause, c’est carrément la pensée qui est brouillonne.





Pourquoi tu ne plains que les profs de français ?



Même à l’Université on voit des copies avec des fautes, sans ponctuation, ou sans verbe… <img data-src=" />


Le 19/03/2014 à 15h 54







FunnyD a écrit :



surtout avec l’autocompletion qui lorsque tu fais une faute d’orthographe te corrige avec un autre mot qui n’a rien à voir





Je ne vois pas de quoi tu pattes, ça n’allure pas si souvent ce génisse de substitution.



Edit: zut grillé par le cochon français…


Le 19/03/2014 à 15h 38







Dr.Wily a écrit :



Hummmm





<img data-src=" />


Le 17/03/2014 à 14h 00







Citan666 a écrit :





  • le port VGA (oui, c’est vieux obsolète blabla toussa, n’empêche que 90% des projo en milieu professionnel sont encore limités à ça). À moins qu’un adaptateur (fiable) soit fourni, m’enfin j’ai du mal à voir comment passer d’un format full numérique en format analogique…





    +1 pour moi c’est un gros frein à l’achat d’un ultrabook…


Le 17/03/2014 à 13h 12

Et tous les navigateurs seront patchés et mieux sécurisés, et les utilisateurs seront les grands gagnants. Merci messieurs <img data-src=" />

Le 17/03/2014 à 12h 57







JR_Ewing a écrit :



Non mais ça c’est de l’idéalisme de dire qu’une fondation agit pour la beauté du geste et qu’elle ne se préocuppe pas des pdm! <img data-src=" /> Si c’était réellement le cas ils n’auraient pas arrêté le développement de Firefox Modern UI.



Les pdm c’est le nerf de la guerre, ça a beau être une fondation, elle a des frais à couvrir et donc pour cela ses produits doivent avoir des pdm un minimum sufffisantes pour attirer les investisseurs. Le concret et la réalité c’est ça, tout le reste c’est des belles paroles de libristes naïfs.



Mozilla s’est trop reposée sur Google pour son financement, et s’est endormie sur ses lauriers. Résultat: Google lui a mis une bonne grosse pastille avec son Chrome et a tout fait pour que Chrome soit adopté aux dépends de Firefox. Si Mozilla avait été moins con elle aurait crée des partenariats avec les constructeurs pour faire installer Firefox sur leurs PC. Bien sûr le but n’est pas d’atteindre les 7080% de pdm, mais de faire connaitre Firefox et donner la possibilité de l’éssayer et éventuellement de l’adopter.





Je suis d’accord que c’est le nerf de la guerre, ça ne peut être que bénéfique pour Firefox d’avoir une part de marché importante.



Mais leur gueuler dessus parce qu’ils abandonnent la version ModernUI… Encore une fois, si c’était une appli pour laquelle tu avais payé, je comprendrais que tu gueules. Là je trouve juste ça déplacé. Comme tu l’as dit, le nombre d’utilisateurs c’est le nerf de la guerre : si Mozilla considère qu’il y a trop peu d’utilisateurs, ils arrêtent les frais.


Le 17/03/2014 à 10h 34







JR_Ewing a écrit :



Ce qui m’énerve le +, c’est que j’attendais Firefox sur WP et sous modern UI comme alternative à IE! <img data-src=" />



Mozilla fait n’importe quoi, et dans quelques années ils viendront chialer que Google leur a pris des pdm et viendront faire l’aumône car ils auront perdu tellement de pdm que leurs finances seront à plat. Voilà ce qui leur pend au nez!





En même temps, gagner des parts de marché ne fait pas partie des objectifs de Mozilla <img data-src=" />



Gagner des parts de marché c’est l’objectif d’entreprises à but lucratif (Microsoft, Google, Apple…), mais pas d’une fondation à but non lucratif. Quand les utilisateurs payent pour avoir un logiciel, ils peuvent avoir des exigences face à l’éditeur. Quand c’est un logiciel libre et que tu ne payes rien, c’est plus difficile de forcer quiconque à développer des choses pour toi…









JR_Ewing a écrit :



Oui, et je ne l’ai jamais caché! <img data-src=" /> Si j’avais voulu me refaire une virginité sur ce site j’aurais recréé un nouveau compte, et j’aurais pas demandé un changement de pseudo en gardant le même compte.





Noté <img data-src=" />


Le 17/03/2014 à 09h 49







JR_Ewing a écrit :



C’est vraiment des abrutis chez Mozilla! Franchement ils méritent de crever, surtout quand on voit qu’ils sont trop c… pour comprendre que les applis modern UI c’est l’avenir de MS,et que si ils prennent pas ce marché c’est d’autres comme Google qui le feront et qui prendront des pdm que Mozilla ne pourra plus reprendre. Mozilla est trop passif et ça va lui jouer des tours, ils vont continuer à perdre des pdm de marché à force et ils l’auront bien cherché!





Tiens maxouille_la_fripouille a changé de nom ? <img data-src=" />


Le 13/03/2014 à 16h 56

Qu’ils viennent la proposer chez moi je signe tout de suite…

Le 13/03/2014 à 14h 28







jmanici a écrit :



figure toi que la “rapidité” de correction des failles chez les concurrents de MS est un mythe.



jète un coup d’oeil aux bulletins de sécurité Mozilla et Google, tu verras qu’à chaque bulletin des failles sont corrigées alors que les détails du bug sous jacent avaient été signalés 3mois, 6mois ou des fois plus d’un an avant à Google ou Mozilla.



chez Apple c’est même pire (ex: ios7.1 qui corrige une faille webkit vieille de presque 2ans)



MS est pas plus lent que ses concurrents.



quand une faille 0day est découverte, MS publie un patch fixit dans les 3 jours.





Ce n’est pas ce que dit l’article cité plus haut : les «Minimum windows of active attack» vont de 8 à 74 jours.



Pour reprendre un vieil article (2009) de Tristan Nitot :

«Sur l’année 2006, Internet Explorer était vulnérable pendant 284 jours sur 365. Que les choses soient claires : Firefox aussi a eu des failles en 2006. Mais les utilisateurs n’ont été exposés que 9 jours.»



Dans son Rapport 2008 (page 12), Secunia indique que le temps de vulnérabilité d’IE est bien plus élevé (78 à 294 jours) que celui de Firefox (15 à 86 jours).



Bon j’admets que ce n’est pas de toute fraîcheur tout ça, si tu as des sources plus récentes ça m’intéresse.









jmanici a écrit :



c’est donc assez injuste de dire que IE est vulnérable parce que les anciennes versions sont prises pour cible.



Google supporte t-il toujours chrome 1.0? (sorti en même temps que IE8)

Mozilla supporte t-il encore Firefox 3.6?





Les nouvelles versions de Firefox ou Chrome peuvent être installées sur tous les systèmes (il existe aussi des versions «portables», sans installation).



Internet Explorer ne peut pas être mis à jour sur toutes les machines. Selon la version de Windows, la version maximale d’Internet Explorer supportée est :





  • Windows XP : IE 8

  • Windows Vista : IE 9

  • Windows 7 : IE 10

  • Windows 8 : IE 11

    Source : Microsoft



    Du coup oui, les anciennes versions de IE sont prises pour cible parce que certains utilisateurs ne peuvent pas le mettre à jour. Ces vieilles versions de IE sont donc à inclure dans l’évaluation de la sécurité.



    Au contraire on ne parle pas de Firefox 3.6 ni de Chrome 1.0, parce que sur toutes les machines où ils sont installés les utilisateurs peuvent utiliser une version plus récente de ces navigateurs.









    jmanici a écrit :



    le fait que les hackers décident d’exploiter une faille dans IE plutôt que dans un autre browser ne veut pas dire que IE est moins secure.



    ça decoule simplement du fait que les cibles les plus importantes utilisent IE (la majorité des entreprises).





    Justement. Essayer d’évaluer la «sécurité théorique» d’un navigateur, sans prendre en compte le nombre d’attaques, ne veut rien dire. S’il y a 1 faille exploitée depuis 3 mois dans IE, et 3 failles non exploitées dans Firefox, c’est plus dangereux d’utiliser IE que Firefox.



    Le fait que les hackers décident d’exploiter les failles de IE est tout à fait pertinent, et doit être pris en compte.


Le 13/03/2014 à 13h 21







jmanici a écrit :



tous les OS et applicatifs ont des bugs et des failles, et les produits MS se situent en dessous de la concurrence en terme de failles découvertes (ex moins de failles dans IE que dans Firefox et chrome ces dernières années, bien que beaucoup de monde ait l’impression inverse).





Ceci est vrai si on ne regarde que le nombre de nouvelles failles découvertes : voir par exemple les chiffres de Symantec.



Cependant quand on parle de sécurité, ce n’est pas le seul critère à regarder. Il faut aussi prendre en compte :





  • le temps de correction : pendant combien de temps une faille n’est pas corrigée ?



  • le temps d’exploitation : pendant combien de temps un malware exploite-t-il la faille non corrigée ?



  • la criticalité de la faille : l’exploitation permet-elle d’avoir tous les droits sur la machine, ou bien a-t-elle des conséquences mineures ?



    Il se trouve que, en moyenne, les failles sont corrigées plus vite dans Firefox et Chrome que dans Internet Explorer. De plus, pas mal de failles ont été exploitées dans Internet Explorer (rendant les utilisateurs vraiment vulnérables), alors que les failles exploitées avant leur correction dans Firefox ou Chrome sont très rares (donc, malgré la présence de failles, les utilisateurs sont vite protégés).



    In a zero-day world, it’s active attacks that matter

    «As Ferguson mentioned, all browser makers had examples over the past 19 months of working or proof-of-concept exploit code available for unpatched flaws in their products. However, both my own investigation and the public record show that of the three browsers, Internet Explorer was the only one that had critical, unpatched vulnerabilities that were demonstrably exploited by attackers before patches were made available. According to Microsoft’s own account, there were at least six zero-days actively exploited in the past 18 months in IE.»

    Source


Le 12/03/2014 à 22h 04







jmanici a écrit :



oui c’est fréquent, mais ce n’est pas la faute de Windows si l’appli en surcouche a planté, ou si le matos commence à montrer des signes fatigue (RAM, gpu défaillant,…).

(…)

je sais pas si tu touches souvent à du linux, mais moi à plusieurs reprise j’ai eu des soucis de compatibilité avec Debian et Ubuntu, soit parce que le matos était trop récent, soit parce qu’il était trop ancien.





Effectivement, ce n’est pas la faute de Windows si le matériel est défaillant.



De la même façon, ce n’est pas la faute de Linux s’il n’y a pas de pilote pour un matériel donné.







jmanici a écrit :



me souviens qu’il y a quelques années les serveur de canonical s’étaient fait hacker car ils tournaient sur une ancienne version d’ubuntu sans maj de securité, la dernière version ne fonctionnant pas sur leur hardware!





C’est la base de données du forum qui avait été hackée. Suite à cela les utilisateurs ont tout de suite été invités à changer leurs mots de passe.

En revanche rien d’autre n’a été hacké… Dire «les serveurs de Canonical» ça donne l’impression qu’ils avaient tout perdu…









jmanici a écrit :



à ce train là Windows CE ferait aussi bien l’affaire (jamais entendu parler de failles kernel sur WinCE)



et pourtant il est très peu utilisé sur les ATM.





+1, au moins Windows CE est précisément fait pour l’embarqué, et serait beaucoup plus adapté que Windows XP sur les ATM.


Le 12/03/2014 à 21h 05







jmanici a écrit :



inversement, pourquoi mettraient ils du linux?



un ATM doit couter dans les 30 000$. La license Windows représente moins d’1% du prix total.



avec du Windows ils ont du support Microsoft pendant une très longue durée (xp embedded aura eu presque 18ans de support), et ils ont la certitude que l’OS tournera sur n’importe quel hardware : si le pc dans l’ATM tombe en panne, ils peuvent mettre du hardware plus récent pour moins cher que s’ils devaient remettre le même (va chercher un pentium III neuf en 2014!)



avec linux c’est plus compliqué, si une société gérant des ATM a misé sur une distrib linux il y a 5ans, il y a peu de chance que du hardware récent puisse booter dessus, et ça l’obligerait à mettre a jour la distri linux et à faire revalider l’environnement par les clients.





Le marché de l’embarqué, c’est quand même très spécifique. Le constructeur de l’ATM pourrait très bien, s’il le désirait, utiliser un système minimal basé sur Linux. Comme c’est Open Source, il pourrait aussi très bien utiliser une nouvelle version du noyau, ou bien juste une nouvelle version des pilotes pour leur matériel, bref il ne faut pas croire que tout remplacement ou support serait impossible.



C’est quelque chose que font très bien les constructeurs de voitures avec les systèmes embarqués Linux, les constructeurs de GPS, ou les constructeurs de «smart TV». Il existe déjà des systèmes Linux embarqués, il est aussi possible pour un constructeur de développer le sien s’il en a les moyens. Donc ça serait tout à fait possible pour les ATM.







jmanici a écrit :



au passage, voici ce qui se produit quand on met du linux sans réfléchir au support:



pic.twitter.com TwitterComme je le disais, l’embarqué c’est très spécifique. Mettre de l’Ubuntu sur ce type d’appareil, c’est aussi mal adapté que de mettre du Windows XP (au restau universitaire où je vais, il y a des messages d’erreur Windows 7 sur les terminaux tous les midis).



L’embarqué ça nécessite un OS adapté. Si tu dis que «ça ne serait pas mieux avec Ubuntu», je suis 100% d’accord, mais ça ne veut pas dire qu’aucun système basé sur Linux ne conviendrait. Il n’y a pas qu’Ubuntu dans la vie…


Le 12/03/2014 à 18h 47







charon.G a écrit :



For a bit of extra fun on a test machine, go to device manager and disable your display adapter (unload the graphics driver). You’d never run your machine this way but this does give you an even closer approximation of the memory use of Windows itself. With a disabled graphics driver, the machine above gets under 200MB after idling for a while.



Windows 8 utilise bien dans les 200 mo





Oui, en désactivant toute la couche graphique… Sinovsky le dit lui-même : «vous n’utiliseriez pas un ordinateur dans ces conditions».



Bref c’est aussi utile que de dire «Linux utilise 8 Mo de RAM». Ça ne dit rien sur les ressources utilisées par le système en utilisation réelle.









charon.G a écrit :



Pour les commit on l’explique depuis vista, l’os réserve de la mémoire à l’avance mais ça ne veut pas dire qu’il va effectivement l’utiliser.

Je t’invite à lancer une VM sur 8 ou 8.1 et de brider la ram tu verras que ca swappe pas. Moi je l’ai fait.





J’ai déjà testé ça sous Windows 7, en limitant la RAM à 512 Mo. Au démarrage le Task Manager affiche 420 Mo de RAM utilisées (donc proche de ce qu’annonce Sinovsky dans son article), et… ça swappe à mort.



J’avoue ne pas avoir testé avec Windows 8 (faute de licence à disposition).


Le 13/03/2014 à 09h 42







ar7awn a écrit :



Debian est basé sur un noyeau linux qui utilise des modules non libre





Faux.



Le contrat social Debian

«1. Debian demeurera totalement libre.»



Ce qu’en dit la FSF

«Le contrat social de Debian affirme que son but est de rendre Debian entièrement libre, et elle met consciencieusement les logiciels non libres en dehors du système officiel Debian. Cependant, Debian propose aussi un dépôt de logiciels non libres. Selon le projet, ces logiciels ne « font pas partie du système Debian », mais ce dépôt est hébergé sur beaucoup des serveurs principaux du projet, et l’on peut facilement prendre connaissance de ces paquets non libres en explorant la base de données en ligne des paquets Debian.



Il y a aussi un dépôt contrib ; ses paquets sont libres, mais quelques-uns sont destinés à charger des programmes privateurs1 distribués séparément. Lui non plus n’est pas complètement séparé de la distribution principale Debian (main).



Les versions précédentes de Debian incluaient des blobs non libres avec le noyau Linux. Avec la version Debian 6.0 (Squeeze) en février 2011, ces blobs ont été retirés de la distribution main, empaquetés séparément et placés dans le dépôt non libre. Néanmoins, le problème n’est pas entièrement résolu : dans certains cas, l’installateur recommande ces micrologiciels non libres pour les périphériques de la machine.»



Les dépôts non-free et contrib ne sont pas activés par défaut à l’installation de Debian. C’est l’utilisateur qui décide de les ajouter, ou pas. Idem pour les «blobs binaires» du noyau : il est possible de les installer, mais pas obligatoire. Une Debian sans rien de propriétaire tournera très bien.



Se baser là-dessus pour dire que Debian n’est pas libre, ça relève de la drosophilie. J’insiste : une Debian de base est 100% libre, c’est l’utilisateur qui choisit d’ajouter du propriétaire par-dessus. Les dépôts non-libres ne sont qu’optionnels. Quoi que tu en dises, et quoi qu’en dise la FSF.


Le 12/03/2014 à 23h 07







ar7awn a écrit :



1)argument bidon; quand l’utilisateur tient a jours son pc et ne télécharge pas n’importe quoi il n’a aucun problème quelque soit le système.





Justement si on parle d’utilisateur lambda, il n’installe que les mises à jour que le système lui propose et il installe n’importe quoi.

Sous Windows le système ne propose des màj que pour Windows et ses composants (Internet Explorer etc.).

Sous n’importe quelle distrib Linux le système propose des mises à jour pour l’ensemble des logiciels installés, c’est l’avantage du gestionnaire de paquets.







ar7awn a écrit :



2)joli appel a la peur, mais si un développeur met en jeux sa réputation quand il propose un code, MS met en jeu la sienne quand il propose windows. Pour l’utilisateur les chances d’être victime d’un code malveillant ne sont pas supérieure sous windows que sous linux. Surtout que l’argument de la NSA ne tient pas puisque les distributions les plus utilisé (ubuntu, mint, debian et dérivé…) ne sont pas 100% libre et que l’utilisateur rajoute lui même une bonne flopée de logiciel et pilotes propriétaires.





Microsoft est soumis aux lois américaines, y compris le Patriot Act et tout ce que le gouvernement américain décide. Donc, si Microsoft met sa réputation en jeu quant au code qu’elle distribue, elle n’a peut-être pas le choix que d’ajouter du code pour satisfaire la loi (comprendre, satisfaire les exigences des agances américaines…). Cette considération ne s’applique pas aux distributions Linux, qui sont développées dans différents pays, par différents individus et différentes entreprises à travers le monde.



De plus Debian est bien 100% libre, à la base. Et il y a une différence entre installer des pilotes propriétaires (surtout des pilotes qui ne communiqueront rien au réseau…) et du code implanté dans l’OS en lui-même.







ar7awn a écrit :





  1. on parle d’utilisateur lamba.





    Non, à la base on parlait juste d’utilisateurs qui ne lisent pas de code source. Je voulais juste dire qu’il n’y a pas besoin de savoir lire un code source pour profiter des avantages d’un logiciel libre / Open Source.


Le 12/03/2014 à 21h 36







ar7awn a écrit :



La conclusion de mon argumentaire c’est qu’il faut arrêter d’utiliser l’argument massue du code source libre pour soutenir l’adoption de Linux au grand publique.



Comme là expliqué très justement lateo dans sa réponse; le libre pour le libre n’apporte absolument rien a l’utilisateur lambda.

Trop de défenseurs inconditionnelles d’Android par exemple défendent l’adoption de ce système pour la simple raison de son code source en partie libre et ce sans jamais avoir lu une ligne de code de leur vie, personnellement je ne vois pas l’intérêt.

Android a surement plein d’argument pour charmer pour le grand publique mais la licence du code source n’en fait pas partie.



Pour linux c’est pareille, il a pleins d’arguments a faire valoir auprès du grand publique (un des plus important est celui de sa gratuités, ne soyons pas naïf). Mais défendre bêtement et a tout pris sa popularisation sous la seul réflexion binaire “c’est libre, donc c’est le bien” juste non





Oui c’est un argument qu’on lit souvent : «qu’est-ce que ça change que ça soit Open Source puisque l’utilisateur lambda ne va pas lire le code source».



Au contraire, ça change pas mal de choses qu’un logiciel soit Open Source, même pour le simple utilisateur qui ne regardera jamais le code source par lui-même.





  1. des mises à jour plus fréquentes, une grande réactivité en cas de découverte de bugs ou de failles. Alors oui, il sera toujours possible de citer une faille qui date de Mathusalem, mais dans l’ensemble, en moyenne, les failles sont corrigées en quelques jours et propagées dans toutes les distribs.



  2. l’assurance qu’un développeur isolé ne va pas introduire de code malicieux, parce que son code est exposé à la vue de tous et relu par d’autres développeurs avant d’être accepté. Quand il propose un commit, un développeur ne peut rien cacher, il joue sa réputation ; s’il s’avère qu’il a introduit un code malveillant, sa carrière de développeur est finie. Au contraire personne n’a de droit de regard sur ce que fait une entreprise sur son code propriétaire. On peut notamment avoir en tête les révélations sur la NSA : les agences gouvernementales peuvent faire pression sur des entreprises sans que le public n’en sache rien (sauf en cas de fuite comme avec Snowden), mais comment pourraient-elles faire pression sur une communauté internationale, sur un logiciel qui n’appartient à personne, qui a plusieurs forks et dont les commits sont vérifiés par des tas de gens différents ?



  3. un aspect de la «liberté» est le fait de pouvoir changer de distribution GNU/Linux comme de chemise. Je n’aime plus Ubuntu à cause de Unity ou de l’intégration des services Amazon ? Je passe sur une autre distrib, et je retrouve tous les logiciels qui me plaisent mais sans les contraintes imposées par Ubuntu. Au contraire, les logiciels Closed Source ne sont packagés que par un seul éditeur, sous une seule forme.



  4. Allez, pour finir je me risque à une analogie automobile : «ça change quoi que je puisse soulever le capot de ma voiture, je n’y connais rien en mécanique ce n’est pas moi qui irai changer ou réparer des trucs !». Ça change qu’il est possible d’aller chez le garagiste pour faire ces réparations ou faire une vidange. Si le capot était scellé, il faudrait retourner à chaque fois à la concession pour le moindre truc.

    Dans le même genre, «ça change quoi que la recette du gâteau au chocolat soit disponible, la plupart des gens achètent leur gâteau tout fait, ils ne regardent pas la recette». Oui mais au moins on peut acheter des gâteaux dans n’importe quelle boulangerie, et pas seulement chez l’entreprise ChocolateCake. Celui qui sait cuisiner peut même faire un gâteau chez lui, changer la recette, ajouter de l’orange ou de la menthe selon ses goûts…

    (vous avez tout à fait le droit de dire que ces analogies sont foireuses : ce ne sont que des analogies, ça vaut ce que ça vaut, je ne base pas mon argumentaire là-dessus).





    Donc je trouve au contraire que le fait qu’un logiciel soit Open Source change pas mal de choses, même pour l’utilisateur lambda qui ne va pas regarder le code. Closed ou Open Source, le code est fourni sans garantie, toute la question est donc : où l’utilisateur choisit-il de placer sa confiance ? Mon argument est qu’il est plus justifié d’avoir confiance dans un logiciel Open Source que dans un logiciel propriétaire.



    Tu parles d’Android, il se trouve que je l’utilise et que j’en suis très content, c’est un très bon système et il est Open Source. En revanche, les applications Google qui sont fournies avec sont propriétaires, et je ne les utilise pas. Bref là il ne faut pas faire d’amalgame : ce n’est pas le système en lui-même qui peut exposer l’utilisateur à des risques, c’est ce que l’utilisateur fait de ses données (s’il les stocke et les synchronise chez Google).