votre avatar

Konrad

est avec nous depuis le 3 août 2010 ❤️

4337 commentaires

Le 30/01/2015 à 17h 38







linconnu a écrit :



La nouvelle interface est aussi démodée que l’ancienne. C’est bien les gens du libre ça, s’ils pouvaient faire une suite bureautique en ligne de commandes ils le feraient. Il y a longtemps qu’Office a rajouté des onglets dans les barres d’outils, ils n’y sont toujours pas dans LibreOffice !







Haha, c’est bien les utilisateurs de logiciels propriétaires ça : toujours à cracher sur les logiciels gratuits, à dire que c’est nul et que les libristes ne pensent pas à leurs petits besoins ou goûts personnels à eux. Il faut bien que vous justifiiez le prix que vous mettez dans des licences hein !! <img data-src=" />

(oui on est vendredi j’ai le droit)









ar7awn a écrit :



moui enfin LaTeX c’est sept utilisateurs régulier en france et généralement ça fait chier tout le monde de devoirs en faire.







Je dois faire partie des «sept utilisateurs» alors, et bien loin de me faire chier, pour des documents complexes je préfère largement utiliser LaTeX qu’une suite bureautique (que ce soit MS-Office ou LibreOffice). La productivité n’est pas du tout la même.


Le 29/01/2015 à 09h 22







moi1000 a écrit :



C’est pas pour faire mon troll, mais une faille de 2000, découverte en 2013 (!!!) et toujours pas corrigée chez certains en 2015 (!!!!!!), c’est ça le Libre qui est soit disant mieux que le propriétaire parce que les failles peuvent être découvertes et comblées plus vite ?

C’est bien la preuve qu’il y a un problème : 13 ans pour découvrir la faille alors que le code est ouvert à tout le monde, j’aurais presque envie de dire “mais c’est qui ces branques ?”. Et ne pas corriger une faille après 2 ans, c’est digne de Microsoft <img data-src=" />







Bravo ! Tu n’as pas lu l’article, tu n’as pas compris l’histoire, tu n’as pas lu les commentaires, tu n’y connais rien en sécurité, mais tu te permets quand même de l’ouvrir et de faire des comparaisons foireuses ! Mais à part ça tu ne trolles pas bien sûr <img data-src=" />


Le 28/01/2015 à 20h 03







sr17 a écrit :



Et en matière de parts de marché grand public…



http://www.zdnet.fr/actualites/chiffres-cles-le-marche-des-tablettes-par-os-3979…







Est-ce que 2015 sera l’année de Windows ? <img data-src=" />


Le 28/01/2015 à 14h 09







Jed08 a écrit :



Pour moi ton raisonnement est mauvais.

Premièrement, ça a toujours été une faille de sécurité. Que personne ne l’ait publiquement publié comme une faille jusqu’à hier, n’enlève rien au fait qu’elle existait.







Oui, la faille existait, c’est vrai. C’est juste qu’elle n’était pas connue des développeurs de glibc, ni rendue publique.



Pour autant c’est un raccourci futile de prétendre qu’elle a été exploitée par de sombres hackers : rien ne le montre.









Jed08 a écrit :



Ensuite, la sécurité par l’obscurité c’est : on cache le code, comme ça ils pourront pas trouver de failles.







Que le code soit caché (Closed Source) n’a jamais empêché de trouver des failles, ni de les exploiter. La plupart des failles sont trouvées depuis des binaires de toute façon, en analysant ce qui rentre et sort par le réseau par exemple.



Du coup, que le code soit Open Source ne veut pas dire que les failles seront toutes trouvées facilement, hein.









Jed08 a écrit :



Les travers que tu cites existent, sont problématique, mais ce n’est pas de la sécurité par l’obscurité. Or dans ton raisonnement, c’est ce que tu utilises : la faille n’a pas été publiée, donc personne ne peut la trouver ni l’utiliser. En sécurité, parier sur le fait qu’une faille peut ne pas être exploitée pour se rassurer c’est pas le bon moyen.



Après, la faute n’en revient pas aux éditeurs des distributions Linux. Les fautifs sont ceux en charge du support de glibc, et les geeks qui essayent de minimiser la situation en essayant de trouver des excuses.







Aux développeurs de glibc, on peut reprocher de ne pas avoir bien mesuré la portée de ce bug quand ils l’ont découvert en 2013. Pour autant, ils ont patché leur code rapidement, difficile de leur imputer la faute.



Quant aux distributions, de leur point de vue ce n’était pas un bug critique, donc rien d’urgent à patcher. Pour autant, elles auraient dû patcher, ne serait-ce que pour corriger le bug -en faisant cela, sans le savoir elles auraient bouché une faille.









Jed08 a écrit :



Oui la faille a été corrigé assez vite après être publiée en tant que telle.







Non, le bug a été corrigé rapidement en 2013, après avoir été identifié en tant que bug.

Ce n’est que depuis hier que l’on sait que c’est une faille.









Jed08 a écrit :



Non ce n’est pas normal que la faille soit restée non détectée pendant aussi longtemps.







Ce n’est pas la première faille que l’on découvre, qui date de 10 ans ou plus. C’était le cas de Heartbleed, de la faille bash, et de pas mal de failles dans Windows aussi. Nul code n’est infaillible, Closed ou Open Source. Donc je ne sais pas ce que tu entends par «ce n’est pas normal», mais en tout cas ce n’est pas un cas isolé, et on peut parier sur le fait qu’il y en aura d’autres -sous Linux, Windows, Mac OS, Android, ou autre…


Le 28/01/2015 à 13h 57







sepas a écrit :



Pour l’histoire le patch tuesday est une demande des entreprises pour pouvoir planifier l’installation des patchs.







Du coup tous les particuliers sont obligés de suivre ce calendrier, on appréciera la logique de la chose <img data-src=" />


Le 28/01/2015 à 13h 35







Jed08 a écrit :



Euuu, non !

Dire que jusqu’à preuve du contraire personne n’était au courant de cette faille et ne l’a exploité, c’est stupide. Ça reviendrait à dire que les logiciels close source ne devrait patcher les failles que lorsqu’elles ont été exploitées.







Tu as mal compris ce que j’ai voulu dire.



La faille n’a été détectée qu’en 2013. Elle existait dans le code depuis 2000, mais jusqu’ici personne ne l’avait détectée.



Alors oui, peut-être que des hackers l’avaient détectée et exploitée depuis tout ce temps… Mais avec des «peut-être» on ne démontre rien, ce n’est que du FUD. À ce train là je pourrais aussi dire : «peut-être qu’il existe des failles exploitées par des hackers dans tous les OS, WE ARE DOOOOOMED». Ça brasse du vent, ça fait peur, mais ça n’est pas un argument, ça ne démontre rien, ça n’est basé sur rien de concret.



D’où : jusqu’à preuve du contraire, cette faille n’a pas été exploitée, c’est tout ce que j’ai voulu dire. À moins que tu aies des preuves qu’elle ait vraiment été exploitée, dans ce cas on t’écoute…



Et la comparaison que tu fais est fausse. Ce qui est parfois reproché à certains éditeurs de solutions propriétaires, c’est de faire de la sécurité par obscurité : quand ils savent qu’il y a une faille, mais qu’ils espèrent très fort que personne ne la verra, et qu’ils ne patchent pas… Jusqu’au jour où la faille est exploitée.



Ou, comme on l’a vu récemment, un éditeur qui est explicitement prévenu d’une faille, et qui prend plus de 3 mois pour patcher.



Ici ce n’est clairement pas ce qui est arrivé. Si des développeurs s’étaient rendu compte de cette faille avant 2013, ils l’auraient patchée, ils n’auraient pas attendu qu’elle soit exploitée.



Faut-il le répéter : avant hier, ce n’était pas une faille critique…


Le 28/01/2015 à 12h 53







after_burner a écrit :



Moi ça me semble pas spécialement meilleur, la correction du bug protège de cette faille, il ne s’agit même pas de corriger mais d’appliquer la correction, déjà faite et connue.



Soit y a un truc qui m’échappe dans l’article, soit on peut dire que c’est pas franchement une meilleure attitude…







1- Ce truc a été reconnu comme un «bug» peu important à l’époque. Les vieilles distributions comme Ubuntu 12.04 ne reçoivent plus que des mises à jour de sécurité. Jusqu’à hier, ceci n’en était pas une. Aujourd’hui c’en est une : Ubuntu 12.04 sera patché, de même que les autres distribs vulnérables.



2- Contrairement à un OS propriétaire où tu ne peux rien faire tant que l’éditeur n’a pas mis le patch à disposition, ici le patch était disponible. Les admin système, ou les particuliers chez eux, pouvaient patcher depuis 2013.



3- Quand le bug a été reconnu en 2013, il a été corrigé en très peu de temps. Donc je réitère : dire qu’il a fallu 2 ans pour patcher, c’est mensonger.



Encore une fois, jusqu’à hier personne ne savait que c’était une faille critique, il n’y avait donc pas de raison de s’alarmer ni de forcer la mise à jour sur tous les systèmes.



Comparer ça avec Microsoft qui est prévenu d’une faille critique, et met plus de 3 mois à patcher, c’est complètement à côté de la plaque.


Le 28/01/2015 à 12h 44







sepas a écrit :



Oui j’ai bien compris. Sauf qu’on parle d’un bug qui a été décrit. C’est du code libre, comment Est-ce possible avec les millions de personnes qui lisent ce code que personne n’ait vu qu’il y avait un problème de sécu?







Peut-être parce que la détection de failles n’a rien à voir avec la lecture du code source ??? <img data-src=" />


Le 28/01/2015 à 12h 38







sepas a écrit :



J’ai lu l’article mais comme d’hab, tu vas m’expliquer que c’est différent blablablabla

On voit juste qu’ils le savent depuis 2 ans et qu’ils n’ont rien fait nada







La faille date de 2000, mais jusqu’à preuve du contraire, personne ne l’avait vue ni n’était au courant.



En 2013 ça a été considéré comme un «bug», ça a été corrigé. Ça n’était pas considéré comme une faille, c’est pour cela que certaines distributions ne se sont pas particulièrement alarmé, et ont fait traîner la mise à jour.



C’est seulement hier (27 janvier) que l’exploit a été révélé, et qu’il est avéré que c’est bien une faille critique. Du coup maintenant toutes les distributions vont se magner de mettre à jour.







We identified a number of factors that mitigate the impact of this bug. In particular, we discovered that it was fixed on May 21, 2013 (between the releases of glibc-2.17 and glibc-2.18). Unfortunately, it was not recognized as a security threat; as a result, most stable and long-term-support distributions were left exposed (and still are): Debian 7 (wheezy), Red Hat Enterprise Linux 6 & 7, CentOS 6 & 7, Ubuntu 12.04, for example.





Donc oui, c’est complètement différent d’un éditeur qui a été prévenu explicitement d’une faille critique, et qui n’a toujours rien fait 3 mois après. Dire qu’il a fallu 2 ans pour corriger la faille, c’est complètement mensonger.


Le 28/01/2015 à 11h 26







Patch a écrit :



en quoi elle n’est pas stable? c’est une nightly, une testing?







On l’appellerait «Old Stable», c’est une ancienne version stable, autrement dit elle est obsolète quoi…



Dans 10 ans quand elle n’aura plus aucune mise à jour ni rien, on devra toujours l’appeler «stable» ?… <img data-src=" />


Le 28/01/2015 à 09h 20

Pour ma part, à la maison :

PC de bureau sous Debian Testing, glic 2.19 donc non vulnérable.

PC portable sous Linux Mint 17, glibc 2.19 donc non vulnérable.

Serveur sous Debian 7 Stable, mise à jour dispo ce matin.



Au boulot :

PC sous Ubuntu 14.04, glibc 2.19 donc non vulnérable.







la plupart des distributions stables avec un support long terme ont été laissés exposées, y compris Debian 7 (Wheezy ) , Red Hat Enterprise Linux 6 & 7 , CentOS 6 & 7 , Ubuntu 12.04 , par exemple.





La version stable d’Ubuntu est actuellement la 14.04, et non la 12.04.

Certes la 12.04 est toujours supportée, mais la présenter comme «distribution stable» est faux.











obibann a écrit :



Le problème ce n’est pas la faille, c’est que ça fait 2 ans qu’elle est corrigée et que les correctifs ne sont pas disponibles sur tous les OS, notamment les OS pro comme Red Hat.







+1 <img data-src=" />


Le 27/01/2015 à 15h 48







philanthropos a écrit :



C’est le chiffre que j’avais grosso modo en tête vui.

Après c’est loin d’être le pire dans le secteur, ça reste une pratique commerciale classique pour des grosses boites, surtout envers des concurrents potentiels, et de toute façon Google & consort ont accepté.

A partir de là, difficile d’avoir quelque chose à y redire ^^







Non Google n’a jamais reversé de royalties et n’a jamais rien accepté.

Ce sont les constructeurs (Samsung, Sony, HTC…) qui payent des royalties à Microsoft.


Le 27/01/2015 à 15h 19







philanthropos a écrit :



Marrant comme des gens se découvrent une vie d’Expert Comptable en 2 lignes par ici. Affligeant.



J’ai rien contre toi, mais balancer des com’ à la volée sans réfléchir … Sors les mains de tes poches, chope leur bilan financier et regarde par toi-même qu’est-ce qui rapporte quoi à MS, ensuite tu pourra venir troller en ayant réfléchit un peu.

Sans compter que ta “persuasion” personnelle n’entre pas en ligne de compte, seuls les chiffres parlent <img data-src=" />



Enfin bon quoi les gars … si vous balancez des trolls qui sentent mauvais à 10 km à la ronde, autant le faire bien non ?







Apparemment, Microsoft a empoché 1 milliard de Dollars de royalties Android en 2014, rien que sur les appareils Samsung (j’imagine que les autres constructeurs élèvent ce chiffre de quelques centaines de millions).


Le 27/01/2015 à 13h 23







DDReaper a écrit :



Sauf que non, les applications sont capable de tourner sur un cpu ARM et x86 depuis windows 8.0, avant même les apps universel.







Haaaa… Donc Photoshop, les jeux, tous ces logiciels x86, ils tournent aussi sur les tablettes ARM ? Tu peux copier-coller un .exe et ça marchera ?…



Non, c’est bien ce que je pensais. Seule une poignée d’applications, qui ont été re-codées pour l’occasion (Internet Explorer, MS-Office…), fonctionnent sur Windows/ARM.



Ah si, excuse-moi : les applications x86 peuvent fonctionner sur les tablettes ARM, à travers un émulateur x86. À ce train là, si j’utilise WINE, un émulateur ou une machine virtuelle, j’arrive à faire tourner des apps Windows sous Linux aussi… Je parlais bien d’applications natives, pas de bidouilles possibles de ce type.


Le 27/01/2015 à 13h 05







Jed08 a écrit :



Pour moi le terme “universal app” est plutôt dirigé vers les devs.

Bien qu’ils ont utilisé ce terme dans la présentation de W10, on a souvent entendu cela lors de conférence plutôt technique (présentation de Visual Studio), et tous les avantages présenté par les universal app concernent uniquement les développeurs : pouvoir, avec les même lignes de code, publier une application pour 3 types de devices différents (smartphone, PC, console).







La conférence du 21 était clairement dirigée vers les utilisateurs.

Ils ont annoncé une conférence dédiée aux développeurs plus tard.



C’est pour cela que je me plaçais du point de vue d’un utilisateur qui entend «applications universelles», et qui peut croire que ça veut dire que les applications Windows fonctionneront désormais partout. Ce qui n’est clairement pas le cas.


Le 27/01/2015 à 12h 51







Jed08 a écrit :



Pour moi, les applications que tu cites ne sont pas universel car les développeur ont du réécrire du code pour les faire fonctionner sur les différents OS. Du coup, il y a plusieurs versions de l’application qui lui permette de fonctionner partout mais c’est tout.

Dans le cas de MS, le code est identique pour toutes les plateformes supportées. Les devs n’ont juste à écrire le code qu’une seule fois et l’application marchera sur tous les OS de MS supporté. Donc effectivement ça ne marchera pas pour les précédente version de Windows, ni pour Mac, Linux, Android et iOS, mais dans le nouvel eco système de Microsoft elles fonctionneront partout.







Dans la limite que je définis, ça marche partout = c’est universel ? <img data-src=" />



Je me mettais à la place de l’utilisateur : s’il peut retrouver les mêmes applications en passant d’un OS à un autre (Windows, Mac, Linux), d’un appareil à un autre (PC, smartphone, tablette), alors pour lui c’est complètement transparent, ça donne la sensation que l’application est universelle.



Je ne parlais pas du point de vue du dev. Après tout c’est son boulot de faire en sorte que son appli fonctionne partout… Ou de faire en sorte qu’elle ne fonctionne que sous Windows.


Le 27/01/2015 à 12h 39







Lnely a écrit :



Yep, maintenant faut voir si l’unification des applis se fait correctement… :) Mais c’est genius en soit oui, MS fait fort et je suis content d’avoir viré de leur coté ^^







D’un autre côté, je trouve ça mensonger de parler d’«applications universelles».



Pour moi une application universelle, c’est une application capable de tourner sur différents OS, sur différentes plates-formes. Par exemple Firefox, Chrome, VLC, sont pour moi de vraies «applications universelles» depuis longtemps, puisqu’on les trouve sur Windows, Mac, Linux, Android, iOS, sur des plates-formes x86, ARM ou autres… N’est-ce pas ça le sens de «universel» = qui fonctionne partout ?



Là ce qu’a fait Microsoft, c’est rendre son OS compatible avec ses smartphones et ses tablettes. Du coup une appli qui fonctionne sous Windows 10… ben, fonctionnera sur Windows 10 PC, Windows 10 smartphone, Windows 10 tablette, puisque c’est le même OS. Je ne vois rien d’«universel» là-dedans.



Il sera intéressant de voir si Windows 10 fonctionnera aussi de la même manière sur processeur ARM. À mon avis, il y a des chances que Microsoft abandonne purement et simplement l’ARM. Ils comptent s’occuper du hardware et du software pour les smartphones et tablettes ; ils peuvent donc choisir le hardware qu’ils veulent, et choisir du x86 (aussi bien pour leurs smartphones Lumia que pour leurs tablettes) est la solution la plus simple. Autre raison : la logithèque Windows/x86 n’est pas compatible avec Windows RT/ARM, c’est la principale raison pour laquelle aucune tablette ARM/Windows RT n’a été un succès commercial. Ce manque de compatibilité mettrait un coup à leurs «applications universelles». Bref, l’abandon de l’ARM à terme me semble très probable.



Du coup, il y a des chances que le duo «WinTel» (Windows+Intel) ressurgisse : Windows 10 fonctionnera de la même manière sur tous ces appareils, car ils auront tous une architecture Intel x86. Intel a mis le paquet pour développer des CPU x86 basse consommation pour appareils mobiles (pour concurrencer ARM), ce n’est pas pour rien.



En fin de compte, selon moi, le langage marketing utilisé («universal apps», «cross-platform») est mensonger. Si on prend un peu de distance, on se rend compte que ça ne sera rien d’autre que des appareils x86 qui font tourner Windows 10. Pas de révolution de ce côté-là.



Ils unifient, oui. Ils ont un seul OS unifié pour PC, smartphones, tablettes. Cela ne rendra pas les applications «universelles» pour autant.


Le 27/01/2015 à 11h 57







Lnely a écrit :



WP est vraiment bien fait maintenant, hate d’avoir W10 (version mobile) entre les mains^^

Et encore plus  W10 PC !



Seul truc qui manque, c’est la variété des apps, j’ai ce qu’il me faut perso mais les updates sont pas aussi souvent que sur IOS







Pour ça, ils ont trouvé la solution.

Au bout de 4 ans, Windows Phone n’attire pas les développeurs, du coup le Store est pauvre, du coup ça n’attire pas les gens, du coup les développeurs ne voient pas l’intérêt de développer pour WP…



Solution :

Mettons sur les téléphones le même OS que sur PC : Windows 10 ! <img data-src=" />

Comme ça nos téléphones disposeront des mêmes applis que sur PC, ça résout le problème du manque d’applis sur WP.



Genius <img data-src=" />


Le 27/01/2015 à 10h 04







knos a écrit :



Bah disons que s’il me volent mes photos et film de famille j’en m’en moque un petit peu.







Moi, je ne m’en moque pas. Le droit à la vie privée est garanti par la Constitution, par les Droits de l’Homme (Article 12). C’est une liberté fondamentale. Y renoncer, c’est s’asseoir sur notre Histoire et faire un gros fuck aux gens qui se sont battus pour ces libertés.



Certes on peut dire de ma vie qu’elle n’intéresse personne. Mais c’est une question de principe.









knos a écrit :



C’est juste pour avoir l’assurance de ne pas les perdre surtout qu’elles sont en double sur mon PC.







Pour ça, je préfère utiliser des moyens locaux pour assurer la redondance (disques en RAID, serveur privé, etc.). Mes données restent chez moi, je ne les mettrai pas chez quelqu’un d’autre (que ce soit mon voisin, Microsoft, Google, ou n’importe qui d’autre).


Le 26/01/2015 à 13h 39







Nerdebeu a écrit :



Ce que je sais, c’est que lors du premier lancement d’Office 365 (2013 aussi) après son installation, tu as ça :



http://1drv.ms/1z1sDOC







Oui, MS-Office supporte le standard ODF 1.2, ce qui est une bonne chose.



Ma question concernait plutôt le propre standard de Microsoft, l’OOXML Strict. Parce que jusqu’à présent, y compris dans MS-Office 2013, quand tu choisis «Format Office Open XML», il te sortira des fichiers au format OOXML Transitional, ce qui n’est pas le standard (pour Office 365 je ne sais pas). Il faut vraiment aller dans Fichier -&gt; Enregistrer sous, et là choisir «Office Open XML Strict», autant dire que quasiment personne ne le fait…



C’est quand même un comble qu’ils n’utilisent pas leur propre standard par défaut dans leur suite bureautique…


Le 26/01/2015 à 12h 49

Question :



Est-ce qu’avec cette nouvelle version, Microsoft va enfin faire du OOXML Strict le format par défaut pour tous ses documents ?



Pour rappel, toutes les versions jusqu’à aujourd’hui utilisent le OOXML Transitional comme format par défaut. Ce dernier contient des blobs binaires non documentés, et impossibles à interpréter par d’autres suites bureautiques (type LibreOffice, Lotus, etc.).





  • MS-Office 20032007 : OOXML Strict ? connais pas.

  • MS-Office 2010 : peut lire le OOXML Strict grâce à un plugin ; impossible d’enregistrer un fichier en OOXML Strict.

  • MS-Office 2013 : peut lire et écrire des fichiers en OOXML Strict, mais par défaut tous les documents sont enregistrés en OOXML Transitional, empêchant ainsi l’interopérabilité.

    Source : Microsoft



    D’où ma question : est-ce que Microsoft va vraiment utiliser et mettre en avant son format standard OOXML Strict, ou bien vont-ils continuer à utiliser du OOXML Transitional par défaut partout ?

Le 27/01/2015 à 09h 55







2show7 a écrit :



Une question bête (enfin peut-être pas), un antivirus peut-il bloquer un logiciel non désiré ?







Non ça c’est le rôle d’un pare-feu.

Tu peux ajouter des règles au pare-feu pour qu’il empêche un logiciel de communiquer avec l’extérieur (Internet).


Le 26/01/2015 à 21h 03







Mr.Nox a écrit :



J’arrête pas de lire “spyware”, “mouchards “etc… Mais lol.



Une belle brochettes d’ignares. Limite des dindons gloussant parce que c’est noté MS dans l’en-tête.



Si Skype est un mouchard, TOUTES les applications US le sont tout au temps.







* tout autant.



Sinon, bien d’accord pour dire que les applications US sont toutes susceptibles d’être des mouchards en puissance, que ce soit chez Microsoft, Apple, Google… Pas confiance dans ces softs.


Le 26/01/2015 à 13h 16

Windows only, prix prohibitif : je passe mon chemin !

Le 26/01/2015 à 12h 27







darth21 a écrit :



A la différence que ceux qui descendaient ms pour ca à l’époque encensent aujourd’hui google et/ou l’excusent. Cherchez l’erreur …







Ben pour ma part, je considère ceux qui codent des sites Web uniquement pour Webkit font la même connerie que ceux qui codaient des sites «optimisés pour IE6» à l’époque…



Un développeur Web devrait respecter les standards, point.



Microsoft, Apple, Google, Mozilla, font tous partie du W3C, à eux de s’entendre et de développer des standards qui fonctionnent partout.


Le 26/01/2015 à 09h 55







vloz a écrit :



Ou alors peut etre que lorsque le site à été crée, IE etait à la traine par rapport à Firefox/Chrome sur certains points qui apportait de lourds avantages à la team de dev, et que la société n’à pas juger urgent de réclamer une mis à jour pour les 15% d’utilisateur d’ie qui de toute maniere peuvent tres bien acceder au site avec…



… nan t’as raison, la theorie complot anti-MS est plus logique…







Ou alors peut-être que j’ai dit que les sites Web modernes ne devraient pas utiliser le user-agent.


Le 26/01/2015 à 09h 44

Ils sont où les liens de téléchargement pour Mac OS X et Linux ? <img data-src=" />







Spartan s’identifie lui-même comme étant Chrome 39 au lieu d’Internet Explorer 11, une modification qui en dit long sur la manière dont IE est géré par les sites web.





C’est surtout ça qui est honteux : un vrai site Web moderne devrait complètement ignorer l’user-agent, et respecter les normes du Web (W3C). Les sites Web qui font des choses différentes en fonction du user-agent, ce sont des sites Web mal codés, ou avec une volonté manifeste de nuire à un certain navigateur.



J’avais lu que les navigateurs utilisent des user-agent bidon afin d’éviter les problèmes sur des vieux sites Web qui recherchent IE6 ou ce genre de truc. C’est pour cela que les user-agent ne veulent plus rien dire (IE s’identifie comme Chrome, Chrome s’identifie comme Mozilla, etc.). Sur des vieux sites Web qui ne sont plus mis à jour je veux bien, mais les sites Web récents qui cherchent encore à utiliser l’user-agent c’est lamentable.

Le 25/01/2015 à 17h 29







DDReaper a écrit :



Certais n’ont juste pas envie de switcher pour avoir une experience moins bonne.

J’aimerai bien que les distrib/logiciels dispos soit meilleur (plus complet, meilleur interface etc) que leur homologue windows.

Je veux pas office ou un clone d’office sur linux, je veux un logiciel meilleur.

Aujourd’hui switcher sur linux me ferait l’effet d’un retour 5 ans arrière (au moins).







Chacun son point de vue…



Un seul environnement de bureau imposé (et impossibilité d’installer l’OS sans environnement), absence de bureaux virtuels, absence de dépôts qui centralisent toutes les mises à jour, menu bordélique (à ranger à la main), mises à jour relou qui alourdissent le démarrage/arrêt du système («Installation de la mise à jour 1/18», quand on est pressé, ça n’a pas de prix), pas de prise à distance digne de ce nom (ssh), absence de fonctionnalités serveur sur les versions «Familiales», limitations artificielles de la mémoire sans raison (max. 8 Go pour une version 64 bits ? WTF ?), non-support de matériels spécifiques (type Raspberry Pi), noms de lecteurs complètement illogiques (C, D, E, ça peut être des disques durs, des lecteurs optiques, des clés USB, en fait on n’en sait rien)…



Personnellement c’est si je devais retourner sous Windows que ça me ferait l’effet d’un retour 5 ans en arrière <img data-src=" />



Affirmer que l’expérience est forcément «moins bonne» et que les logiciels sont moins bons sous Linux, c’est mensonger, puisque l’expérience va dépendre des besoins de chacun, des habitudes de chacun, des exigences de chacun. Tout le monde n’a pas les mêmes critères ni les mêmes critiques envers chaque OS.



Je suis persuadé que beaucoup de gens ont une meilleure expérience en étant sous Windows, alors je te demande de comprendre que certaines personnes ont une meilleure expérience sous Linux. Chacun ses préférences <img data-src=" />


Le 23/01/2015 à 08h 56







Nerdebeu a écrit :



Par contre, moi ça m’intéresse vos histoires de bon pain et de bons boulangers, impossible de trouver du pain potable par chez moi, une vraie misère. <img data-src=" />







Télécharge une recette sur Internet et fais ton pain toi-même ! <img data-src=" />



<img data-src=" />


Le 22/01/2015 à 18h 01







methos1435 a écrit :



Et si les clients continuent à acheter leur pain chez le même boulanger c’est peut être parce qu’ils le trouve à leur gout… :)







Tout à fait, chacun a le droit d’aller chercher son pain où il veut, les goûts et les couleurs, toussa… <img data-src=" />



Par contre si on me dit «bouh toi ton pain tu le fais toi-même c’est tout pourri», j’ai tendance à monter sur mes grands chevaux <img data-src=" />


Le 22/01/2015 à 17h 53

Moi quand je trouve que le pain n’est pas bon, je change de boulangerie. Et je dis autour de moi qu’il fait du mauvais pain, et à quel point la pain est bien meilleur dans l’autre boulangerie.



Et tant pis pour le boulanger qui fait du mauvais pain : s’il perd suffisamment de clients il finira peut-être par se remettre en cause <img data-src=" />

Le 22/01/2015 à 14h 44







ouvreboite a écrit :



Ou est-ce que j’ai parlé de faute ? …



La discussion c’est “pourquoi unix/le libre devrait passer devant MS”. Ma réponse c’est “pourquoi c’a n’est pas le cas pour l’instant”. Je m’en branle le joystick logitech incompatible unix de savoir qui est en “tord”…







“En tort”, déjà (parce que le tort tue).



Ensuite, il faut bien comprendre que le but des entreprises qui font du logiciel libre (donc IBM, Oracle…), ce n’est pas de créer des clones de logiciels existants, hein. Leur but c’est avant tout de créer des logiciels qui répondent à leurs besoins.



Peut-être que toi, tu n’aimes pas Libre Office ou GIMP, mais un certain nombre de gens trouvent que ça répond parfaitement à leurs besoins. Pour ceux qui contribuent à ces projets, ou simplement les utilisent, ce sont déjà les meilleurs logiciels, pour leurs besoins. Dire «les meilleurs logiciels au monde» de façon absolue, comme ça, ça n’a pas de sens.



D’une manière plus générale il faut accepter que Linux n’est pas Windows. Le choix est aussi simple que :





  • si tu veux utiliser MS-Office et Photoshop, alors reste sous Windows.

  • si tu veux migrer sous Linux, alors accepte d’utiliser d’autres outils.



    Dans les deux cas, dire que Linux c’est nul parce qu’on n’y retrouve pas les mêmes logiciels (ou que des périphériques ne marchent pas), c’est complètement à côté de la plaque.


Le 22/01/2015 à 14h 14







ouvreboite a écrit :



J’ai pas dit que le lire devait proposer “ses” meilleurs logiciels, j’ai dit qu’ils devaient proposer “les” meilleurs logiciels.



Le bilan c’est :




  • navigateur : OK (Chrome/FF ont été un temps largement supérieurs à IE et Chrome a aussi bénéficié de la puissance pormotionnelle de Google). C’est ca qui fait que les chromebook sont viables et appelés CHROMEbook : le peuple est habitué à Chrome et le considère.

  • multimédia : OK (VLC est le meilleur et très simple / XBMC est le plus complet de sa catégorie)

  • bureautique : KO (LO/OO pas au niveau d’Office)

  • photo  : KO (c’est Adobe qui mène la danse)

  • petits logiciels spécifiques : KO (le plus souvent les bons outils de compta (à jour avec la réglementation francaise), d’architecture personnelle, … sont indispo sur unix)



    Bref, si tu veux que le grand public fasse l’effort de migrer, il faut d’abord qu’il ne se sente jamais limité par le changement. Jamais de compromis. Il ne faut jamais qu’il ait a chercher d’alternative (= moins bonne !) car les meilleurs de toutes les catégories qui l’interesse seront déjà là.







    Encore une fois, je ne vois pas en quoi c’est la faute de Linux, ou des libristes, si les logiciels d’Adobe ou de Microsoft ne sont pas dispo sous Linux <img data-src=" />


Le 22/01/2015 à 11h 54







ouvreboite a écrit :



Si tu veux que les gens changent d’eux même, il faut qu’il ne manque AUCUN logiciel. Et pour ca, il faut prendre le problème dans l’autre sens. C’est au libre de proposer, sur windows, les meilleurs logiciels de chaque domaine grand public.







Le libre propose déjà ses meilleurs logiciels pour Windows (et Mac et Linux) : Firefox, VLC, Thunderbird, LibreOffice, Filezilla… Les windowsiens utilisent déjà plein de logiciels libres sous Windows (et encore plus sous Mac OS X, qui fonctionne grâce à plein d’outils GNU).



Le problème est plutôt inverse, justement : les éditeurs de logiciels propriétaires ne proposent leurs logiciels que pour Windows. À quand des versions Linux de MS-Office, Photoshop, des jeux, et ainsi de suite ? Si on ne les trouve pas sous Linux, ce n’est pas à cause de Linux ni à cause de la «communauté du libre» (expression qui n’a pas de sens) : c’est la faute des éditeurs propriétaires.


Le 22/01/2015 à 11h 29







Zerdligham a écrit :



L’utilisateur lambda fera le raisonnement dans l’autre sens : ça marche sous windows et pas sous linux, c’est que linux a une problème.

C’est injuste, mais c’est pas prêt de changer.







Je suis d’accord, mais je répondais à quelqu’un qui disait justement que c’était «le problème de Linux»…



L’utilisateur lambda fait un raisonnement faux, ça ne veut pas dire qu’il ne faut jamais rien lui expliquer.


Le 22/01/2015 à 11h 23







belgeek a écrit :



Le problème de Linux reste sa facilité d’utilisation et d’installation pour certains trucs.



Un pote est passé sous Linux (obligé par sa copine qui bosse pour une ONG pour la vie privée).

La semaine passé ils ont acheter une imprimante. Impossible de l’installer, ils doivent attendre “leur pote informaticien” pour qu’il le fasse pour eux.







Le problème ne vient pas de Linux.

Quand tu achètes une imprimante, tu as deux cas :





  • le constructeur fournit les pilotes pour Linux, dans ce cas ça fonctionne très bien out-of-the-box (Brother, HP…).



  • le constructeur ne fournit pas de pilote pour Linux, et là c’est la merde à installer, voire ça ne marchera pas du tout (Canon…).



    Je suis d’accord que c’est pénible, mais tant que les constructeurs ne joueront pas le jeu ça sera le merdier. Ce sont eux les responsables, si leur matériel est mal ou pas reconnu sous Linux.


Le 22/01/2015 à 11h 21







thedan a écrit :



Et aussi à la non acceptation du grand public.  Quel est réellement l’intérêt aujourd’hui pour madame Michu ou autre de passer à une machine sous Linux ? Interface moins connu (j’ai pas dit pas bien ou pas utilisable j’ai dit moins connu), les logiciels grand public sous windows marche très bien….







Je pourrais te citer des dizaines de raisons (certains ont déjà été évoqués ici).

Mais je suis d’accord : l’inertie, la force des habitudes, la peur de l’inconnu, jouent une grande part.


Le 22/01/2015 à 10h 26







freechelmi a écrit :



je ne comprends pas. Un constructeur vends des Pcs pour faire de la marge. avec Linux gratuit, il peux faire un peu plus de marge qu’avec Windows. L’ullusion de “je gagne du fric en installant des bloatware” je pense que c’est terminé depuis longtemps.







Si c’était le cas, il y aurait beaucoup plus de constructeurs proposant des PC avec Linux pré-installé. Pourquoi n’est-ce pas le cas ? Je ne vois que deux explications :





  • Microsoft tient les constructeurs avec des contrats d’exclusivité, genre «vous nous reversez des royalties, que vos PC aient Windows pré-installé ou non». Ah non, on me dit que ça, c’était dans les années 1990, et après un procès anti-trust Microsoft a renoncé à ces pratiques…



  • les constructeurs font davantage de profit en vendant des PC sous Windows que sous Linux. Ça peut être dû aux marges intrinsèques qu’ils se font sur chaque machine vendue, ou bien au volume de machines vendues (ils savent qu’ils vendront infiniment plus de machines sous Windows que sous Linux, donc pourquoi s’emmerder ?).



    Bref, je pense que le non-succès de Linux sur le desktop est aujourd’hui davantage une affaire de sous, de business model. Le jour où les constructeurs penseront que le vent tourne, ils se mettront à proposer des machines sous Linux et elles se vendront, mais au vu du marché ce n’est pas pour tout de suite.


Le 22/01/2015 à 10h 04







philanthropos a écrit :



MS tire des revenus substanciel de beaucoup d’autres sources comparé à d’autres boites, et sa partie “Grand public” n’est pas son coeur de revenu malgré ce qu’on peut en penser.







D’après les chiffres publiés par Microsoft, la vente de licences logicielles aux particuliers et OEM («Devices and Consumer licensing») a compté pour 22% des revenus sur l’année 2014. C’est loin d’être négligeable, et je doute fortement que Microsoft soit enclin à se séparer de 22% de ses revenus du jour au lendemain, ou alors il faudra m’expliquer comment ils vont compenser une telle perte.









philanthropos a écrit :



Logiquement les deux seront possibles pour une raison très simple : le monde de l’entreprise.

 

Sychroniser tous les travaux dans une architecture interne sécurisée est la base, nous sommes d’accords ? A partir de là, obliger une Entreprise à passer par le Cloud serait totalement bête, c’est le mot.

Et vu que le monde Pro’ est le coeur de cible de MS, impossible qu’il fasse une erreur de ce type, ça été sans doute prévus pour être multi-utilisation cloud/interne.







Je m’en doutais mais comme je n’avais pas vu d’info claire là-dessus j’ai préféré demander. Merci de la réponse <img data-src=" />









Okki a écrit :



En soit, Linux est déjà prêt pour le desktop. Puis 2015 va être une très bonne année, avec l’abandon du vieillissant serveur d’affichage X.org au profit de Wayland, ou l’arrivée des applications sandboxées. Les environnements sont également de plus en plus matures et complets, avec des logiciels libres qui couvrent quasiment tous les besoins des particuliers.



Le seul truc qui manque réellement, c’est finalement un constructeur pour y croire, capable d’en faire la promotion, de le mettre en avant.







Ce qui manque réellement, c’est un business model : comment vendre des PC sous Linux de sorte que ça soit profitable ? Canonical s’y est essayé avec Ubuntu et différents services associés, ça a eu son petit succès mais c’est incapable de rivaliser avec le trio Microsoft, Apple, Google, qui engrangent des milliards. Aucun constructeur ne se lance, car ils ne voient pas comment faire de l’argent en vendant du Linux. L’essentiel du problème est bien là : du point de vue d’un constructeur, pourquoi se risquer à essayer de vendre du Linux (ou à y mettre de la pub, des bloatwares, etc.), alors que très vite les gens sauront qu’ils peuvent le télécharger gratuitement, sans payer et sans bloatware ? Et quel constructeur perdrait son temps à filer Linux gratuitement, alors qu’ils se font plus de marge en vendant des PC sous Windows ?…



Ceci dit, j’utilise Linux quotidiennement au boulot et chez moi, je suis donc 100% d’accord sur le fait que les distributions GNU/Linux sont prêtes pour le desktop, depuis un moment déjà. Mais la qualité de l’OS ne fait pas tout, ce qui compte pour une commercialisation, c’est la plus-value et le profit.


Le 22/01/2015 à 09h 39

Désolé si j’arrive un peu tard et que je pose une question stupide (j’avoue ne pas avoir lu tous les commentaires <img data-src=" /> ) :



Est-ce qu’il sera possible de connecter directement les appareils Windows 10 entre eux (PC, smartphone, tablette) afin de commencer son travail sur l’un et de le finir sur l’autre, ou bien est-ce qu’il faudra obligatoirement passer par un compte en ligne (i.e. mettre ses documents dans le Cloud, etc.) ?

Le 21/01/2015 à 22h 27







neokoplex a écrit :



Libre ou pas libre n’a que peu d’importance au final, il s’agit lus de philosophie qu’autre chose. Surtout lorsque l’on voit les “backdoors” mis au sein de certaines distributions linux et qui sont resté durant des années.







Là tu racontes une grosse connerie.

En dehors du fait qu’il s’agit de OpenBSD (et donc pas Linux), cet article alarmiste date de 2010, et après un audit complet du code il s’est avéré qu’aucune backdoor n’a été introduite dans OpenBSD.



Merci de ne pas raconter des histoires basées sur de vieilles rumeurs qui ont été démenties…


Le 23/01/2015 à 15h 48







lataupe a écrit :



Oula … C’est encore en Alpha … c’était pas un peu tôt pour faire de la comm la dessus …

 

C’était une  une Daily Build  et il fallait informer les geek mais pas un truc pour Monsieur tous le monde !







C’est dans l’esprit du libre : «Release Early, Release Often».

Plus il y aura d’utilisateurs et plus il y aura de retours, et plus le logiciel progressera vite.


Le 22/01/2015 à 17h 56







tazvld a écrit :



Lapin tout compris. En Gros, VLC utilise une bibliothèque tiers qui possède une vulnérabilité ?

JB, ou quelqu’un d’autre, peux-tu, nous expliquer avec un peu plus en détail. Cette bibliothèque, elle vient d’où ?







Si je ne me trompe pas VLC se base sur les codecs de ffmpeg (libavcodec) pour lire les fichiers vidéos. La faille se trouverait dans libavcodec, et non dans VLC en lui-même. En toute logique il faudrait donc rapporter le bug aux équipes de ffmpeg.



J’espère ne pas dire trop de bêtises, JB ou un autre vrai développeur me corrigera si je me trompe <img data-src=" />


Le 22/01/2015 à 17h 46

Je connaissais le c cédille, mais pas le s cédille, merci <img data-src=" />

Le 22/01/2015 à 15h 54







Lnely a écrit :



C’est très fourbe, je suis pas teubé et j’avais bien compris “mise à jour gratuite si elle est faite la première année”

SAUF QUE

A la fin de cette gratuité, on se retrouve avec W10, et là on doit payer (ha mais on m’avait dit gratuit si je faisais la maj la premiere année…) donc en gros, la maj sert à rien, à part vous foutre dans la merde, pour cause :



J’ai 8.1, j’installe gratuitement W10, l’année passe, et là je dois payer, si je refuse, j’ai mon windows dans le cul et je dois réinstaller 8.1







Non, c’est expliqué dans la news :





l’offre durera un an, pas la licence





Donc, une fois que tu as ton Windows 10, c’est définitif. Ils ne te feront pas payer après un an.


Le 21/01/2015 à 17h 12

Bon le streaming est horrible, j’attendrai le résumé de NextINpact <img data-src=" />

Le 21/01/2015 à 17h 05







colonelc4 a écrit :



D’accord, mais pas vraiment, ce que Microsoft propose en Entreprise (je parle pas de plateforme de jeu/End User)







Je parlais justement de configs end user, je ne parlais pas des entreprises.









colonelc4 a écrit :



“- Apple qui fournit les nouvelles versions d’OS X gratuitement aux utilisateurs de Mac. ”



J’ai ri…faut pas oublier que tout ce bazar est rentabilisé à l’avance via des plan économiques…regarde un peu le prix d’un matos APPLE, c’est pas vraiment donné pour ce que c’est, devine pourquoi ?







Oui, c’est pour ça que j’ai dit «on peut en penser ce qu’on veut». Dans l’absolu, développer Mac OS X a un coût, les utilisateurs le payent bien à un moment ou à un autre. Mais beaucoup de Mac users te diront que leur OS est gratuit, parce qu’ils en sont persuadés.



C’est juste de ça que j’ai voulu parler : dans la tête des gens les autres OS sont «gratuits», mais pas Windows.









atomusk a écrit :



On verra si Ms se décide à rendre les mises à jour gratuites, ce qui les mettraient au “même niveau” que OSX.



Après Android n’est pas “gratuit”, vu que son implémentation demande de payer divers brevets qui sont “eux” couvert par une licence Windows. 



Donc le débat est assez complexe, ne le réduisons pas à ça, merci.







Je n’ai rien voulu réduire, je n’ai voulu parler que de l’impression qu’ont les Mme Michu. Apple leur dit que OS X est gratuit, ils le croient. Google dit sur tous les toits que Android est gratuit, la majorité des gens le croient, et ne vont pas chercher à comprendre quel est le modèle économique derrière (utilisation des données…).



Finalement dans ce paysage, Windows a l’air d’être le seul OS payant. Je dis bien «a l’air». C’est une fausse impression, quand on s’y connaît on sait que le problème est plus complexe que ça. Mais pour beaucoup de gens c’est l’impression qu’ils en ont. Du coup on verra ce qui est proposé sur ce point <img data-src=" />


Le 21/01/2015 à 16h 43







colonelc4 a écrit :



Ouais totalement logique, y a juste plus de 100k employé dans la compagnie qui bossent en bénévoles, et qui vivent d’air frais et d’eau de mer…non mais faut arrêter avec votre gratuit, y a Linux pour ça.







Tout troll mis à part, Microsoft est en concurrence avec :





  • Apple qui fournit les nouvelles versions d’OS X gratuitement aux utilisateurs de Mac.

  • Google qui fournit Android et Chrome OS gratuitement.



    On peut en penser ce que l’on veut (exploitation des données personnelles, etc.), il n’empêche que ces entreprises ont habitué les utilisateurs au «tout-gratuit», sur smartphone, tablettes, et maintenant ordinateurs de bureau. C’est donc un vrai challenge pour Microsoft : continuer avec un Windows payant ? le rendre gratuit ? proposer des abonnements ? Autre chose ?… Je suis aussi curieux de savoir ce qu’ils vont annoncer à ce sujet.


Le 21/01/2015 à 16h 26







Danytime a écrit :



C’est à quel heure qui commence ?







Tain c’est écrit dans le titre de la news, faites un effort quand même <img data-src=" />


Le 20/01/2015 à 17h 55



Deux conditions sont nécessaires : définir le moteur de recherche par défaut d’Internet Explorer sur Bing, et placer MSN.com en tant que page d’accueil. Des conditions qui n’ont rien d’exceptionnel, d’autant que l’utilisateur est tout à fait libre de choisir d’autres paramètres ensuite… ou d’installer un autre navigateur.





Cette condition n’est pas très contraignante, en effet. Si ça suffit pour rendre Windows gratuit, ça va faire plaisir à des millions de gens…











labdam a écrit :







WUT <img data-src=" />



Si même les rédacteurs se mettent à troller dans les commentaires… <img data-src=" />



<img data-src=" />