votre avatar

Konrad

est avec nous depuis le 3 août 2010 ❤️

4337 commentaires

Le 28/01/2016 à 09h 21







Commentaire_supprime a écrit :



“J’en prends un tout de suite !”



Nicolas SARKOZY



<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />







<img data-src=" />


Le 27/01/2016 à 18h 04

J’avoue que je vois mal l’intérêt de ce genre de boîtier… Le but du Mini-ITX c’est d’avoir des configs compactes. Pourquoi faire un boîtier aussi grand et viser le Mini-ITX en même temps ? Ça me paraît antinomique…

Le 28/01/2016 à 08h 01







catseye a écrit :



Sauf que quand tu achètes une imprimante les pilotes Windows viennent systématiquement avec. Linux .. bha pas vraiment …







Systématiquement ? Je ne serais pas aussi catégorique…



À l’époque où j’étais sous Windows, je me souviens d’en avoir chié pour installer une imprimante/scanner Canon. Il fallait d’abord la brancher en USB pour la configurer, avant de pouvoir l’utiliser en réseau… Il y a aussi plein de gens qui se sont retrouvés avec des périph qui ne marchaient plus quand ils ont changé de version de Windows : au passage de Windows XP à Vista ou 7, et là aujourd’hui au passage de Windows 8 à Windows 10. L’imprimante (ou la webcam, la carte son…) fonctionnait, mais en passant à Windows 10 il n’y a pas de pilote alors ça ne fonctionne plus, voir cette liste par exemple. Dans certains cas le constructeur ne fournira jamais de pilote pour Windows 10 : soit tu restes sous Windows 8, soit tu changes ton périphérique…



Bref je nuancerais grandement ce « systématiquement » : en fait sous Windows c’est pareil, s’il n’existe pas de pilote pour ta version précise de Windows, tu l’as dans l’os et ton périph ne fonctionne pas. Est-ce que tu vas dire que Windows supporte mal le matériel ? Non, c’est entièrement la faute du constructeur.



Un périphérique ne marche pas sous Windows : « ce périphérique c’est de la merde / ce constructeur fait chier ».



Un périphérique ne marche pas sous Linux : « Linux c’est de la merde ». <img data-src=" />



Je le connais ce discours ce n’est pas la première fois que j’ai ce genre de discussion…


Le 27/01/2016 à 20h 11







trekker92 a écrit :



bon courage pour installer une webcam à l’endroit (cf toshiba/hp) sous nux;.. et j’imagine meme pas pour les imprimantes usb… good luck really, les impr sous nux c’est la cata.

ya une entité publique qu’a annulé sa migration à cause de ca







J’ai une webcam Logitech, branchée en USB et ça marche.

J’ai une imprimante Brother qui marche aussi impeccable, imprimante + scanner en réseau/WiFi.



Bref les « imprimantes sous nux » comme tu dis, il n’y a aucun problème… à condition que les pilotes existent. En fait sous Windows c’est pareil : si les pilotes n’existent pas, tu vas en chier avec ton imprimante, ta webcam ou ta vieille carte son en PCI…



Apprends à distinguer les problèmes qui relèvent de l’OS, de ceux qui relèvent des pilotes <img data-src=" />









Drepanocytose a écrit :



Moi j’ai une stratégie : suffit de NE PAS faire de depannage sur du MS pour se rendre compte du contraire.



Avant j’aidais les potes et la famille sur du Windows, et même du mac ; et je me prenais du “ton OS de barbu c’est de la merde”.

Maintenant, je laisse tout ce beau monde se debrouiller avec leur windows, avec en plus un bon gros sourire narquois : les gens concernés se rendent ainsi bien compte que windows c’est tout sauf simple à depanner quand c’est toi et pas un un geek de tes connaissances qui doit s’y coller.



Edit : et je ne te raconte pas les rigolades que j’ai eu avec le passage à W10. Quand ma tante m’a demandé de la depanner et que je lui ai demandé 40 euros “pour le principe”, je l’ai scandalisé. Ma réponse a été simple : “bah va chez Carrefour ou appelle MS. Ou miex, va chez le petit informaticien du coin, on verra qui va t’enfler e combien ca va te couter….”.







Haaa qu’est-ce que c’est bon ça ! Ne plus avoir de Windows à dépanner…



Au début des années 2000 je dépannais beaucoup de gens sous Windows aussi, maintenant je ne dépanne plus personne (même pour 40 ou 100 €). Ils ont payé leur machine en magasin, qu’ils y retournent, marre de perdre mon temps à résoudre les mêmes problèmes à la con encore et encore… Et vu que je n’utilise plus Windows ni chez moi ni au boulot, je serais sûrement bien incapable de les dépanner, ou alors ça me prendrait 10 plombes.


Le 27/01/2016 à 17h 10







MacGuiPro a écrit :



Jusqu’ici je n’avais pas parlé de propriétaire ou libre. Maintenant à mon sens repartir sur du Linux ça n’avance pas l’indépendance du pays (pour les raisons que j’ai évoquées plus haut).







Ben si, ça me paraît évident.



Un OS propriétaire appartient à un unique éditeur. Si tu veux utiliser cet OS tu es entièrement dépendant du bon vouloir de cet éditeur : les fonctionnalités qu’il met dedans, le prix… Si tu veux absolument qu’une fonctionnalité soit ajoutée, tu n’as pas le choix, tu dois demander à l’éditeur, et il te facture ça au prix qu’il veut vu qu’aucun concurrent n’a le code source…



Un OS sous licence libre (comme une distribution GNU/Linux) n’appartient pas à un seul éditeur ! Tu peux le forker, créer ta propre version, ajouter les fonctionnalités que tu veux… Ou tu peux mandater l’entreprise que tu veux pour le faire. Et pour cela tu peux passer par un appel d’offre, ce qui met plusieurs entreprises en concurrence.



Il est donc évident que la France gagnerait grandement en liberté et en indépendance en choisissant d’utiliser davantage de logiciels libres dans l’administration, voire en développant sa propre distribution GNU/Linux.


Le 27/01/2016 à 15h 04







MacGuiPro a écrit :



Je suis peut-être un affreux parano, mais pour moi dépendre d’un noyau développé à 10% par un fondeur c’est prendre un risque non négligeable de se retrouver avec la force de frappe d’un Intel pour bloquer toute tentative de hardware français (pareil pour AMD/nVidia/Intel pour les cartes graphiques,…).







Écoute, pour l’instant on dépend majoritairement d’un OS propriétaire, Closed Source, développé à 100% par une seule entreprise américaine. Le cœur du problème il est là.



Alors maintenant tu peux imaginer des scénarios catastrophe du genre « si Intel fait ceci alors peut-être que blabla », oui oui, et si ma tante en avait on l’appellerait mon oncle.



À un moment donné, si tu as des doutes sérieux, il faut regarder ce qui s’est déjà fait. Soyons pragmatiques :



(1) As-tu des preuves qu’une entreprise (Intel ou autre) a déjà introduit du code, qui aurait nui à un concurrent ou à une autre entreprise, dans le noyau Linux (ou dans une distribution GNU/Linux) ? Si oui merci d’indiquer la source.



(2) Si ça ne s’est pas fait auparavant alors que des gros sous étaient en jeu, crois-tu que Intel (ou autre) va prendre des risques et introduire des choses foireuses dans le noyau Linux juste parce que la France veut faire son OS ?


Le 27/01/2016 à 14h 01







MacGuiPro a écrit :



C’est peut-être paranoïaque, mais si j’étais Intel, et que j’aie envie de faire cesser un concurrent génant (chose qui ne leur est jamais passé par la tête <img data-src=" />), concurrent dépendant d’un noyau dont je suis responsable de près de 10% des modifications, j’apporterais des améliorations à la gestion du processeur, pouvant parfois créer des effets de bord.



Mais bon, là on est dans la spéculation. On peut faire confiance à Intel pour ne pas avoir des pratiques anti-concurrentielles (ou pas…).







On peut avoir confiance en Intel pour avoir des pratique anti-concurrentielles, c’est même la norme dans le milieu. Par exemple le couple Wintel a sûrement passé des tas d’accord sur le support des CPU et compagnie, de sorte que Windows soit bien optimisé pour les CPU Intel et que les CPU Intel offrent des instructions qui permettent d’accélérer Windows. Ça a fait les choux gras de ces deux acteurs parce que l’archi Intel était fermée, et Windows est Closed-Source : personne ne peut savoir ce qui a été optimisé ni comment. Les deux pouvaient chaudement se recommander, et dire des choses du genre « compatibilité maximale avec Intel Inside, les autres CPU peuvent offrir des performances moindres »…



Aujourd’hui ces deux partenaires historiques se sont fait retourner comme des crêpes : les appareils les plus vendus au monde sont sur architecture ARM, et utilisent autre chose que Windows. Intel n’a pas pu proposer de CPU low-cost et low-voltage à temps, et Windows ne tournait pas du tout sur ARM et s’est fait damer le pion par… Linux (à travers Android, FireOS, et tout ce que tu veux). Bref aujourd’hui des associations du genre Wintel ne sont plus payantes, je pense que tout le monde s’en est rendu compte.



Pour regagner des parts de marché Intel ne peut pas faire de coup de pute dans le noyau Linux, ça se verrait tout de suite (Open Source), et ça ne serait pas du goût des plus gros acteurs (Google en tête, mais il est loin d’être seul).


Le 27/01/2016 à 12h 58







MacGuiPro a écrit :



Mais du coup tu restes dépendant des évolutions d’un noyau contrôlé par des tiers. Imaginons que je développe un processeur de malade (soyons fous, avec ST Micro <img data-src=" />). Qu’est-ce qui me dit qu’Intel ne va pas subtilement faire des propositions d’optimisations pour le noyau “canal historique” (Intel fait beaucoup de modifications sur le noyau Linux), optimisations qui pourraient pourrir mon support de mon CPU.



Bref, point d’indépendance avec Linux dans sa version actuelle. <img data-src=" />







Mais pourquoi Intel ferait ça ? C’est un risque énorme pour leur image de marque : introduire un code volontairement pourri dans le noyau Linux ? C’est invraisemblable ! Ils se feraient pourrir par tout le monde…



Ne pas oublier que le code source écrit par Intel, n’est pas relu que par Intel, et qu’il est public. C’est très facile pour des chercheurs en sécurité ou des gens intéressés par les perfs et les benchmarks de savoir d’où vient le code, qui l’a écrit, etc. Intel se tirerait une balle dans le pied en faisant ce genre de choses <img data-src=" />


Le 27/01/2016 à 10h 01







ActionFighter a écrit :



Si l’ANSSI développe une distribution sécurisée, c’est bien pour quelque chose, donc au lieu de basher l’idée en révélant les discours qui sont derrière, notamment cette utopie du verrouillage du net, il aurait mieux fait d’expliquer en quoi une distribution maîtrisée par l’état français pourrait être une bonne chose pour les administrations.



Et, au delà d’une distribution française, c’est une vraie volonté de développement d’outils communs aux administrations qu’il faudrait, qui permettrait de gagner à la fois en souveraineté et sur le long terme, en budget.







+1 <img data-src=" />



Pour les politiciens et journaleux qui ont une compréhension limitée du sujet, c’est plus facile de faire du bruit en sortant des vannes à base de « développer un Windows à la française à partir de zéro, mais ça n’est pas réaliste ! », ou encore « vous vous prenez pour Bill Gates ou quoi LOL ». En sortant des vannes comme ça ils se croient plus malins, et surtout ils veulent éviter le débat. Car s’il y a débat on risquerait de s’apercevoir qu’ils n’y connaissent rien…


Le 27/01/2016 à 09h 01



des médias ont déjà anticipé l’arrivée toute imminente d’un Windows Made in France, prêt à « booter » sur le PC de notre brave Mme Michu.







« Si c’est redévelopper un OS à partir de rien pour mettre je ne sais pas trop quelle technologie, c’est un non-sens. Si c’est un OS maitrisé par l’État pour y mettre plein de saletés, je m’y opposerai. Nous ne sommes pas en Corée du Nord mais heureusement dans un État de droit ».







  1. C’est complètement irréaliste de développer un « nouveau Windows made in France », je pense que tout le monde est d’accord là-dessus. Ça demande des ressources tellement colossales de développer un OS, on n’arrivera à rien en voulant développer un OS à partir de zéro… Si l’État veut se doter de son propre OS il faut donc se baser sur de l’existant. Je pense que ce serait stupide de se débarrasser de Windows pour aller dans les bras de Google ou de Apple, ça ne changerait rien au problème… Le meilleur point de départ serait donc une distribution GNU/Linux, la meilleure solution pour ne dépendre d’aucun géant américain.



  2. Un tel OS ne sera jamais adopté par le public. Moi le premier, je n’aurais aucune envie d’installer un « OS gouvernemental », rien que le nom ça fait peur… Non, il est évident qu’un tel « OS souverain » aurait surtout vocation à être utilisé par l’administration française elle-même, là encore pour se débarrasser de la dépendance aux géants américains.





    Bref, pour moi un « OS souverain » devrait avant tout être un OS utilisé par les services de l’État pour gagner en indépendance vis-à-vis des géants américains (Microsoft, Apple, Google, Oracle…). Là, ça aurait du sens, à condition bien sûr de ne pas chercher à développer un truc à partir de zéro.







    Il a par ailleurs rappelé que l’ANSSI a travaillé de longues dates sur un OS sécurisé reposant sur une couche Linux, visant à avoir plusieurs niveaux de confiance pour des architectures sécurisées. « Si c’est ça faire un OS souverain, on l’a déjà ! »





    Qu’est-ce qu’ils attendent pour le déployer et l’utiliser réellement, alors ?

Le 27/01/2016 à 23h 05







AlphaBeta a écrit :



Les géants américains qui n’ont de soutien au libre que le nom….

L’appropriation de linux en douceur







Mais qu’est-ce que tu racontes ? Tu crois quoi, qu’il existe un Logiciel Libre « PUR © » développé uniquement par des bénévoles, des barbus dans leur garage ? Que les entreprises « salissent » le logiciel libre quand elles le touchent ?



Réveille-toi, ça fait longtemps que le Libre est propulsé par les plus grandes entreprises, et devine quoi : non seulement il y a des américains dans le lot, mais aussi des entreprises partout dans le monde, comme Samsung, Sony, Fujitsu, Suse, Canonical, Toshiba, LG…



Complètement à côté de la plaque de dire que les américains « s’approprient » Linux ou un logiciel libre <img data-src=" />


Le 27/01/2016 à 19h 59







Cedrix a écrit :



Je vais tester ça demain sur ma RHEL et on verra. <img data-src=" />







http://www.cyberciti.biz/faq/what-version-of-redhat-linux-am-i-running/



Je serais épaté que ça ne marche pas…


Le 27/01/2016 à 09h 14







Cedrix a écrit :



Faut pas tenter de me troll avec Windows vu que le coeur de ma discussion était de simplement avoir une commande universelle pour les versions des distributions Linux.



Sous Windows, c’est marqué partout (et j’aime franchement pas leurs interfaces command-line)







Mais C’EST unifié… Sur n’importe quelle distrib tu peux utiliser :



lsb_release -a



ou alors :



more /etc/issue



ou alors :



more /proc/version



Le programme “more” fait partie des programmes GNU il est donc dispo sur toutes les distribs, et il ne fait rien d’autre que d’afficher le contenu d’un fichier texte. Par exemple “/etc/issue” est un fichier texte qui contient le nom de la distribution et son numéro de version. Le fichier “/proc/version” contient davantage d’informations, sur la version du noyau Linux, la version du compilateur GCC, etc.


Le 25/01/2016 à 20h 32







Cedrix a écrit :



Putain toutes les commandes à taper juste pour savoir la version. On n’est pas vendredi mais c’est pas un troll, vous etes surs ?







L’avantage de ces commandes c’est qu’elles fonctionnent sur tous les systèmes Debian, et sont particulièrement pratiques quand tu veux connaître la version d’un serveur qui n’a pas d’interface graphique.



Maintenant, si tu as une Debian avec interface graphique (KDE, Gnome, Xfce…) il suffit de cliquer et tu as une jolie fenêtre qui t’indique la version…


Le 27/01/2016 à 16h 18







wince a écrit :



et on vas en faire quoi de ces “neurones” ? si c est pour les utiliser encore plus mal que les notres le monde s en vas dechoir a vitesses grand V !!! armement,guerre cyber,cryptage decryptages robotique..bref on vas donner naissance a des Monstres dont on aura plus capacité a reguler ni controler car elle n auront plus de limites et meme si on leur met des “limites” ou des lois de ne pas s en prendre aux humains elles auront toujours un piratain pour en detourner le sens et donc les neurones auront appris d elle meme a detourner ces protections et ensuite meme a detourner les commandes exterieur “nous” pour ne plus pouvoir les contoller … bref un genre de skynet 



on a deja du mal avec nous qui avons une conscience et une moral imaginez des machines …SCIENCE SANS CONSCIENCE !!

EINSTEIN A LUI MEME APPRIS DE SA FORMULE EMC2 EN DEVENANT LE PLUS FAROUCHE DÉFENSEURS DE LA PAIX …MAIS VOILA LE MAL ETAIS DEJA LA ET BOUM HIROSHIMA ETC ETC 



PS: ne me parler pas de génétique soignante du cancer etc …ca créera encore plus de problèmes ..car cela ne sera pas fait pour la paix l altruisme ou l emancipation de l humain …bref comme Pandore nous ouvrons des voies qui ne seront plus reffermable a moins d aller au bout du bout de la folie du mental egotique et donc la







Je me demande ce qui me fait le plus peur : une intelligence artificielle, ou quelqu’un capable de dire autant de trucs faux et avec autant de fautes d’orthographe…


Le 26/01/2016 à 15h 11

Ça transpire le « on s’en fout » à tellement de niveaux ce truc <img data-src=" />

Le 26/01/2016 à 12h 39







huehuohue a écrit :



En parlant de voir plus loin que le bout de son nez, ne pense tu pas que si cet OS est utilisé seulement par le gouvernement, il n’aura pas le soutient de la communauté open source qui aurait été le rempart minimum sur ce qui s’annonce être une passoire gouvernementale? (Ce sont les même gens qui ont cru utile de créer Hadopi hein, pour indiquer le niveau)



Et puis féliciter quelqu’un qui cite un article sur la pseudo obsolescence d’xp submarine (parce que c’est pas le xp normal) alors que cet OS n’est absolument pas confronté aux même menaces que celles pour lesquelles on considère XP comme obsolète aujourd’hui c’est juste prouver qu’on ne sait pas de quoi on parle.







C’est pratique, la condescendance. Là tu as juste dit « vous ne savez pas de quoi vous parlez », sans fournir aucun argument, sans proposer d’autre solution… ni même montrer que tu connais le problème mieux que les autres.



Ajoute par là-dessus des fautes d’orthographe… Non sans aucun doute, tu as élevé le niveau du débat et tu as convaincu tout le monde, merci de ton intervention <img data-src=" />


Le 25/01/2016 à 14h 47







MuadJC a écrit :



je n’ai pas encore pu vraiment tester Linux en 2016, mais je constate qu’il n’est pas si “user-friendly”.







Le côté “user-friendly” tu pourras le juger quand tu utiliseras Linux.



Là pour l’instant, l’installation ce n’est pas un boulot d’utilisateur, mais d’adiministrateur…









MuadJC a écrit :



Les soucis d’UEFI existent depuis 2013, un petit message nous suggérant de regarder ces options aurait été apprécié. passer par une recherche internet en cas de souci, c’est un peu dommage pour un pépin datant de 2 ans.







Non, ce n’est pas l’UEFI qui pose problème. L’UEFI est très bien géré par toutes les distributions GNU/Linux. J’ai pu moi-même installer Linux Mint sur mon PC de bureau ainsi que sur mon PC portable en utilisant l’UEFI.



Ce qui pose problème c’est le SecureBoot, ce qui est très différent.



La différence est simple : UEFI est une norme standard et ouverte, elle est supportée et implémentée aussi bien sous Windows que sous Linux ; SecureBoot est une extension propriétaire imposée par Microsoft pour « sécuriser » le démarrage de Windows, et qui dans la pratique rend très difficile l’installation des systèmes non-Windows.



Le plus simple à faire est d’aller dans le BIOS, et de désactiver le SecureBoot (mais tu peux conserver le mode UEFI : pas obligé de repasser en « BIOS legacy »…).









MuadJC a écrit :



On est ici entre gens un minimum curieux, ça ne va pas me décourager.







J’espère que tu réussiras à l’installer <img data-src=" />


Le 25/01/2016 à 13h 40







MuadJC a écrit :



« Ça me gave, Linux c’est compliqué »



Euh, non, je n’ai pas dit ça.







Ben désolé si j’ai mal interprété, mais ton message juste au-dessus : <img data-src=" />







MuadJC a écrit :



Et moi ça me gave…









Ensuite :







MuadJC a écrit :



Linux et moi avons une longue histoire de “je te teste moi non plus”, je rebondis juste sur ceux qui régulièrement viennent me jurer que Linux est aussi simple que Windows pour des Michu







Je trouve que ce sont souvent deux choses différentes qui sont comparées, et c’est assez injuste comme comparaison.



Il faut être lucide : Mme Michu, quand elle achète un ordinateur, Windows est déjà pré-installé et tout configuré. Donc oui, forcément c’est simple, elle n’a rien à faire : elle branche, ça marche.



Toi ce que tu essayes de faire là, c’est installer Linux en dual-boot sur un PC qui a déjà Windows… Tu avoueras que ce que tu veux faire est légèrement plus compliqué que ce à quoi Mme Michu a accès.



Personnellement, à Mme Michu, je lui file un ordinateur avec Linux pré-installé et pré-configuré. J’ai fait ça pour pas mal de Michu autour de moi (mes parents, ma nièce, etc.). Du coup en tant que Michu ils ont juste à brancher, et ça marche. Dans cette utilisation, je t’assure que oui, Linux est aussi simple à utiliser que Windows, pour eux. C’est pareil pour toi : si je t’installais Linux de façon à t’épargner toute la phase d’installation/configuration/comment installer ceci/comment faire cela, je t’assure que tu trouverais Linux vachement plus simple.



Maintenant imagine si tu demandais à Mme Michu d’installer un Windows en dual boot sur une machine où il y a déjà un Linux. À mon humble avis ils seraient pas mal paumés… Dis-toi que c’est ce qui t’arrive à toi quand tu essayes d’installer Linux.



Bref, il faut arrêter de comparer un Windows pré-installé et clé-en-main où Mme Michu a juste à appuyer sur le bouton ON, avec l’installation de zéro d’une distribution GNU/Linux. Ce n’est pas objectif comme comparaison…


Le 25/01/2016 à 12h 07







MuadJC a écrit :



Et moi ça me gave…

Ya toujours un pépin quand je veux passer à nux, tout plein d’enthousiasme à chaque fois.

Faudra que tu m’expliques comme tu arrives à faire dual boot avec w10, car Mint refuse carrément d’installer le grub.



(et après on me traite de troll quand je dis que Windows reste plus simple d’accès aux simples mortels… :( )







Il faut rappeler que le SecureBoot a été imposé de manière unilatérale par Microsoft, avec un système de certificats qui n’est pas ouvert et est difficile à obtenir. Donc à partir du moment où tu actives le SecureBoot, ça marche impeccable sous Windows mais ça peut être galère si tu veux installer Linux. C’est facile de dire que Linux est « compliqué », quand Microsoft impose des modifs de l’UEFI qui ne sont compatibles qu’avec Windows, et fait payer les certificats entre 1500 et 70000 Dollars



Certaines distributions ont accepté de passer à la caisse pour obtenir des certificats, comme Fedora, mais tu comprendras que toutes ne l’ont pas fait, surtout les distributions non-commerciales…



Linux Mint supporte pleinement l’UEFI, par contre il n’est pas certifié SecureBoot, comme indiqué dans les notes de publication :





UEFI is fully supported.



Note: Linux Mint does not use digital signatures and does not register to be certified by Microsoft as being a “secure” OS. As such, it will not boot with SecureBoot. If your system is using secureBoot, turn it off.







Bref, la première chose à tester est de désactiver le SecureBoot dans ton BIOS, et là Linux Mint devrait s’installer sans souci. Par contre ça va peut-être poser problème à ton Windows, qui va peut-être gueuler que ça a été désactivé… À tester.



Ou alors, tu installes Fedora qui devrait être capable de s’installer même avec le SecureBoot.



« Ça me gave, Linux c’est compliqué »… Ben oui, en l’occurrence cette complication est dûe à Microsoft, remercie-les <img data-src=" />


Le 23/01/2016 à 10h 54







jaguar_fr a écrit :



Dommage que NXI n’en parle pas. Les autres sites, par méconnaissance croient que l’on va tout développer,

seul Numerama en parle avec du recul et est le seul à indiquer qu’on peut juste se faire une distribution Linux ou BSD avec tous les avantages qui vont avec, et que çà existe déjà:

 

http://www.numerama.com/tech/138683-los-souverain-made-in-france-existe-deja-dec…

 

Je préférerai voir çà dans nos sous marins plutot qu’un Windows obsolète comme chez les anglais

http://www.usine-digitale.fr/article/les-sous-marins-nucleaires-britanniques-tou…







+1 enfin quelqu’un qui voit un peu plus loin que le bout de son nez. <img data-src=" />



J’ai aussi été étonné de voir certains médias décrier cette proposition, comme si l’idée était de développer un OS à partir de zéro… Évidemment que ce genre d’idée est surréaliste !! Il s’agirait bien plus de développer un OS à partir d’une distribution GNU/Linux, où tout l’OS est déjà construit, et une très vaste majorité de logiciels existent déjà…



Autre idée à laquelle tordre le cou : que cet OS serait pertinent ou pas pour les particuliers, dire que les entreprises n’en voudraient pas, que les particuliers ne voudraient pas installer un OS approuvé par l’État, et ainsi de suite… L’intérêt d’avoir un OS souverain, ce serait avant tout pour les administrations !! On s’en fout de savoir si ça intéresse les particuliers ou les entreprises. Le but serait que l’État dispose de son propre socle standard, à savoir OS + applis métiers spécifiques pour les administrations. Un socle standard, pérenne, que les administrations pourront faire évoluer à leur guise, en toute indépendance des géants américains. Et la population et les entreprises pourront bien continuer à utiliser Windows ou Mac OS X s’ils veulent, ça n’a juste rien à voir avec ce projet d’OS souverain…



Bref voilà encore une proposition que chacun a regardé de sa petite lucarne en pensant à ses propres intérêts. Peu de gens comprennent effectivement les intérêts majeurs qu’un véritable OS souverain pourrait apporter…


Le 23/01/2016 à 08h 55







WereWindle a écrit :



Pour les 3 Go, un OS n’est pas un simple patchwork de module qu’on peut mettre ou pas et ayant une granularité jusqu’à l’élément corrigé (genre tu peux pas changer juste un bout et faire l’économie de toucher au reste du module concerné sans tout péter)

(le § ci-dessus est une pure présomption personnelle non sourcée)







Que l’OS ne soit pas granulaire au ko près ça peut se comprendre.



Mais cette mise à jour pèse 3 Go à télécharger et nécessite 7,5 Go pour s’installer… Ça correspond à environ la moitié de la taille totale de l’OS… Y’a sûrement moyen de faire mieux <img data-src=" />


Le 22/01/2016 à 21h 22







Sylvounet a écrit :



Les deux seules raisons qui me font garder un Windows en dual-boot :




  • 1 jeu, en l’occurence World of Tanks, qui n’a pas de portage linux;

  • la suite Office, qui n’a aucun concurrent (et par pitié, que l’on ne me parle pas de LIbreOffice…);



    Mais pour tout le reste, tous mes ordis sont sous Ubuntu et franchement ça marche très très bien.







    MS-Office 2010 s’installe très bien sous Linux à travers PlayOnLinux. Malheureusement les versions plus récentes (2013, 2016) ne fonctionnent pas aussi bien.



    Ensuite, World of Tanks a l’air de fonctionner assez bien aussi sous WINE/Linux (Source : WineHQ). Il faut tester, et voir si les performances sont suffisantes.



    Si tu arrives à faire fonctionner les deux sous Ubuntu…


Le 22/01/2016 à 13h 19



Enfin, on aimerait que Microsoft revoit certains mécanismes pour ces mises à jour. Lourdes (environ 3 Go), elles se déclenchent sans avis de l’utilisateur et sans tenir compte de l’activité en cours sur l’ordinateur. Le téléchargement se fait en fond, mais sans limiter le flux, provoquant une saturation de la connexion et donc un ralentissement extrême de tout ce que l’on fait sur Internet à ce moment. Il faudrait donc au minimum un avertissement et la possibilité de repousser le téléchargement à un moment plus adapté, voire de définir un seuil de vitesse à ne pas dépasser.





J’imagine que ce genre de chose fait partie des avis remontés par les testeurs ? Quelle est la position de Microsoft sur ce point : pas de réponse ? Ils ne changeront rien ? C’est prévu pour plus tard ?…

Le 25/01/2016 à 22h 29







v6relou a écrit :



tl;dr.

C’est la mode 2016 sur PCI de commencer chaque message par une attaque ad hominem ?







Si le message est le même, c’est sans doute que la personne qui le tape est la même…


Le 25/01/2016 à 20h 30







pentest a écrit :



Serieusement, quelqu’un joue avec le pilote libre nvidia ? Le pilote proprio fait tres bien l’affaire, bien mieux que n’importe quel pilote AMD.







Encore une fois : pas la peine de faire ce genre de généralités, tout dépend des besoins de chacun.


Le 25/01/2016 à 16h 52







Furvent a écrit :



Et même transcrire dans la loi les propositions les plus farfelues ou inapplicables ?



 On ne peut pas forcer les administrations à choisir des logiciels libres car celles-ci doivent obéir aux règles des marchés publics, qui sont du niveau de l’Europe et qui imposent de mettre en concurrence tous les acteurs.







Tu dois bien mal connaître le sujet pour donner des arguments pareils…



Tu as une preuve que d’utiliser des formats de fichiers ouverts et des logiciels libres, c’est « inapplicable » ? Non parce qu’il y a déjà certaines administrations qui les utilisent, comme la Gendarmerie Nationale…



Ensuite, ça me fait bien marrer que tu mettes en avant la concurrence et les marchés publics. Aujourd’hui ce qui est privilégié c’est de renouveler les contrats avec toujours les mêmes entreprises (Microsoft, Oracle…) en Open Bar, et parfois sans appel d’offre… Elle est où la concurrence là ? <img data-src=" />



Au contraire, privilégier des formats ouverts et des logiciels libres mettra bel et bien plusieurs entreprises en concurrence, puisqu’un logiciel libre n’est pas la « propriété » d’une seule entreprise. Là on peut commencer à émettre de vrais appels d’offre et mettre plusieurs entreprises en concurrence.



Enfin bon on ne va pas débattre de ce sujet ici, ce n’est pas le sujet de l’article…


Le 25/01/2016 à 15h 38

Oui enfin quand on fait une consultation il faudrait écouter les citoyens aussi, et non pas se torcher le c*l avec <img data-src=" />

Le 23/01/2016 à 15h 34







EricB a écrit :



Le hic reste toutefois tjs le meme: des app de pietre qualité ou manquantes sous WP. Quoiqu en France ou les Lumia ont ~10% de pdm, c est plutot pas mal. En Allemagne, les services de transports ou culturels ne connaissent que l iPhone et Android…







Ça a toujours été la même chose sur les ordinateurs de bureaux : bien que les Mac représentent plus de 10% des ordinateurs, la plupart des logiciels ne sont conçus QUE pour Windows… Et c’est le serpent qui se mord la queue : peu d’applications donc du coup les gens hésitent à quitter Windows ; peu de gens utilisent autre chose que Windows donc les développeurs ne développent pas pour Mac ni pour Linux.


Le 23/01/2016 à 08h 58







sr17 a écrit :



Un peu de lecture : document pdf



Je cite :







Mais je veux bien croire que tout le monde ne perçoit pas immédiatement les conséquences de ce “petit détail”.







Lien corrigé <img data-src=" />


Le 22/01/2016 à 18h 09







Drepanocytose a écrit :



Bon bah comme déjà dit, que la DCA pose la question aux utilisateurs de la seule vraie manière non-hypocrite, et je suis curieux de voir les réponses : “êtes-vous prêts à payer plus cher vos smarts d’entreée de gamme / moyenne gamme pour qu’ils soient mis à jour plus souvent ?



Je n’ai absolument aucun doute sur le côté vers lequel pencheront les réponses. Aucun.







Ben c’est pour ça qu’il ne faut pas poser la question aux gens <img data-src=" />



Je dis ça à moitié en rigolant mais bon… Si tu demandes aux gens, ils voudraient à la fois :



(1) aucune mise à jour parce que c’est chiant à installer ;

(2) une sécurité parfaite.



À un moment donné il faut arrêter de demander leur avis aux gens, surtout sur des questions aussi complexes auxquelles ils ne panent rien (en l’occurrence la sécurité d’un OS).



Que Samsung (et les autres) sécurisent leur OS est la meilleure chose à faire. Ça coûte de l’argent, qu’ils augmentent leurs prix de vente pour compenser, ça sera comme ça et puis voilà.


Le 22/01/2016 à 16h 13







EMegamanu a écrit :



Il serait appréciable que cette plainte aboutisse.



Samsung est loin d’être le seul a abandonner trop rapidement le support de ses appareils.



Quand tu sais qu’un appareil moyen voir haut de gamme sorti il y a seulement 18 mois (donc encore sous garantie en Europe), et que le support est abandonné malgré la découverte très récente de failles jugées critiques… ça fait réfléchir.







+1



J’espère aussi que cette plainte va changer les mauvaises habitudes des constructeurs, et les inciter à vraiment supporter leurs appareils (=sortir des mises à jour, au minimum les màj de sécurité rapidement).



Au tout début quand Android avait peu de parts de marché ils pouvaient se permettre de traiter les smartphones comme les dumbphones : c’est-à-dire vendu avec un OS qui ne change pas pendant la durée de vie de l’appareil. À la limite ça n’avait pas trop de conséquences. Mais aujourd’hui, avec toutes les failles qui ont été découvertes, il est clair que les constructeurs doivent changer leur politique, et mettre à jour Android, sinon une grande partie des utilisateurs seront à la merci du moindre malware qui passe.


Le 22/01/2016 à 12h 33







Patos le fourbe a écrit :



Alors, chère ministre de la Culture, sache qu’en français, lorsqu’on écrit une lettre en majuscule, on doit lui retirer toute accentuation. LE ç devient C, le é devient E, etc. Tout forme de majuscule accentuée est un usage abusif des jeux de caractères, mais une majuscule accentuée CA N’EXISTE PAS EN FRANCAIS !







Alors, cher Patos le fourbe, sache qu’en français, lorsqu’on écrit une lettre en majuscule, on doit lui appliquer toute accentuation. LE ç devient Ç, le é devient É, etc. Tout forme de majuscule non-accentuée est un usage laxiste des jeux de caractères, mais une majuscule accentuée ÇA EXISTE TOUT À FAIT EN FRANÇAIS ! <img data-src=" />



Source : Académie française



Ça a déjà été dit plusieurs fois dans les commentaires en plus… <img data-src=" />


Le 22/01/2016 à 09h 33







MacGuiPro a écrit :



Je suis d’accord pour dire qu’il faut que le marché s’autorégule. Si Canon décide que vendre aux particuliers sous Windows/OSX c’est plus rentable que de vendre des imprimantes pros, c’est leur choix. Si leur analyse technico-économique révèle que vendre de l’encre à la nano-goutte ça rapporte plus que du toner en gros (peut-être que non), c’est leur choix.



Mon dogme à moi c’est que rien ne peut obliger le marché à devoir répondre à des besoins particuliers si il n’a pas envie.







Ben oui, et après tu as beau être un client intéressé et enthousiaste, tu ne peux pas obliger une entreprise à voir l’intérêt commercial d’un produit. Du coup quand le marché change elle se vautre.



L’exemple le plus cinglant qui me vient en tête, c’est la réaction de Steve Ballmer après l’annonce du premier iPhone, en 2007 :



« Haha ! 500 Dollars pour un TÉLÉPHONE ? C’est le téléphone le plus cher du monde, et ça n’a aucun intérêt pour les entreprises car il n’a pas de clavier, ce qui n’en fait pas un très bonne machine pour les emails… Nous, nous avons notre stratégie, nous avons de très bons appareils mobiles avec Windows. »



Sans aucun doute un très grand visionnaire…


Le 21/01/2016 à 14h 10







MacGuiPro a écrit :



Dire “mais qu’elles le soient toutes de base”, c’est pas obliger chaque fournisseur de hardware à être compatible avec Linux ? Il faudrait faire une loi pour l’obliger, non ?







Non, il faut surtout que les constructeurs comprennent qu’ils ont un intérêt commercial à développer des pilotes.



Pour reprendre l’exemple calamiteux de Canon que j’ai évoqué plus haut : il y a quand même beaucoup d’entreprises qui utilisent des serveurs UNIX ou Linux, avec un serveur CUPS d’où sont gérées toutes les imprimantes. Ces entreprises ne vont certainement pas acheter du Canon vu l’absence ou la qualité merdique de leurs pilotes pour Linux… Le jour où Canon voudra conquérir ces marchés ils se bougeront le cul et feront des pilotes.



Tous les problèmes ne se résolvent pas avec des lois, il faut arrêter de croire en l’État Providence… En l’occurrence la situation est simple : il y a un constructeur qui veut vendre son produit et augmenter ses parts de marché, et un consommateur (particulier, entreprise…) qui veut un produit qui fonctionne chez lui.



Sinon pour ma part j’ai un Ultrabook très récent (ASUS Zenbook UX305), et tout est supporté sous Linux… sans même avoir besoin de loi pour forcer les constructeurs.


Le 21/01/2016 à 09h 51







Porkepix a écrit :



J’aurais pourtant eu tendance à dire de privilégier les puces Intel, généralement très bien supportées











miles_t a écrit :



Je n’ai pas eu tous les modèles, mais chaque fois que j’ai configuré des séries pro (T ou X pour moi), ou regardé si un nouveau modèle valait le coup, les cartes wifi parmi lesquelles choisir (2 ou 3) étaient toutes des Intel.







Oui, le support est bon pour une raison bien simple : Intel conçoit toujours des pilotes pour Linux, que ce soient leurs chips WiFi, leurs puces graphiques intégrées (HD4000, HD5000 etc.). J’ai un Ultrabook avec un Intel Core M et IGP HD 5500, tout est parfaitement reconnu, les jeux tournent en 3D et tout.



Quand les pilotes sont là, tout fonctionne sans se prendre la tête… Si tous les constructeurs fournissaient des pilotes pour Linux ça simplifierait grandement les choses.


Le 22/01/2016 à 09h 23







sr17 a écrit :



Et ceux qui se vantent de pousser les suites bureautique dans leurs derniers retranchement sont complètement à côté de la plaque parce que passé un certain point, il existe des outils informatiques bien plus performants que les suites bureautique.



Exemples :



Calculs très complexes faits avec un tableur : Apprenez la programmation, c’est 1000 fois plus puissant et rapide.



Données gérées avec un tableur : Apprenez à utiliser une vraie base de données, question puissance, ça n’a rien à voir.



Documents complexes faits avec un traitement de texte : apprenez à vous servir d’un logiciel de PAO.



Et l’on peut multiplier ce genre d’exemple à l’infini…







C’est tellement vrai… La plupart du temps les entreprises (surtout les PME) ont recours à des logiciels courants et tout-public (du genre de MS-Office) alors que ce n’est pas du tout adapté à ce qu’ils veulent faire !! Incroyable de voir que ces gens préfèrent s’emmerder à développer des macro ultra-complexes en VB dans Word ou Excel, plutôt que d’aller voir ailleurs si des logiciels mieux adaptés n’existent pas…



Je peux ajouter deux exemples au moins à ta liste :





  • un ancien collègue qui voulait traiter des tableaux de données (en gros des fichiers texte avec des millions de nombres). Solution retenue : copier/coller tout ça dans Excel (voilà comment ça rame…) et développer une macro pour faire ses calculs. Cerise sur le gâteau : quand il est passé de MS-Office 2003 à 2010, ses macros ne marchaient plus…



  • une PME que je connais, qui doit traiter des fichiers XML (là encore des fichiers texte). Solution retenue : mettre le XML dans Word, et développer des macros pour le transformer…



    Et il y a sûrement plein plein d’autres exemples : les PME qui utilisent Excel pour tenir leurs comptes, ou comme base de données clients… Ça me fait bien marrer quand ces gens-là t’expliquent doctement que « il n’y a pas de meilleur logiciel, MS-Office c’est ce qu’il y a de mieux et ça marche partout ». Comprendre : « j’ignore qu’il existe des logiciels spécialisés et mieux adaptés, et je n’ai pas envie d’apprendre autre chose »…


Le 21/01/2016 à 11h 29







jinge a écrit :



Pourtant le docx est 100% lisible et interprétable. Donc le problème vient bien des logiciels open-source qui n’arrivent pas à l’interpréter. Pour le coup c’est pas dela faute de MS.







Le docx en OOXML Strict est 100% ouvert, lisible et interprétable comme tu dis.



Le problème c’est que TOUTES les versions de MS-Office produisent du docx en OOXML Transitional par défaut, du coup ces documents contiennent des fonctions et des blobs binaires non documentés. Ce sont ces documents-là qui posent problème quand on les ouvre avec une autre suite (LibreOffice…) ou sur un autre OS (Mac…).



Sans le savoir, tout le monde enregistre ses fichiers en OOXML Transitional, parce que quasiment personne ne prend la peine de faire Sauvegarder sous -&gt; Format OOXML Strict. Comme toi, beaucoup de gens croient que maintenant docx est un format ouvert et que c’est bon, ça passe partout… alors que c’est faux.



Pour le coup oui, c’est la faute de Microsoft. OOXML Strict est standardisé depuis 2008 : pourquoi n’est-ce toujours pas le format par défaut dans MS-Office 2010, 2013, 2016, bon sang ?? <img data-src=" />


Le 21/01/2016 à 10h 00







jinge a écrit :



Après les formats de fichiers, il vaut effectivement mieux qu’ils soient soit ouverts soit standards afin que l’appel d’offres suivant puisse avoir lieu sans tout révolutionner…







C’est surtout ça le nœud du problème. Quand un appel d’offre demande par exemple, « un logiciel capable d’ouvrir parfaitement les fichiers au format DOCX de Microsoft », il ne peut y avoir absolument aucune concurrence. Et c’est loin d’être le seul exemple.



C’est du pipeau tout ça. Ça sent les pots-de-vin lobbying forcené à plein nez, et à chaque fois les politiques renient ce qu’ils avaient dit, renient ce que veulent les citoyens… S’ils ne savent que suivre les volontés des grosses entreprises, qu’ils le disent tout de suite et qu’ils arrêtent de faire des consultations publiques hein, au moins ce sera clair…


Le 21/01/2016 à 09h 55

Ben voyons… Continuons à offrir des contrats Open Bar aux grandes entreprises américaines, ça leur a si bien réussi ! Notre souveraineté numérique est secondaire hein, ce n’est pas grave si toute notre administration est archi-dépendante des géants américains pour lire ses documents…



Lamentable à tous points de vue <img data-src=" />

Le 20/01/2016 à 16h 38







Mihashi a écrit :



Sauf que :

Si tu utilises linux, on te dit que c’est la faute de linux.

Dans le cas de Mme Michu, on lui dit que c’est son PC (ou l’imprimante) qui est trop vieux, et qu’il faut en racheter un.







Tellement vrai…



Un matos ne marche pas sous Windows : « ce matos c’est de la merde ».



Un matos ne marche pas sous Linux : « Linux c’est de la merde ».



Troll level : IT’S OVER 9000 !!!


Le 20/01/2016 à 15h 56







MuadJC a écrit :



“On” tape souvent sur w10 ces temps-ci pour sa mauvaise communication.

Il n’empêche que ce week-end j’ai été changer la CM+proc de mon neveu, il n’a pas eu besoin de réinstaller Windows.

Au premier démarrage, sans être branché au réseau, Windows a détecté et a installé les pilotes nécessaires puis a fini de booter comme si tout était normal ^^



Je ne sais (vraiment) pas si linux en est capable actuellement.







Oui il en est capable. À titre personnel je l’ai déjà fait plusieurs fois :





  • sur mon serveur : Linux installé sur un RAID 1 logiciel (mdadm), changement de CM + CPU + RAM (oui je suis joueur… j’avais fait des sauvegarde bien sûr <img data-src=" /> ).



  • sur mon ordi de bureau : changement de CM + CPU + RAM + carte graphique.



  • sur mon ordi de bureau : Linux installé sur un disque dur, que j’ai migré vers un RAID de SSD.



    Tu rebootes et ça marche. Tu peux même passer d’un CPU Intel à AMD ou l’inverse.


Le 20/01/2016 à 14h 16







thedan a écrit :



Apres t avouera quand meme que madame Michun va pas aller vérifier si l’imprimane Canon qu’elle viens d’acheter est compatible ou pas…. D’ailleurs pour Madame Michun, tout est compatible







Ah ça je suis bien d’accord, Mme Michu n’ira jamais vérifier que le matos est compatible avant de l’acheter.



Du coup si elle a un vieil ordi sous Windows XP, et qu’elle achète une imprimante ou une webcam toute neuve, il y a des chances pour que ça ne soit pas reconnu sous XP, car pas de driver…



À l’inverse, si Mme Michu a une vieille imprimante et qu’elle achète un PC tout neuf avec Windows 10, elle risque d’avoir des problèmes…



Tous ces problèmes peuvent être réduits à une seule et même cause : est-ce que le pilote existe pour ton OS ou pas.


Le 20/01/2016 à 13h 48







thedan a écrit :



Mouais d’assez mauvaise fois … Quand t’as pas un truc esosterique ou autre ça marche souvent sous windows. Sur tout que cet OS a une base de drivers assez folle ! Surtout que là, Creative, je crois pas que ça soit la petite marque chinoise…







J’aime bien cette tournure de phrase. Quand t’as pas un truc ésotérique ou autre, ça marche souvent sous Linux aussi hein… <img data-src=" />



À une époque j’avais acheté une imprimante Canon, grosse erreur : Canon ne fournit pas de pilotes pour Linux. Il faut le savoir, et boycotter cette marque si on utilise Linux, c’est tout. Le problème ce n’est pas Linux, c’est que Canon refuse de développer des pilotes pour Linux. Tant pis pour eux, ils ont définitivement perdu un client. Depuis j’ai acheté une imprimante Brother et ça marche parfaitement bien (impression A4, A3, scanner). Idem avec mes parents qui ont une imprimante Epson : on branche en USB et ça marche tout de suite. Non vraiment, le problème ce n’est pas Linux, c’est juste Canon quoi…



Idem avec une carte son Xonar DGX achetée il y a peu : je l’ai branchée, reconnue immédiatement comme carte 5.1 dans PulseAudio… Ça c’est user friendly.



Encore une fois, ce n’est pas l’OS qui est à mettre en cause (Windows ou Linux), mais le constructeur du matériel. Si le constructeur conçoit le pilote pour ton OS, ça marche. S’il n’en fournit aucun, c’est la merde. Parfois la communauté bricole un pilote dans son coin, ça peut plus ou moins marcher, mais y’a pas à tortiller : s’il n’existe pas de pilote officiel développé par le constructeur, c’est la merde, et ce quel que soit l’OS.


Le 20/01/2016 à 11h 47







thedan a écrit :



Sous window$,  je branche, j’installe le pilote ça marche !







Ben, à condition que le pilote existe… Pas mal de gens se sont retrouvés avec des webcams, imprimantes, cartes son, et autres qui ne fonctionnaient plus, quand ils sont passés de Windows XP à Windows 7. Idem en passant à Windows 10 : certains pilotes n’existent pas et les gens ne peuvent plus faire fonctionner leur matériel. À l’inverse, j’ai eu une carte WiFi qui était reconnue immédiatement sous Linux, et sous Windows c’était la galère pour l’installer (sans compter qu’il fallait redémarrer 3 fois).



Bref, un exemple comme ça ne permet pas de dire « c’est plus simple sous Windows que sous Linux ». Une conclusion plus juste serait de dire : « c’est plus simple quand le pilote existe, que quand il n’existe pas »…


Le 20/01/2016 à 10h 36







MuadJC a écrit :



En fait j’aurai du dire des kevin



Car ma dernière tentative était SteamOS, et c’est de réussir à faire tourner les jeux sans fiche en vrac le système qui m’a découragé (peut-être était-ce la faute à la distrib “beta”).







Je n’ai pas testé SteamOS. En revanche j’ai installé Steam sur plusieurs machines et les jeux s’installent et tournent sans problème. Le mode « Big Picture » de Steam fonctionne aussi. À tester, c’est peut-être plus simple à gérer que SteamOS ?


Le 20/01/2016 à 09h 45







MuadJC a écrit :



Non sérieusement, je compte bien réessayer Linux, mais je pense attendre encore que sa Michuisation soit améliorée. On a tous en nous une part de Michu.







À défaut d’être encore massivement adopté, GNU/Linux est prêt pour le desktop.



Comment je le sais ? C’est ce que j’ai installé à mes parents qui sont des Michu… Ils s’en servent sans aucun problème : Web, bureautique, emails, copier des photos de leur APN, scanner des documents, utiliser Skype…



Franchement si tu veux vraiment essayer vas-y, ça ne coûte rien : crée une clé USB bootable avec Linux Mint, et démarre dessus, tu peux le tester sans rien installer sur ton disque dur. Si tu veux tester davantage tu peux faire un dual boot Windows / Linux. Ou alors, crée une machine virtuelle (par ex. avec Virtualbox) et installe un Linux dedans.



Par contre il faut être conscient qu’il faut perdre certaines habitudes windowsiennes : plus question d’aller télécharger des setup.exe, tous les logiciels s’installent via le gestionnaire d’applications.


Le 20/01/2016 à 10h 34







Vincent_H a écrit :



Je te confirme que c’est toujours le Transitional par défaut dans 2016 (PC et Mac).







Sur le papier Microsoft incite à utiliser OOXML Strict, qui est le format standard. Et je suis d’accord avec eux sur ce point : utilisez OOXML Strict les gens, c’est le seul format qui est géré aussi bien par toutes les suites, y compris LibreOffice…



Mais dans la pratique, Microsoft continue de faire de OOXML Transitional le format par défaut dans MS-Office, et ça, c’est dégueulasse. Ce décalage entre ce qu’ils disent et ce qu’ils font…


Le 20/01/2016 à 10h 06







Laelen a écrit :



c’est normal c’est parce que Libre Office c’est le super foutoir dégueulasse ça fait 1000 fois qu’il prétendent avoir amélioré la compatibilité avec Office et c’est toujours du grand n’importe quoi codé avec les pieds au final !! rien d’étonnant à ce que la domination d’Office continue !!







Ce que tu dis est faux à tellement de niveaux, je ne sais même pas par où commencer… <img data-src=" />



On va simplifier le problème : supposons que LibreOffice n’existe pas, comme ça on n’en parlera pas, ça t’évitera d’avoir des boutons.



La compatibilité de MS-Office avec ses propres formats est catastrophique :







  • Le format OOXML Strict a été normalisé en 2008, et pourtant MS-Office 2010 ne sait ni le lire, ni l’écrire.

  • Un fichier docx au format OOXML Standard créé avec MS-Office 2013, ne pourra pas être lu par MS-Office 2010. De même qu’un fichier docx créé par MS-Office 2010 ne peut pas être lu par MS-Office 2003… En fait chaque nouvelle version casse encore la rétro-compatibilité.

  • Le OOXML Strict, format normalisé et standard, n’est le format par défaut sur aucune version de MS-Office (sauf peut-être la 2016). Les versions 2010 et 2013, de loin les plus utilisées, continuent d’utiliser le format OOXML Transitional par défaut.







    À cela s’ajoutent les problèmes qu’il y a quand on passe de MS-Office sous Windows, à MS-Office sous Mac, alors là… Mise en page pétée, images qui ne passent pas, etc. Microsoft n’est pas capable de faire un MS-Office pour Mac qui soit 100% compatible avec la version Windows ? Bien sûr qu’ils le pourraient ! Mais si la version Mac pose problème, les gens hésiteront à changer d’OS et resteront sous Windows par sécurité…



    Et que dire des C-fonts… Des polices de caractères au format propriétaire, introduites avec Windows Vista (elles ne peuvent pas être installées par défaut sur les autres plates-formes), et que Microsoft a eu la bonne idée de mettre par défaut dans MS-Office 2010. Ben oui, comme ça on est sûr que si on ouvre un document sous Windows XP, ou sous Mac, ou sous Linux, où ces polices n’existent pas, elles sont remplacées par d’autres polices, et donc la mise en page est pétée… Encore une fois pour être sûr de pouvoir ouvrir ses documents, obligé de rester sous Windows.



    Bref, même si LibreOffice n’existait pas, ça ne changerait rien au fait que les différents formats non-standards de MS-Office, c’est un foutoir sans nom. Il y a quasiment toujours des problèmes, que ce soit quand on change de version de MS-Office, quand on change d’OS (sous Mac par ex.), quand on change de format (pour adopter OOXML Strict par ex.)… Tout est fait pour que l’utilisateur rencontre des problèmes s’il n’utilise pas le couple Windows + MS-Office.



    Alors, c’est codé avec les pieds, ou c’est fait volontairement pour emprisonner les gens ?…


Le 20/01/2016 à 10h 13







ErGo_404 a écrit :



Euh, Hololens approche, il sera commercialisé, et ils ont fait une annonce en ce sens il y a un ou deux jours.







Tu parles des rumeurs de ces derniers jours, qui font état d’une version de développement qui arriverait bientôt pour 3000 $ ? En attendant toujours pas de date de sortie, toujours pas de prix public…



Déjà je suis sceptique quant à la réussite commerciale de l’Oculus Rift à 740 €. Si ça fait un flop, il est possible que Microsoft attende avant de se lancer sur ce marché…