votre avatar Abonné

Okki

est avec nous depuis le 11 novembre 2009 ❤️

Bio

Linuxien depuis 1996, actuellement sous Fedora avec l'environnement de bureau GNOME.

I ❤️ systemd, Flatpak, PipeWire, Wayland… et toutes les nouveautés qui font hérisser le poil des grincheux (sauf si ça vient de Canonical 😝)

1318 commentaires

Le 10/11/2015 à 21h 58







deepinpact a écrit :



C’est bien beau d’évoquer les standards, les formats ouverts, le souverainisme… Mais c’est oublier que l’utilisateur final lui fait preuve de pragmatisme. S’il un logiciel proprio lui permet de faire à moindre coût ce que ne permet pas de faire ton logiciel, tu vas juste dépenser de l’argent pour rien !







Tu regardes trop sur le court terme. Alors ok, Microsoft sera toujours là demain. Maintenant, c’est loin d’être le seul éditeur et les collectivités doivent utiliser de nombreuses applications.



Par le passé, j’ai travaillé pour une entreprise qui avait commandé une application métier développée sur mesure. Pendant plusieurs années, tout s’est bien passé. Puis un jour, l’éditeur de l’application a mis la clé sous la porte.



Ayant acheté une application propriétaire et ne disposant pas des sources, quand il a fallu la faire évoluer, mon entreprise s’est retrouvée bien emmerdée. Obligé de faire appel à un nouveau prestataire pour redévelopper une nouvelle application de zéro, ce qui leur a coûté infiniment plus cher que s’ils avaient pu faire évoluer l’existant, tout en ayant un temps de développement, et donc de mise en service, bien plus longs.



Avec du logiciel libre, ils n’auraient pas eu ce souci. On gagne vraiment en indépendance (on peut changer de prestataire à tout moment), en flexibilité (en ayant la possibilité d’adapter l’application à ses besoins, de la faire évoluer comme on le souhaite) et en pérennité.



Ensuite, un autre avantage du libre, c’est qu’il se base généralement sur d’autres technologies libres, ce qui lui permet bien plus facilement d’envisager le multi-plateforme. Quand tu dis que l’utilisateur fait preuve de pragmatisme et qu’il choisit l’outil le moins cher qui répond le mieux à son besoin, tu oublies qu’un certain nombre d’applications ne sont pas disponibles sur toutes les plate-formes. Et j’irai même jusqu’à dire que l’écrasante majorité des applications qui le sont, sont généralement des applications libres. Quand on dispose d’un parc hétérogène, c’est aussi à prendre en compte.


Le 10/11/2015 à 20h 55







deepinpact a écrit :



Juste quelques questions un peu bête : C’est qui “on” ? C’est qui “tous” ?







J’aimerai dire l’Europe dans son ensemble, mais rien que la France, ça serait déjà bien. Quant au tous, c’est encore mieux, puisque le libre bénéficie à l’ensemble de l’Humanité, sans distinction.







deepinpact a écrit :



Est-ce vraiment le rôle de l’état, des collectivités, des agences nationales, des institutions de se substituer aux SS2I que sont ATOS, CapGemini, ou aux éditeurs que sont Microsoft, Oracle ou IBM…?







Je ne saurai dire sous quelle forme ça doit se faire. Contributions financières aux projets utilisés, contributions de chercheurs payés par sur fonds publics à des projets libres (certains le font déjà), création d’un organisme du logiciel libre employant des fonctionnaires pour contribuer à des projets libres existants ou spécifiques aux besoins de certaines administrations ? Mais ça serait un grand pas en avant que d’y réfléchir…







deepinpact a écrit :



Et pour finir, qu’est-ce qui se passe quand une startup scandinave ou un géant américain te sort une solution propriétaire de malade 1000 fois moins cher que la solution open source dans laquelle t’as englouti des centaine de milliers d’euros voir des millions d’euros en R&D ?







On dépense déjà des millions en licences. L’idée ce n’est pas de dépenser plus, mais de dépenser différemment.







deepinpact a écrit :



Parce que contrairement à ce que tu penses, des grands projets IT français ou européen il y en a certainement eu à la pelle ! Pour en citer deux le minitel, le geoportail IGN.

Au delà de la qualité intrinsèque de ces outils, quand tu les compare à leurs concurrents américain que sont l’internet et Google MAP par exemple, comprends-tu la difficulté que c’est pour un état d’avoir une approche IT stratégique nationale ?







Il s’agissait avant tout de projets privés ou commerciaux (ou vus comme tel). Si jamais ça devait se faire, je pense qu’il faudrait vraiment intégrer la notion de collaboration, que ce soit avec des pays, des entreprises ou de simples particuliers. Et puisque tu parles du Géoportail et des cartes IGN, j’ai envie de te répondre « regarde OpenStreetMap et tout ce que l’on peut faire en collaborant ».







deepinpact a écrit :



N’est-il pas utile pour une institution (comme pour une entreprise) de se recentrer sur le cœur de son activité et de gérer des budgets en adéquation avec cette activité ?

L’éducation gère l’éducation, la police la sécurité, la justice rend la justice, etc…







Je suis tout à faire d’accord, mais je ne demande pas à l’Éducation Nationale d’engager elle-même des gens pour ça. Par contre, puisque elle a un budget pour le contenu pédagogique, plutôt que de financer des éditeurs de manuels soumis au droit d’auteur traditionnel, elle pourrait, pour le même coût, privilégier le financement de projets sous licence libre.



Non seulement ça existe déjà, comme Sésamath, mais ce choix a également déjà été fait par d’autres, que ce soit en Californie ou en Inde. Signe que c’est bel et bien faisable.







deepinpact a écrit :



Et si le meilleur rapport/qualité prix d’un ordinateur se trouve chez un constructeur chinois… Tant pis !

Si le meilleur rapport/qualité prix d’une solution se trouve chez un constructeur américain… Tant pis !







Le problème, c’est qu’autant ça me paraît sensé pour une entreprise, qui se doit de faire du profit, pour qui nous ne somme que des clients potentiels et qui ne doit rendre de comptes qu’à ses actionnaires, autant dans le cas d’un État ou de collectivités, ça me dérange.



Ces derniers devraient avoir un projet de société, privilégier les biens communs, améliorer nos conditions de vie, respecter la devise de notre pays… Alors oui, je suis un idéaliste, mais je pense sincèrement qu’entre ma vision d’un idéal qu’on devrait tenter d’atteindre et la situation actuelle, il y a clairement moyen d’en faire un peu plus.







deepinpact a écrit :



Et donc au final, tu vas me dire, inutile de réinventer la roue, on passe par des SS2I qui vont nous installer de l’Open Source… Mais là, c’est plus le même coût… T’es 200 ingénieurs c’est 200 x 1000€/jour !







Le souci, c’est que tu as une vision trop capitaliste. On critique souvent le service public, mais plutôt que ta SSII qui se gaverait bien, avec des fonctionnaires du libre ça reviendrait bien moins cher :)



Je t’invite d’ailleurs à regarder cette vidéo sur le salaire à vie. Ils donnent d’ailleurs un très bon exemple à partir de la 14e minute.







deepinpact a écrit :



Et là, il ressemble à quoi ton ROI ?







Tout dépend de ce que tu intègres dans ton équation. Encore une fois, l’État n’est pas une entreprise et ne devrait donc pas s’arrêter au seul coût des licences. On peut prendre en compte la souveraineté nationale, le fait de créer des emplois locaux (qui paieront à leur tour des impôts), de privilégier des entreprises qui ne font pas de l’optimisation fiscale, d’améliorer le pouvoir d’achat des citoyens (si c’est libre et gratuit, ça leur fera toujours ça de moins à acheter)…


Le 10/11/2015 à 17h 28

Vous vous focalisez bêtement sur des points de détails. Même si ce n’était que 200 ingénieurs au lieu de 500, et sachant que l’État et les collectivités (et c’est applicable à toute l’Europe) sont coutumiers du 30 millions par-ci, 15 millions par-là, à l’arrivée, oui, on pourrait embaucher énormément de personnes compétentes pour travailler sur du logiciel libre, qui serait bénéficiable à tous.



Et c’est bien là le gros problème. Il n’y a aucun projet de société, il n’y a aucune mutualisation des moyens, aucune collaboration… On pourrait faire de grandes choses, mais les politiques et les décideurs se contentent de voir à très court terme. C’est plus sûr d’acheter des licences Microsoft ou SAP aujourd’hui, plutôt que de faire des plans sur l’avenir. Puis au moins, quoi qu’il arrive, personne ne leur reprochera d’avoir opté pour les solutions des leaders du moment. Comme ça, ils sont tranquilles.

Le 10/11/2015 à 13h 43







deepinpact a écrit :



Parce qu’au delà de la migration, de la formation qui ont un coût certain (kif kif que ce soit proprio ou open source), faut pas oublier le coût du support (et là c’est pas donné) et la maintenance en condition opérationnel qui nécessite d’avoir des techniciens assez pointus (surtout sur des technos Linux) avec des salaires 2030% plus élevés que les techniciens Microsoft…



Mis bout à bout, dans notre (petit) service, quand on étudie les différentes solutions, ça coûte souvent plus cher de migrer sur de l’open source que de rester sur du propriétaire…







Il y a réellement besoin d’autant de support ? En général, t’installe un poste Linux, tu reviens cinq ans plus tard, ça n’a pas bougé. Pas de virus, le système ne part pas tout seul en sucette par l’opération du Saint Esprit, il n’y a pas besoin de faire du vaudou pour que ça fonctionne… XD



Il y a peu, je lisais un article sur IBM qui abandonnait petit à petit ses PC sous Windows pour filer des Mac sous OS X a ses centaines de milliers d’employés. C’est proprio, mais tout comme Linux, ça reste une base Unix.



« Economies aussi de personnel. Reprenant des chiffres de Gartner, Fletcher Previn a déclaré que le ratio optimal d’administrateur/employés était de 1 pour 70, tandis que la moyenne constatée tournait autour de 1 pour 242. Chez IBM, auprès des utilisateurs de Mac, il est de 1 responsable pour 5 400 utilisateurs. Ils ne sont que 24 à gérer ce parc. Enfin, cette équipe est moins sollicitée : 5% des utilisateurs de Mac font appel à eux pour résoudre des problèmes, contre 40% pour les utilisateurs sur PC. »



J’ai donc limite envie de penser qu’avec une bonne distribution Linux, on pourrait obtenir la même chose. Un système qui juste marche et sur lequel il n’y a pas sans cesse besoin d’intervenir.


Le 09/11/2015 à 23h 28

Les outils en ligne de commande (qui ne doivent pas particulièrement intéresser le grand public) n’apparaissent pas dans la logithèque GNOME. Ça ne m’étonne donc pas plus que ça qu’ils ne soient pas mis en avant. Par contre, dans le cas de LibreOffice, je trouve ça fort étonnant (mais peut être qu’ils font l’impasse sur la mise en avant en cas de révision mineure ?)



Maintenant, la logithèque n’est qu’une possibilité. Même si c’est présent par défaut, rien n’empêche l’utilisateur de la désinstaller et de faire ses mises à jour en ligne de commande. Il pourra ainsi choisir exactement quoi mettre à jour ou bloquer certaines d’entre elles.



À partir du moment où tu commences à t’intéresser aux changelogs, à parcourir les bugs résolus, à désactiver certaines mises à jour… tu n’as plus vraiment le profil de l’utilisateur lambda et ce genre d’application ne t’est pas forcément destinée.

Le 06/11/2015 à 13h 48

Google Drive n’est qu’une option. Il faut tout d’abord installer le paquet gvfs-google (notons au passage que Cinnamon, Unity, Xfce ou Pantheon utilisant également GVFS, ils y auront également droit), puis ensuite activer et configurer ton compte Google dans les Comptes en ligne.



Et là encore, notons également qu’ownCloud (incluant la récente instance Framadrive) était déjà pris en charge et disponible parmi les différentes alternatives possibles.



Tout le monde n’accorde pas la même importance au Libre et aux questions de vie privée. Mais si tu commences à leur dire qu’ils ne pourront pas accéder à tels ou tels services, ou qu’il faudra passer par la ligne de commande pour chercher et installer une application, il est clair qu’ils préféreront rester sur des systèmes entièrement propriétaires.

Le 06/11/2015 à 11h 10

Je ne suis pas d’accord. Déjà, ça ne dépend pas de l’application, mais de la distribution sous-jacente. Par exemple, GNOME Logiciels sous Debian ou Arch ne va pas se mettre à te proposer tout un tas d’applications commerciales. Par contre, Ubuntu, qui a récemment décidé d’abandonner sa logithèque au profit de l’application GNOME, le fera sans doute. L’application n’est que le reflet des dépôts de la distribution.



Ensuite, à une époque, j’avais tenté de passer une connaissance sous Linux. L’une des grosses difficulté rencontrée fut son manque d’indépendance pour la recherche d’applications. Sous Windows, il utilisait des applications non disponibles sous Linux. Alors sans logithèque avec des descriptions en français (il ne parlait pas un mot d’anglais), des captures d’écran, une mise en valeur des applications prévues pour s’intégrer au mieux dans son environnement, il n’a pas su s’y retrouver (c’était il y a quelques années).



Il faut pouvoir parcourir des catégories facilement, pouvoir faire des recherches en français (malheureusement, encore aujourd’hui, retouche d’image ne trouve rien, alors qu’on obtient un certain nombre de résultats avec image editing… même s’il n’y a pas Gimp ou Krita dans le lot), une prise en charge des mots clés… pour que l’utilisateur puisse facilement trouver l’application idéale pour répondre à son besoin.

Le 06/11/2015 à 10h 07







psn00ps a écrit :



Cependant, Gnome Logiciels est nul.







Ça se destine surtout au grand public. Depuis une application graphiquement sympathique, il peut parcourir une liste d’applications avec des fiches descriptives contenant des captures d’écrans, des descriptions qui seront amenées à être traduites en français (puisque fournies par les projets upstream pour un résultat enfin distribution-agnostique, évitant ainsi la duplication d’efforts).



Tout aussi simplement, il pourra effectuer ses mises à jour, aussi bien pour ses applications ou le reste du système, que pour celles d’éventuels firmwares dont les constructeurs auront accepté de jouer le jeu.



Et tout comme sous Windows 10, on applique toutes les mises à jour et on reboot à la fin pour éviter les problèmes de compatibilité suite à une mise à jour de certaines bibliothèques, environnements et autres technologies, tout en s’assurant que l’utilisateur pourra jouir au mieux de ses dernières mises à jour.


Le 06/11/2015 à 09h 27







Cclaudic a écrit :



Mais pas adapter à mon utilisation de “vieux”.







Au pire, t’as également GNOME Classique ;)


Le 06/11/2015 à 08h 55







Cclaudic a écrit :



Si toi tu as besoin de chercher (fonction recherche) des applications ranger à leur place, libre à toi de penser que c’est logique.







Pour les applications, ça dépend.



Dans le mode Activités, tu as trois parties. Le dock situé sur le côté gauche, qui contient tes applications préférées rapidement accessibles, ainsi que celles en cours d’utilisation. Le dock contient également une option permettant d’afficher également les applications fréquemment utilisées (auquel on peut accéder directement depuis le raccourci Super+A) ou l’ensemble des applications.



Et bien évidemment, cette fonction recherche qui permet de trouver des applications par leur nom ou par une liste de mots clés. Et comme c’est plutôt bien foutu et que l’algorithme tient également compte de la fréquence d’utilisation, de faire Super puis f puis Entrée me lancera aussitôt Firefox. Ce qui est finalement infiniment plus rapide que de saisir sa souris pour aller cliquer sur le bouton ouvrant le menu, parcourir les différentes sections, aller dans Internet, puis trouver l’icône du navigateur.



Puis comme ça fonctionne également par mots clés, si je souhaite configurer mes DNS, hop, touche Super, dns, Entrée, et ça m’ouvre l’outil de configuration réseau. Pas besoin de connaître son nom ou de savoir où ils ont bien pu le ranger.



Puis comme c’est magique, ça permet également de trouver les applications qui ne sont même pas installées en m’ouvrant la logithèque directement au bon endroit pour me simplifier l’installation.



Tout comme ça permet également de rechercher parmi les événements de son agenda, ses contacts, ses notes, ses fichiers et autres documents, d’effectuer des calculs arithmétiques (plus rapide que d’aller chercher la calculatrice), de trouver des caractères spéciaux par leur description Unicode, de connaître l’heure ou la météo d’une ville, de retrouver un site dans son historique web, ses mots de passes et autres clés, les commandes en cours d’exécution dans un terminal (si on a tout plein d’onglets, ça peut être pratique), et bientôt parmi sa collection de jeux (installés depuis les dépôts de la distribution, Steam, les ROMS pour émulateurs…)


Le 06/11/2015 à 08h 14

Peut-être aussi que ça n’a strictement rien à voir avec le tactile ? La possibilité est offerte, mais ce n’est en rien une obligation. Le propre de GNOME, c’est d’être simple tout en étant efficace.



Si tu préfères un menu applicatif, généralement bien plus lent et mal pensé que la fonction de recherche de GNOME, tu peux. Si tu préfères un dock ou une liste d’applications au bas de l’écran, tu peux aussi.



Mais bon, on ne va pas rejouer ce vieux troll éculé <img data-src=" />

Le 06/11/2015 à 06h 48







Cclaudic a écrit :



Tellement pas de changement que j’ai l’impression d’avoir fait l’upgrade uniquement pour avoir libreoffice 5.







C’est ça d’avoir opté pour un environnement bloqué dans le passé <img data-src=" />


Le 06/11/2015 à 06h 47

À mon avis, tu lui parles chinois.



Les gens ne connaissent pas GNU/Linux et ne s’y intéressent pas. Et si jamais ils en ont tout de même entendu parler, en général ils en ont une vision complètement faussée.



Ça commence par les éternels clichés : tout doit se faire en ligne de commande et il faut être ingénieur à la NASA pour pouvoir s’en servir. Tout comme ils en ignorent toutes les possibilités, comme le fait de disposer de multiples distributions et environnements de bureaux adaptés à différents publics, différents besoins.

Le 05/11/2015 à 03h 26







nothanks a écrit :



edit : et Gnome ne passera par moi







Par pure curiosité, sachant que Fedora est clairement pro-GNOME, quel intérêt y a t-il a utiliser cette distribution si ce n’est pas pour GNOME ?



Pour MATE ou Cinnamon, autant installer Mint (distribution des développeurs de cet environnement). Et pour KDE, à entendre Kevin Kofler, Fedora 23 semble être la pire version de cet environnement qu’ils n’aient jamais sorti.



Franchement, pour moi, Fedora c’est GNOME.


Le 05/11/2015 à 07h 30

Tu peux le télécharger depuis leur CDN en http.

Le 03/11/2015 à 19h 09







Freud a écrit :



Wikipedia est gérée par une bande d’aministrateurs dictateurs et tyranniques. Wikipedia n’est absolument pas une encyclopédie libre: les participations sont systématiquement effacées ou rollbackées, sauf si elles sont soutenues par un administrateur.







Faut arrêter de délirer. Toutes les contributions sont visibles, tout comme on peut faire en sorte de n’afficher que les contributions d’utilisateurs non enregistrés (faites sous IP)



Les « Annulation des modifications » et autres « Révocation des modifications » sont franchement minimes je trouve. Clairement, on aurait pas autant de millions d’éditions si seuls trois pelés et deux tondus qui auraient soit disant la main mise sur l’encyclopédie avaient le droit de contribuer.



Quant à ta conclusion, personne ne prendra le relais. Mais si tel était le cas et que nous avions affaire à un projet réellement libre et ouvert, il ferait dans ce cas face aux mêmes problématiques et aux mêmes résultats (vandalismes, utilisateurs qui souhaiteraient faire passer en force leur point de vue, entreprises ou personnalités qui chercheraient à cacher certains points négatifs de leur histoire…)


Le 03/11/2015 à 18h 56







CryoGen a écrit :



Et y a pas moyen de remonter les plaintes à la fondation? On a l’impression qu’il n’y a pas eu que des cas isolés en te lisant…







La fondation ne gère que l’hébergement, le développement du logiciel… Mais pour le contenu ou la gestion de la communauté, c’est à chaque projet de gérer ça par lui-même (à moins qu’un utilisateur soit problématique sur un ensemble de projets, ce qui pourrait entraîner un blocage global). Dans le cas de la Wikipédia francophone, il existe un comité d’arbitrage pour régler les conflits. Je tiens tout de même à rappeler que c’est encore une fois géré par des bénévoles, et qu’il est malheureusement bien plus facile de critiquer que de s’investir pour le bien du projet.


Le 03/11/2015 à 18h 46







Picos a écrit :



Est-ce que c’est moins efficaces. Peut être. Est-ce éthiquement plus juste, je le pense vraiment.







Au tout début, les campagnes étaient vraiment amateurs. Le problème, c’est que le projet était loin d’obtenir ce dont il avait besoin. Et pour le coup, il faut vraiment se dire que ce n’est plus un petit site géré par quelques amateurs dans leur garage. La galaxie Wikimedia (puisque les différents projets sont finalement imbriqués les uns les autres) est le sixième site le plus consulté au monde. Ce qui nécessite donc plusieurs centaines de serveurs, plusieurs centres d’hébergement de par le monde (aussi bien pour fournir plus rapidement les pages que pour garantir une haute disponibilité et une résilience aux pannes).



Mais surtout, le gros des frais, c’est qu’il y a désormais plus de 280 employés : administrateurs système et réseau, bases de données, développeurs (Wikimedia développe le logiciel libre MediaWiki), designers, experts en sécurité, juristes…



Il faut également se rappeler qu’il n’y a pas que Wikipédia, et que des sites comme Wikimedia Commons, Wikidata, voir les versions mobiles, nécessitent des développements spécifiques, et donc toujours plus de personnel.



Ce qui impose donc beaucoup plus de contraintes. Tu ne peux pas leur dire « bon, ok, cette année nous n’avons pas obtenu suffisamment de dons et nous devrons donc licencier une bonne partie du staff ». La fondation a donc du embaucher des spécialistes pour gérer au mieux les campagnes. Et pour avoir fait de nombreux tests, si au final la campagne est menée de cette façon, c’est vraiment parce que c’est ainsi qu’elle est la plus efficace. Tout comme on notera également qu’il y a un objectif à atteindre. Une fois atteint, la campagne s’arrête. Ils ne cherchent pas à obtenir toujours plus.







MuadJC a écrit :



J’ai critiqué les méthodes agressives, répétitives qui font tache sur un site ou le concept est que ce sont les utilisateurs qui améliorent le contenu.







En tant qu’utilisateur et contributeur inscrit, je n’ai toujours pas vu les bandeaux de la campagne de dons. Pour les autres, il y a normalement une petite croix en haut à droite pour fermer le bandeau et ne plus le revoir par la suite.







NeuCeu a écrit :



C’est pas le tout d’avoir beaucoup d’articles, encore faut-il qu’il y ait de la matière dedans.







Certaines langues avec peu de locuteurs / contributeurs ont utilisé des bots pour créer automatiquement des centaines de milliers d’articles. Par exemple, à partir des données INSEE, on peut créer un « article » sur les 36 000 communes françaises. Mais ça ne reste finalement qu’un squelette avec les données de base (ce qu’on trouve généralement dans les infoboxs), et non du contenu rédactionnel.







yvan a écrit :



Ce qui est remarquable c’est non seulement le nombre d’articles en anglais mais aussi leur qualité.



Si le wikipedia français atteignait ne serai-ce que la moitié de l’exhaustivité de la version anglaise ce serait super.







Le souci, c’est que l’anglais est devenu un peu la langue de référence. On retrouve donc des contributeurs de toute nationalité qui préfèrent contribuer à la version anglophone (qui bénéficie donc d’une bien plus grande diversité culturelle) plutôt que dans la version de leur propre langue maternelle.







AnonymeXXX3 a écrit :



Gardez votre argent ! Wikipédia tourne mal depuis maintenant.. 67 ans. Derrière cette fausse démocratie, les administrateurs se lient entres eux et vire tous ceux qui sont contre eux sans motifs réels. Par exemple, je connais un contributeur qui disait son avis sur les administrateurs et leurs manières d’agir et, les administrateurs on trouvé n’importe quel prétexte pour qu’il soit banni du site.



Un autre exemple ? Sur Wikipédia un jeune de 12 ans est arrivé sur l’encyclopédie en tant que contributeur avec bonne foi et, il a commis une erreur car il ne connaissait pas les règles. Comme il est jeune, ils ont pas eu envie de l’aider et, il a été bloqué (pas longtemps car sinon ça aurais été trop gros).



Car oui, leurs “règles” elles sont aussi éditable par tous (même si certaines sont bloqué en écriture et heureusement) ! Et je précise aussi qu’on peux les interpréter comme on veux ! En fait, les administrateurs les interprètent comme ils le veulent, mais les autres, doivent les suivre a la lettre, mais ça dépend de comment les administrateurs décident de les interpréter… Si on est amis avec les administrateurs, on a beaucoup moins de soucis a se faire de quand on est en froid avec certains.







Pour le jeune de douze ans, ça me paraît bien étonnant. D’autant plus que la majorité du temps, les gens n’indiquent pas leur âge, sexe, religion, couleur de peau… Et même si c’était le cas, il n’y aurait de toute façon aucun moyen de le vérifier. Et à moins que ce soit un vandalisme manifeste, avant d’envisager un blocage, en général on prévient la personne qu’il y a un souci avec sa contribution.



Quant aux administrateurs, il y en a actuellement 163 sur la version francophone (dont je fais parti). Clairement, on ne peut pas sympathiser (ou même être en accord) avec tout le monde. La plupart, je ne les connais même pas. Il n’y a donc pas de cabale, et si un admin se met à faire n’importe quoi, il se fera révoquer. Même si tout n’est pas parfait, faut arrêter les histoires de complots :)


Le 28/10/2015 à 16h 21

Je tiens à apporter quelques précisions. Une application utilise des bibliothèques. Au moment de la compilation, il y a deux possibilités. Faire en sorte que ce soit dynamique ou statique.



Le premier choix, qui est celui effectué par les distributions, permet de fournir séparément l’application d’un côté et les bibliothèques de l’autre. L’application ayant été compilée par rapport aux versions précises des bibliothèques fournies par la distribution, elle sera forcément compatible.



Dans le second choix, on va lier ensemble l’application et les bibliothèques dont elle aura besoin. L’avantage, c’est que l’application ayant toujours avec elle les bibliothèques dont elle se sert, elle tournera partout, peu importe la distribution et les versions (c’est ce que font les applications propriétaires sous Linux). Les inconvénients sont le gaspillage d’espace disque, les applications étant beaucoup plus grosses, et les problèmes de sécurité, un problème corrigé dans une bibliothèque devra attendre que l’éditeur de l’application ressorte une nouvelle version incluant la version corrigée de cette bibliothèque.



Ça, c’est pour la méthode actuelle.



Maintenant, il est prévu que dans un futur proche, les applications sandboxées arrivent sous Linux. Dans la foulée, il y aura également la notion de frameworks. Par exemple, les environnements de bureau GNOME ou KDE, les langages de programmation Python / Perl et leurs modules… pourront fournir des images de chacune de leurs versions.



À l’arrivée, imaginons qu’un éditeur développe une application propriétaire prévue pour fonctionner sous GNOME 3.18. Il fournira un conteneur de son application qui sera lié au framework GNOME 3.18. Ensuite, si un utilisateur Debian (qui ne fournit pour le moment que GNOME 3.14) choisit d’installer cette application, ça récupérera automatiquement tout le nécessaire de façon transparente.



Il y a toujours l’inconvénient de l’espace disque occupé, puisque l’utilisateur devra potentiellement installer plusieurs versions de GNOME en parallèle, mais ça supprime le problème de compatibilité, aussi bien vis-à-vis des bibliothèques que celui du système de packages ou des versions.



Lennart Poettering en avait discuté sur son blog.

Le 27/10/2015 à 21h 17

Refuser le changement est également un droit. Ça n’a rien de négatif. Chacun vie comme il l’entend et utilise ce qui est le mieux pour lui. Par contre, je déteste quand on considère son propre avis comme une vérité universelle. Que certains n’aiment pas GNOME 3, c’est leur droit. Moi même je n’aime vraiment pas KDE, par exemple. Mais ce n’est pas pour autant que je vais dire que c’est complètement à chier, que ça a été conçu par des branquignols et que strictement personne ne l’utilise.

Le 27/10/2015 à 19h 58

Même s’il n’y avait qu’Ubuntu, ça ne changerait strictement rien à la situation. La majorité des gens se contentent de prendre ce qu’on leur donne. Mais voilà, pour ça, il faudrait déjà qu’il y ait une offre commerciale, ainsi qu’une véritable campagne marketing et des constructeurs qui jouent le jeu…



Mais voilà, il n’y a rien de tout ça. À l’arrivée, qu’il y ait une ou mille distributions, on s’en fout. Les quelques rares personnes qui ont entendu parler de Linux et qui veulent tenter l’aventure finissent de toute façon sous Ubuntu, et ceux qui s’y connaissent continueront d’utiliser ce qui leur convient le mieux.

Le 27/10/2015 à 19h 47

Encore une fois, TOI tu n’y arrives pas, TOI tu n’aimes pas, TOI tu refuses le changement. Et ainsi de suite. Personnellement, je n’ai aucun souci avec GNOME 3.

Le 27/10/2015 à 15h 04







lysbleu a écrit :



Mouais, Dell et IBM vendent bien RHEL7, RHEL7 propose par défaut l’interface classique “façon gnome 2”, et je peux savoir en quoi l’interface graphique est un critère pour des serveurs ?







En général, les développeurs aiment bien développer sur la même plate-forme qui fera tourner leur code. Mais comme je connais un certain nombre de développeurs qui adorent GNOME 3, encore une fois, on ne peut pas généraliser.


Le 27/10/2015 à 14h 53







yl a écrit :



On se demande bien pourquoi ce merdier n’a jamais existé avec la précédente version si les utilisateurs sont si heureux?!







Bien sûr que certains n’ont pas aimé. Tout comme certains n’aiment pas non plus KDE 4 et ont créé un fork de KDE 3.5, Trinity. Et au fil du temps, d’autres encore ont eu de nouvelles idées, une nouvelle vision de ce que devait être le bureau idéal. Ce qui n’empêche pas non plus la collaboration. La stack GNOME est reprise par tout un tas d’environnements, qui continuent de contribuer au projet GNOME même si leur shell diffère.



Ce qui est par exemple le cas des développeurs d’elementaryOS, qui ont participé au dernier GNOME West Coast Summit.


Le 27/10/2015 à 14h 30







yl a écrit :



Il faut dire qu’a part les développeurs de Gnome 3, pas grand monde n’aime Gnome 3. Au point que c’est un problème pour l’adoption de la RHEL 7 en entreprise, car même s’ils sont partis sur le mode “classic” on se rends très vite compte à l’usage que ce n’est pas suffisant.







Ça serait bien d’arrêter de généraliser. Ok, tu n’aimes pas GNOME. Mais ça n’en demeure pas moins un environnement extrêmement plaisant et complet qui continue d’être utilisé par énormément de monde.


Le 27/10/2015 à 14h 24







RRMX a écrit :



La forte préférence de Debian pour Gnome a quand meme bien régréssée depuis Gnome 3.







Je n’utilise pas Debian, mais de ce que j’ai compris, tant que GNOME aura la meilleure accessibilité, le plus grand nombre de traductions, la meilleure intégration de systemd et j’en passe, ils n’auront pas trop à s’en faire.



Debian Switches Back to GNOME as Its Default Desktop


Le 27/10/2015 à 10h 36







vinceff a écrit :



C’est quoi le besoin de passer sur du mint? Je comprend pas.







Mint est à l’origine de l’environnement de bureau Cinnamon. C’est donc avec cette distribution que t’auras cet environnement le mieux intégré. C’est la même chose pour elementaryOS, qui se base également sur Ubuntu LTS, et qui développe l’environnement Pantheon.


Le 27/10/2015 à 10h 33







gokudomatic a écrit :



Je reste sous une *buntu car je veux profiter de ses dépôts. Donc j’ai pas trop le choix, en fait.







Vraie question, en allant voir ailleurs, il te manquerai quoi, exactement ?







zefling a écrit :



C’est mon seul regret, les dépôts, mais au final, ça passe pas trop mal. Il y a juste qu’on sent bien que Steam est plus fait pour Ubuntu.







C’est pourtant pré-installé avec Manjaro (même si je trouve ça idiot), et ça a l’air de parfaitement bien fonctionner.


Le 27/10/2015 à 10h 13

Il reste désormais à savoir si la popularité apportée par Ubuntu est réellement bénéfique. S’il n’y a aucune éducation au libre et ses enjeux, aux formats ouverts, à la collaboration… ok, les parts de marché de Linux sur le poste de travail augmenteront, mais si c’est pour avoir des millions de nouveaux utilisateurs qui transposent leur comportement windowsien sous Linux (installation à la moindre occasion et non en dernier recours d’applications et de pilotes propriétaires, aucune contribution, que ce soit d’argent, de code, de rapports de bugs…), je n’en vois pas trop l’intérêt.



Si Linux est ce qu’il est, c’est dû à sa liberté. Si on peut obtenir une distribution complète, aussi bien le système de base que de nombreuses applications pour couvrir tous les besoins, c’est dû au fait que ce soit libre. Si l’on possède de base tous les pilotes possibles et imaginables dans le noyau, SANE, CUPS… c’est parce qu’ils sont libres. Si on a le choix de notre environnement de bureau, c’est encore une fois parce que tout est libre et qu’il n’y a pas une entreprise qui va nous imposer ce que l’on doit utiliser. Si la direction prise par un projet déplaît et qu’on peut forker pour tenter de proposer autre chose, c’est encore et toujours parce que c’est libre.



Oublier cette liberté pour un côté pratique et courtermiste, c’est oublier l’essence même de Linux, et ça ne peut apporter que de mauvaises choses.



Personnellement, je détesterai finir avec un clone de Windows, des constructeurs qui ne proposeraient plus que des pilotes propriétaires, les fournisseurs de service en ligne qui ne proposeraient plus que des clients propriétaires, des PC qui seraient vendus chez Carrefour avec une distribution pleine de bloatwares et autres merdes…



Alors ok, c’est une vision très pessimiste et l’existence d’Ubuntu ne remet pas en cause celles de Arch ou Debian. Par contre, et on a pu le constater avec le plugin Flash, quand une solution propriétaire et fonctionnelle existe, malheureusement, en général on a trop tendance à suivre la voie de la facilité et la rendre populaire plutôt que de contribuer à une solution libre de remplacement. Si Google avait dès le départ proposé un client pour Google Drive, est-ce que la communauté aurait travaillé pendant plusieurs années à développer une solution libre dans GVFS, qui pourra être utilisée et parfaitement bien intégrée dans tous les environnements qui l’utilisent ?

Le 25/10/2015 à 09h 00

Je ne veux pas dire, mais le problème du nommage des interfaces réseau a été réglé avec systemd 197 sorti en janvier 2013. Ça fait plusieurs années que des distributions comme Fedora y ont eu droit (ils en parlaient déjà en 2012).



Sinon, pour le problème concernant le noyau 4.2.0 et le pilote Catalyst, dès sa sortie en septembre dernier, les amateurs de Manjaro avaient déjà remarqué le souci (Linux42 4.2.0 not recommended for catalyst). Alors comment ça se fait que l’équipe qualité d’Ubuntu n’ai pas proposé une solution fonctionnelle pour leur distribution, plutôt que de laisser leurs utilisateurs face à un écran noir ?



Quand je disais qu’il n’y avait plus la moindre innovation et qu’ils étaient complètement à la ramasse sur les autres XD

Le 24/10/2015 à 17h 58







SebGF a écrit :



Ce qui est agaçant je trouve dans cet éternel débat inutile de “qui contribue le plus”, c’est que d’après “la communauté” du “libre”, il est interdit de partir sur une approche différence pour répondre à un besoin.







Déjà, pour commencer, le débat ne cherche absolument pas à savoir qui contribue le plus. Ça, on s’en fout royalement. Non, l’idée, c’est de contribuer tous ensemble, pour aller toujours plus loin. Maintenant, ensemble ne signifie pas de contribuer sur un projet unique. Bien que parfois, il soit sans doute préférable de n’avoir qu’un projet. Par exemple, je pense qu’il vaut mieux n’avoir qu’un noyau, mais faire en sorte qu’il soit suffisamment modulaire pour que tout le monde puisse y contribuer et y trouver son compte; pour qu’il réponde à des besoins radicalement différents (embarqué, stations de travail, supercalculateurs…)



Maintenant, les forks sont parfois utiles. Personne ne remettra en cause ceux qui ont donné naissance à X.Org ou LibreOffice, par exemple. Mais pour qu’un fork soit un succès, il faut de bonnes raisons (techniques, philosophiques…). Et bien évidemment, il faut que ça réponde à un véritable besoin. Forker pour le simple fait de forker, ça n’a aucun intérêt.



Mais là, dans le cas de Mir, en lisant les possibilités offertes par ce dernier, puis celles offertes par Wayland; sans oublier les critiques faites à l’époque, je ne suis franchement pas convaincu de la pertinence de ce projet. À mon avis, ça a plus été fait dans l’unique but que ce soit un projet Canonical sur lequel ils ont tout contrôle et qu’ils n’aient donc plus besoin de contribuer avec la communauté. Sans parler de leur accord de licence qui permet de changer la licence à tout moment, d’en faire un logiciel propriétaire au besoin, de contrôler qui peut contribuer ou de l’avenir du projet.







SebGF a écrit :



Avec cette mentalité fermée considérant qu’il faut uniquement contribuer à l’existant et qu’il ne faut pas explorer d’autre approche (moi c’est ce que je comprends en lisant les griefs contre Canonical), ça interdirait complètement le concept de fork…







On est d’accord. Que ce soit pour de bonnes ou de mauvaises raisons, finalement, c’est leur pognon, ils sont donc bien évidemment libres de faire ce qu’ils veulent.



Mais de notre côté, en tant que simples utilisateurs ou membres d’une communauté, on ne peut s’empêcher de regarder ce nouveau projet, puis de se poser les inévitables questions : cool, un nouveau projet. Mais qu’apporte-t-il concrètement ? Est-il réellement meilleur sur certains points ? Répondra-t-il mieux à mes besoins que ses concurrents ? Ensuite, en regardant plus loin, on peut également se demander, selon les différences, s’il n’aurait finalement pas été plus profitable à tout le monde de contribuer à un projet déjà existant.



Et bien évidemment, d’avoir des regrets en constatant le retard pris par les deux projets et de se dire que s’ils avaient contribué ensemble, ça serait déjà terminé. Et c’est d’autant plus rageant que dans le même temps, on ne peut que constater qu’un concurrent comme Windows permet déjà de faire depuis plusieurs années ce que nous attendons toujours de notre côté (comme une gestion simple et efficace des systèmes à bases de GPU multiples).







SebGF a écrit :



Avec une telle mentalité, je me taperais un GNOME 3 que je ne peux pas blairer au lieu d’un MATE qui répond parfaitement à mes attentes.







On peut voir les choses différemment. GNOME Classique permet déjà de retrouver le comportement d’un GNOME 2 (et donc de MATE). Et si les développeurs de MATE avaient contribué à GNOME 3 plutôt que de réinventer la roue (en portant MATE en GTK+ 3, c’est bien ce qu’ils font), les éventuelles lacunes auraient déjà été comblées (et tu pourrais déjà utiliser Wayland) XD


Le 23/10/2015 à 17h 32

Pourquoi j’aurai de la haine envers eux ? Bien sûr que non. Au mieux ils m’indiffèrent, puisque ils n’apportent rien, au pire ils me déçoivent, justement parce qu’ils n’apportent rien XD



Tout comme je ne dénigre en rien leur travail. Je constate juste qu’avec plus de 700 employés, oui, ils font énormément de choses sur le mobile, sur le cloud ou l’Internet des objets (IoT). Mais voilà, il se trouve que dans ces trois cas, ça ne m’intéresse absolument pas, et qu’encore une fois, pour la énième fois, on parle de leurs contributions desktop (et non pas marketing ou ce que vous voulez).



Quel est le rapport avec System76 ? Ok, ils ont opté pour Ubuntu. Ils pourraient très bien proposer des systèmes tout aussi fonctionnels sous Fedora. À mon avis, comme pour Dell ou HP (et ça serait également le mien si j’étais constructeur), le choix s’est porté sur Ubuntu pour sa version LTS. Un constructeur souhaite que ses clients n’aient pas à s’emmerder tous les six mois. Il faut absolument un système qui sera maintenu de nombreuses années. Et là, malheureusement, encore une fois, il n’y a qu’Ubuntu.



Donc voilà, c’est très bien qu’il existe une version LTS, je suis le premier à le reconnaître.



C’est la même chose pour les certifications. Il existe de nombreuses distributions : Debian, Fedora, Manjaro, openSUSE… mais puisque elles sont communautaires et non commerciales, elles ne se feront jamais certifier. Tout comme un constructeur ne choisira jamais un produit communautaire, en conseillant à ses clients d’aller se démerder sur les forums XD



Au final, il n’y a donc bel et bien qu’Ubuntu (Red Hat et SuSE ne visent absolument pas le même segment), et c’est bien pour ça qu’on retrouve de l’Ubuntu partout dès qu’il s’agit d’offres commerciales ou ayant rapport avec des éditeurs propriétaires.



Mais encore une fois, le débat ne portait absolument pas sur ce qu’était Ubuntu il y a dix ans (à leurs débuts, j’adorais cette distribution), mais sur leurs contributions (de préférence récentes), leur degré d’innovation, et ce qu’ils apportent aujourd’hui.



Parce que oui, fut un temps, Ubuntu était plus simple, plus joli, mieux intégré. Ils prêtaient beaucoup plus attention aux détails que d’autres distributions de l’époque. Mais voilà, on est plus en 2004, et aujourd’hui, tu peux prendre à peu près n’importe quelle distribution, tu obtiendras aussi bien, sinon mieux.



Et c’est bien là-dessus que je réagis, sans haine d’aucune sorte. Qu’apporte Ubuntu aujourd’hui (hormis leur support long), en quoi ils se différencient, pourquoi les choisir plutôt qu’un autre ?



Amateur de GNOME, c’est vite vu. Avec cette dernière version, on a deux versions de retard sur le gestionnaire de fichiers, six versions de retard sur l’éditeur de texte… Puis tout est finalement mieux (plus simple, plus à jour) sous Arch. Mais même pour des débutants, ce n’est plus non plus cette distribution que je conseillerai. Là-encore, on trouve bien plus simple et fonctionnel ailleurs.

Le 23/10/2015 à 15h 03







ben51 a écrit :



Fedora, la prochaine version sort la semaine prochaine.







Histoire de respecter la tradition, ça vient d’être repoussé d’une semaine XD


Le 23/10/2015 à 15h 02







Séwyn a écrit :



Tu me conseillerai qu’elle distribution pour une utilisation de GNOME ?







Si tu préfères quelque chose de super stable, et tant pis si tu n’as pas les dernières versions de l’environnement et des différentes applications, Debian (qui propose la version 3.14).



Maintenant, si tu préfères quelque chose de plus récent, t’as le choix entre Fedora (la version 23 avec GNOME 3.18 doit sortir début novembre) qui, tout comme Ubuntu, sort une nouvelle version tous les six mois (en gros). Soit Manjaro GNOME, qui est une distribution en développement continu (basée sur Arch). Ce qui signifie que t’as toujours toutes les dernières versions… mais en contrepartie, tu peux avoir quelques surprises sur certaines mises à jour (principalement en cas d’utilisation de pilotes propriétaires). Si t’aimes bien bidouiller, ce n’est généralement pas un souci, il y a de très bons forums.



Au final, Debian si tu préfères la stabilité, Fedora si tu préfères que ce soit plus à jour sans prendre trop de risques et Manjaro GNOME si t’aimes bien bidouiller et avoir toujours les dernières versions.


Le 23/10/2015 à 14h 40







eliumnick a écrit :





  • Canonical à grandement fait avancer la cause Linux auprès du grand public par le passé.



    • Et maintenant Canonical ne fait plus rien et se contente de vivre sur ses acquis.







      Clairement, il y a de ça. J’ai commencé au milieu des années 90 sous Red Hat, avant de passer chez Debian. Quand Ubuntu (dont j’ai été utilisateur durant quelques années) est apparu, c’était une petite révolution. On avait enfin droit à une Debian stable tout en étant à jour. Ils avaient fait des efforts sur le thème et la charte graphique, ils avaient apporté une logithèque utilisable à la souris… Franchement, à l’époque, j’étais heureux sur cette distribution.



      Puis arriva l’abandon de GNOME, la création d’Unity… puis c’est à peu près tout. Je ne vois absolument pas ce qu’ils ont bien pu sortir de nouveau ces dernières années. Je consulte régulièrement des sites comme OMG! Ubuntu ou Web UPD8, qui sont tous les deux pro-Ubuntu. Et en lisant leurs articles, eux-même racontent que la logithèque n’a plus bougé depuis des années, que le thème graphique est figé, que le fond d’écran, hormis de légères variations, est toujours le même. Et ainsi de suite.



      À la lecture de l’article de Next INpact, on ne peut pas dire que ça bouge beaucoup. Tout à l’heure j’ai rédigé un article en quatrième vitesse sur la sortie d’Ubuntu GNOME 15.10, et franchement, pour les amoureux de GNOME, ce n’est clairement pas la distribution que je conseillerai. Parce qu’en plus du fait que ce soit l’ancien GNOME 3.16 qui soit fourni, ils ont trouvé le moyen de fournir un certain nombre d’applications obsolètes : Fichiers ou les Comptes en ligne en version 3.14, Brasero ou le thème d’icônes en version 3.12, Gedit en version 3.10…



      Donc oui, c’est bien ça, ça donne vraiment l’impression d’une distribution qui n’innove plus, qui ne propose rien de nouveau, se contentant de mettre à jour quelques applications développées par d’autres une fois de temps en temps. C’est triste.



Le 23/10/2015 à 14h 27

Non, mais comme de leur côté, ce sont également les bénévoles de Debian qui font le gros du travail, on va dire qu’on est quitte XD



Bon, ok, là c’était du troll XD



S’il y a bien un côté positif à Ubuntu, et c’est d’ailleurs sur ce seul point que je la conseil, c’est bien leur édition LTS. Cette dernière possédant un support bien plus long que pour les distributions communautaires, pour une personne qui n’a pas envie que ça bouge tous les quatre matins et d’avoir de mauvaises surprises à chaque mise à jour, c’est un bon point.



Maintenant, encore une fois, je ne dis pas qu’ils ne font rien. Juste qu’au vu de la taille de leur équipe, franchement, on aurait pu s’attendre à mieux. Ma critique ne va pas plus loin. Bon, ok. Puisque j’ai du mal à m’en empêcher, je rajouterai qu’ils sont sans doute atteints du syndrome NIH, ce qui les pousse également à sans cesse réinventer la roue, ce que je trouve dommage au vu des faibles moyens de l’ensemble des acteurs.

Le 23/10/2015 à 14h 16

Vas-y, écris-moi noir sur blanc quels propos j’ai déformé, quels propos j’ai ignoré. Depuis le début, je parle de contributions DESKTOP. Alors merci de ne pas me sortir celles concernant le cloud ou l’Internet des objets.



On reprend la page des contributions Red Hat :



Red Hat est l’un des principaux contributeur du noyau, de systemd (système d’initialisation), du serveur d’affichage X.org, de l’environnement de bureau GNOME, des bibliothèques GTK+, Pango (rendu des polices de caractères), Cairo (affichage et manipulation d’images vectorielles), DeviceKit (couche d’abstraction matérielle), D-Bus (communication inter-processus), polkit (élévation de privilèges au sein d’une application), Avahi (implémentation libre du protocole Zeroconf), PulseAudio (serveur de sons), NetworkManager (configuration réseau), udev (gestionnaire de périphériques). Ils ont également porté Firefox vers GTK+ 3, sont des contributeurs majeurs de LibreOffice…



Sans eux et quelques autres, il n’y aurait pas d’Ubuntu, qui s’est contenté de prendre ce que d’autres ont fait, sans quasi rien apporter en retour. Si tout est désormais super simple et bien pris en charge, c’est grâce à toutes ces technologies sous-jacentes.



Mais voilà, on a toujours droit à l’éternel blah blah comme quoi ils n’ont pas les mêmes moyens que Red Hat, puis qu’en réalité, ça serait eux qui auraient rendu le bureau Linux simple (mais bien sûr, ça s’est fait par l’opération du Saint Esprit et sûrement pas grâce à des technologies comme udev, DeviceKit, NetworkManager…)



S’ils en sont là aujourd’hui, c’est pour une seule raison. Red Hat ne croit pas au desktop Linux sur le marché de masse, et Canonical est donc la seule entreprise à avoir réellement tenté l’aventure (bon, ok, il y avait bien Mandrake, mais comme toutes les entreprises françaises, ça ne fonctionne jamais à l’international) XD



Et en 2015, ça n’a d’ailleurs toujours pas changé. Red Hat n’a jamais vendu de machines et n’a jamais tenté de partenariats, se contentant de vendre quelques licences desktop dans leur coin (49 USD pour la licence Desktop et 179 USD pour la Workstation).



Donc oui, quand on est le seul acteur commercial sur son segment, il est normal qu’on soit les seuls à nouer des partenariats avec Dell ou HP. Et ils n’ont convaincu personne. Si les constructeurs le font, c’est qu’il existe un marché. Ils ne sont pas les meilleurs, juste que les constructeurs n’avaient personne d’autre vers qui se tourner. On peut également citer le coup des licences. Gratuit avec Ubuntu, il y a juste à nouer un partenariat commercial avec l’éditeur pour le support.



Alors oui, ça apporte plus d’utilisateurs, mais ce n’est pas la question. Reste également à savoir si c’est si bien que ça de toucher les masses, qui n’en ont rien à foutre du libre. Mais c’est un autre débat XD



Maintenant, s’il y a une certaine animosité dans mon propos, c’est qu’au tout début, j’ai juste émis la critique comme quoi c’était dommage que le leader contribue aussi peu. Ça aurait pu en rester là, mais il aura fallu, comme d’habitude, que les fanboys Ubuntu viennent réécrire l’histoire et tenter de prouver le contraire. Sérieux les gars. La page Red Hat liste bien deux cents lignes de contributions, tandis que chez Ubuntu, tout juste si on a 4-5 grosses icônes pour combler le vide XD



Quant à Collabora, en plus d’être, et de loin, l’un des principaux contributeur de LibreOffice, ils contribuent également à un certain nombre de technologies telles que GStreamer, D-Bus, WebKit, PulseAudio, Rygel, BlueZ, Wayland, libnice, Telepathy…



Côté Igalia, on peut citer GStreamer, WebkitGTK+, Grilo, Mesa, GTK+, Wayland, Clutter/Cogl, QEMU / KVM…



J’aime bien quand on peut lister des projets libres utiles et reconnus par la communauté ;)

Le 23/10/2015 à 12h 09







seb2411 a écrit :



Tu inventes des choses et après tu les trouves hallucinantes ? Comme tu veux.

Perso j’arrête cette discussion ici tu te tourne en ridicule…







J’adore les attaques personnelles pour se donner le beau rôle et finir en ayant le dernier mot XD



« Tu troll, t’es lamentable, tu te tourne en ridicule… »



Je trouve ça fort, alors que je n’ai finalement émis qu’un avis. À savoir que c’est une multinationale, qu’ils sont leader dans leur domaine, que ce n’est pas une petite startup créée l’an passé, et que malgré tout, quoi qu’on en dise, sur la partie desktop (LXC n’en fait donc pas parti, et pour AppArmor, c’est limite) leurs contributions sont quasiment inexistantes.



Je trouve que de petites boîtes comme Collabora ou Igalia, avec respectivement 84 et 44 employés, en font bien plus. C’est dire.



Maintenant, t’as le droit d’avoir un avis contraire, de penser qu’ils font des contributions majeures au desktop libre, que sans eux on en serait clairement pas là. C’est ton droit. Mais évite d’être insultant.


Le 23/10/2015 à 11h 45







Faith a écrit :



Plus simple… j’ai du mal à voir comment c’est possible. Tu as des exemples un peu concrets ?







Même si ça n’intéressera sans doute pas grand monde, tu peux rajouter qu’avec Manjaro, les additions invité de VirtualBox sont présentes par défaut, ce qui permet d’avoir d’entrée de jeu la pleine résolution de son écran, l’accélération 3D et compagnie… Tandis que là, je viens d’installer Ubuntu 15.10 dans une VM, et il aura fallu que j’installe des paquets en ligne de commande, que je lance la compilation des modules, suivi d’un dernier reboot, pour pouvoir en profiter.



Sinon oui, t’avais raison, si on pense bien à cocher la bonne case durant l’installation, on se retrouve bien avec Flash pré-installé. Par contre, il n’y a pas de Pipelight dans la logithèque XD


Le 23/10/2015 à 11h 07







seb2411 a écrit :



Ben oui car la tu troll. Canonical participe sur pas mal de projet dont les leurs.







Encore heureux que Microsoft ou Apple contribuent à leurs propres projets XD



Donc, il y a eu quelques personnes de la communauté GNOME qui ont émis des critiques, alors on continue d’utiliser leur travail, mais sans jamais rien contribuer en retour ? Personnellement, je trouve ça hallucinant.



Et oui, je réduis leur participation à quasi rien. Encore une fois, c’est plus de 700 employés. En toutes lettres, ça donne plus de sept cents employés. Alors, même si ce n’est pas encore une grande entreprise, ce n’est pas non plus une startup ou une PME.



Je ne connais Ubiquity que de nom, mais au vu de l’article Wikipédia qui lui est consacré, ça semble n’être utilisé que par des dérivés d’Ubuntu (Kubuntu, Xubuntu, Mint, elementaryOS). Et c’est finalement bien ce que je leur reproche. À chaque fois, soit c’est propre à Ubuntu, soit ils réinventent la roue, mais ce n’est jamais fait de façon à être utilisable par tous.



Si on reste sur l’installeur, Manjaro et d’autres distributions se sont associées pour créer un véritable installeur libre et distribution agnostique, Calamares. Là ouais, c’est un véritable projet libre qui bénéficie à tous.



Même chose pour la logithèque. D’en proposer une graphique, à l’époque, c’était vraiment une super idée. Mais encore une fois, ce fut fait de telle sorte que c’était propre à Ubuntu. Il aura fallu attendre des années avant que GNOME, KDE et le projet Freedesktop ne créent une norme qui puisse être utilisable par tout le monde.



Même si ça reste bien léger, va pour LightDM, qui est effectivement utilisé par certaines éditions de Manjaro. Tout comme je prends note également de Simple Scan, qui comble bien un manque sous GNOME.



Après, plus qu’une critique, c’était surtout une constatation. Pour ne pas dire un mélange de regret et de déception. Comme le disait si bien l’oncle de Spider-Man, « un grand pouvoir implique de grandes responsabilités. »



C’est la distribution leader, ils ont plus de 700 employés, et on aurait donc pu espérer de grandes choses. Que ce soit sur le développement de pilotes libres, histoire de s’assurer que tous les périphériques un minimum populaires soient parfaitement supportés (combien de fois j’ai entendu parler de problèmes avec les chipsets Wi-Fi Broadcom…), le développement des technologies manquantes, des applications manquantes, des contributions aux projets majeurs (financiers, humains…)



Donc ouais, ça me fait de la peine de constater que les quelques bénévoles de Manjaro arrivent à faire aussi bien sinon mieux, et que pour le reste, il faudra attendre que les développeurs de Red Hat, Suse, GNOME… se soient penchés dessus. Par exemple, actuellement, ni Wayland ni Mir ne sont actuellement utilisés, et ça fait des années que ça traîne. Canonical aurait mis ses développeurs sur Wayland, ça fait longtemps que ça serait enfin proposé par défaut sur les différentes distributions.



Et je ne parle même pas de la dispersion de moyens pour les développeurs de pilotes graphiques à devoir supporter les deux technologies. Même chose du côté des toolkits comme GTK+ ou Qt, ou des bibliothèques comme SDL,  alors que le gros problème du libre, c’est clairement le manque de moyens.



Reste également à se poser une dernière questions. Pourquoi autant de critiques autour de Canonical / Ubuntu, tandis que d’autres, comme Red Hat, même si elles ne sont pas utilisées, sont pleinement respectées. T’auras beau dire « bouh, tout le monde il est méchant avec ma super distribution qui contribue pourtant énormément malgré ses faibles moyens »… s’il y a critique, c’est peut être aussi qu’il y a une raison.



Et non, ça n’a rien à voir avec des libristes intégristes qui seraient tous des pourris complètement aigris et envieux du succès d’Ubuntu.



Puis si j’avais voulu troller, j’aurais également pu parler de leur contrat de licence XD


Le 23/10/2015 à 10h 17

Comme dit dans mon précédent post, Upstart et Ubuntu One sont abandonnés, donc on s’en fout XD



Unity et Mir sont propres à Ubuntu, donc on s’en fout aussi XD



Pour moi, le gros souci, c’est l’absence de contribution au libre dans son ensemble. Alors oui, ils contribuent à Ubuntu, et les utilisateurs d’Ubuntu sont heureux. Grand bien leur fasse. Mais vu tout ce qu’ils prennent chez les autres, qu’est-ce que les autres ont gagné en retour ? Même s’il n’y a aucune obligation avec le libre, je trouve ça un peu triste.



(tu noteras que je n’ai pas relevé ton histoire d’adaptation de GNOME 3 à la sauce Unity, sachant qu’encore une fois, ça ne concerne qu’Ubuntu et que j’ai bien du mal à voir ce que le projet GNOME a à y gagner… même si on peut citer une contribution indirecte par l’apport d’utilisateurs et donc de potentiels contributeurs).



Pourtant, je ne demande pas la lune. Même une ou deux petites applications maintenues par eux et qui ne seraient pas propres à Ubuntu, ça aurait été bienvenu. Par exemple, j’ai souvenir que lors du précédent article Next Inpact sur Ubuntu, dans les commentaires, une personne regrettait le fait de ne pas pouvoir planifier de tâches en passant par une interface graphique plutôt qu’en éditant la crontab en ligne de commande.



Pourtant, il existe bien GNOME Schedule, mais qui se trouve être abandonné depuis plusieurs années. Aucune idée si ça tourne encore, mais ça aurait bien besoin d’un passage à GTK+ 3 avec une interface plus moderne, une prise en charge des timers de systemd…



Vu le retard que prend GIMP au fin des ans, de mettre ne serait-ce qu’un unique développeur payé à temps plein pour bosser sur une application majeure du libre, ça aurait également été plus que bien accueilli.



Mais malheureusement, je ne vois jamais rien de tout ça.

Le 23/10/2015 à 10h 01

Zut, j’ai oublié d’ajouter tous les liens sur mon post. Vivement le nouvel éditeur de commentaires…



Donc, pour les contributions Canonical, pour celles de Red Hat, et pour l’embauche de Matthieu James.

Le 23/10/2015 à 09h 56

Autant je suis d’accord que ces histoires de proprio et de brevets logiciels sont une véritable plaie pour le libre, autant pour en avoir discuté avec des développeurs de chez Suse et Red Hat, ça ne semble pas être une question de PdM mais d’entité commerciale.



En gros, Debian ou Manjaro pourraient très bien avoir 95 % de PdM sous Linux, tant que ça reste des projets libres associatifs et bénévoles, il ne semble pas y avoir de risques. Maintenant, quand il y a une entité commerciale derrière la distribution, comme c’est le cas avec Canonical / Ubuntu ou Red Hat / Fedora, là c’est une autre histoire, parce qu’il existe donc un acteur identifiable (et généralement solvable) qu’on peut attaquer.

Le 23/10/2015 à 09h 50







Soriatane a écrit :



Pour LibreOffice, Canonical contribue au code… En résumé, ton impression est fausse.







ah ah, je l’attendais, cette fameuse contribution à LibreOffice XD



Dès que j’ai posté mon commentaire, je me suis dit qu’effectivement, plutôt que jamais qui était un peu fort, j’aurai plutôt dû mettre quasi jamais. Parce qu’il est évident que oui, il leur arrive fort heureusement de corriger un bug par-ci par-là, ou de contribuer un peu.



Par contre, avec plus de 700 employés, je continue de trouver leurs contributions quasi inexistantes sur la partie desktop. Par exemple, leurs applications de base (éditeur de texte, gestionnaire de fichiers, lecteur vidéo…) sont celles de GNOME. Et pourtant, autant je vois souvent passer des contributions de Red Hat, Collabora, Igalia… autant je ne vois jamais de Canonical. Ils auraient également pu développer des applications manquantes. Mais là encore, je n’ai pas souvenir qu’ils aient maintenu quoi que ce soit d’utile à la communauté dans son ensemble.



Et quand on regarde leur liste des projets, Mir c’est propre à Ubuntu et ça n’apporte rien de plus que Wayland, qui a été choisi par la communauté. Upstart, même eux l’ont abandonné au profit de systemd. Bazaar… ben, ça s’est fait écraser par git. Unity, comme d’hab, c’est propre à Ubuntu et on peut difficilement l’utiliser ailleurs (ça reste de la bidouille, tellement ils ont patché les bibliothèques sur lesquelles ça s’appuie).



En comparaison, chez Red Hat, il y a toutes les briques essentielles d’un desktop moderne. Alors bien sûr, les deux entreprises n’ont pas le même chiffre d’affaires. Mais encore une fois, Canonical c’est tout de même plus de 700 employés.



Et il n’y a pas que le code. Il y a quelques années, ils avaient embauché Matthieu James, l’auteur du thème d’icônes Faenza. On aurait donc pu espérer avoir droit à un super thème. Et ben non, même pas. Faenza n’a plus évolué depuis des lustres, et je n’ai rien vu venir de nouveau en provenance de Canonical. Les bons thèmes actuels (Arc, elementary, Xenlism WildFire…) sont l’oeuvre de bénévoles.



À la question, quelle contribution majeure de Canonical on utilise tous les jours si l’on est pas sous Ubuntu, franchement, je n’en vois aucune. Et c’est bien là le problème.


Le 23/10/2015 à 09h 28







Faith a écrit :



Autant ta connaissance de Manjaro semble bonne, autant celle d’Ubuntu date.



 L'article que tu as cité parle de 10 étapes... dont à peu près une seul est liée à Ubuntu: le choix de driver libre ou proprio pour la carte graphique.        

Un seul autre point me semble pertinent: les services cloud. Mais ayant un tél sous Ubuntu, c'est déjà prévu dans la version Touch, donc en attente de la convergence. 

 

Pour les PPA à mettre en place... euh... non, désolé, je n'en ai pas besoin pour les drivers de CG, ni pour Flash, ni pour les mp3, etc









On ne parle pas du Flash de base (et encore, même là, il est pré-installé sous Manjaro quand il faut passer par la logithèque chez Ubuntu, ce qui m’a donc permis de voir des gens se voir conseiller l’installation d’une solution en provenance d’Adobe quand ils rencontraient un site qui y faisait appel) ;)



Non là, on parlait de Flash avec prise en charge des DRM et autres merdes, histoire de pouvoir mater Netflix, la télé de rattrapage ou je ne sais trop quoi d’autre, le temps qu’ils passent enfin au tout HTML5.



Pour la carte graphique, on parle bien d’avoir toujours la dernière version ? Alors pourquoi, durant l’été dernier, ça a fait le buzz sur les sites d’actualités comme quoi, après tant d’années, Ubuntu proposait enfin un PPA pour pouvoir en bénéficier ? (OMG! Ubuntu et Web UPD8 en ont également parlé).



Perso j’aurai tout de même mis le support matériel en premier, parce qu’avoir une machine qui fonctionne bien, c’est tout de même la base.



Par contre, de te voir parler de MP3, je me suis souvenu après coup qu’effectivement, ils posaient bien la question lors de l’installation et qu’il fallait donc bien penser à cocher la case pour pouvoir en bénéficier. Légalement, ils sont bien obligés. Maintenant, quand je vois les questions qu’on me pose autour de moi, s’il faut bien ou non cocher telle ou telle option, je me demande s’ils sont nombreux à y penser. Et si c’est fourni de base sur les machines avec Ubuntu pré-installé (genre MSI ou LDLC).


Le 23/10/2015 à 08h 53







Faith a écrit :



Plus simple… j’ai du mal à voir comment c’est possible. Tu as des exemples un peu concrets ?







Quand je vois ce genre d’article, les dix choses à faire après avoir installé Ubuntu :



Installer les pilotes graphiques propriétaires. Avec Manjaro, on a le choix lors de l’installation, ce qui évite les problèmes rencontrés par Ishan. Pas non plus besoin d’un PPA à part.



Installer les codecs multimédias. Ils sont fournis de base.



Configurer vos comptes cloud. Cette partie ne change pas, mais ça me fait penser que Manjaro propose par exemple la dernière version de GVFS qui inclut la prise en charge de Google Drive, alors que chez Ubuntu, il faudra soit passer par un PPA, soit attendre la prochaine version.



Installer Flash. C’est fourni de base, mais ça ne suffit pas pour certains services. On peut donc faire appel à Pipelight, qui propose la même version que Windows avec prise en charge des DRM et tout le tralala. Sous Ubuntu, faut encore s’emmerder avec un PPA, tandis que c’est présent dans AUR côté Arch / Manjaro, et que ça s’installe donc en deux cliques.



Pour la prise en charge de la technologie Optimus, faut se taper la doc, installer des paquets, configurer d’autres trucs… alors que c’est présent de base chez Manjaro.



Ils fournissent également une dizaine de kernels différents. Même si je ne vois pas l’intérêt d’en proposer autant, t’as accès aux différentes versions LTS, mais également à la dernière version en date, ce qui peut être intéressant si tu viens d’acheter de nouveaux périphériques.



Pour le côté toujours récent, tout dépend des gens et des besoins. J’ai précédemment parlé de Google Drive, qui ne sera donc pas proposé avant quelque temps sous Ubuntu. Si t’en a besoin, c’est un peu con. Mais j’ai un autre exemple. Il y a quinze jours, je me suis offert un scanner, le Canon CanoScan LiDE 220. D’après la doc de SANE, ça semblait parfaitement supporté au moment de l’achat. Manque de bol, une fois reçu, je branche, et bien évidemment, ça ne fonctionne pas. Retour sur le site de SANE, je vois qu’après plus d’un an de développement, ils viennent tout juste de sortir une nouvelle version, qui arrive rapidement dans Arch, et qui permet à mon scanner de fonctionner enfin \o/



Avec Ubuntu, il aurait fallu que je trouve un énième PPA qui proposerait la dernière version de SANE, que je le compile moi-même, ou que j’attende six mois de plus.



Linux, c’est vraiment différent de Windows. On achète pas une machine pré-configurée et pleinement fonctionnelle. Les constructeurs ne contribuent que très rarement au kernel. Quand on achète un nouveau périphérique, on a pas de pilotes libres (ou non) fournis dans la boîte. Les éditeurs de services en ligne ne proposent pas non plus de clients pour Linux. Et ainsi de suite.



À l’arrivée, soit on a des besoins figés et on peut se contenter d’une distribution stable avec support long, soit on en a une utilisation desktop dans l’ère du temps, et là, déjà que ce n’est pas toujours folichon de base, alors si en plus c’est pour utiliser des versions sorties il y a plusieurs années, c’est courir après les problèmes XD



Je terminerai sur l’expérience de la copine. Ayant acheté un portable MSI avec clavier lumineux arc-en-ciel, dans AUR on a bien eu accès à msi-keyboard qui nous a permis d’obtenir la même chose que sous Windows en quelques cliques. Sous Ubuntu, pas certain qu’il y ait un PPA, et on aurait sans doute du compiler (va dire ça à une débutante).



Au final, hormis son besoin de pouvoir ouvrir des PDF incluant des modèles 3D, et qui ne sont malheureusement pas pris en charge par Poppler (la bibliothèque utilisée par la plupart des lecteurs PDF libres), ce qui nous a donc obligé à installer un vieil Acroread proprio, pour le reste, elle fut plutôt agréablement surprise par cette expérience. Que ce soit d’avoir un système aussi fonctionnel d’entrée de jeu, alors qu’elle s’attendait à devoir mettre bien plus que ça les mains dans le cambouis, mais également par la simplicité de GNOME, qu’elle envisage même de proposer à ses parents ;)


Le 23/10/2015 à 08h 04







ActionFighter a écrit :



Ça reste perfectible, impossible avec un pc sous optimus de lancer steam avec la CG au lieu du chipset…







N’étant pas gamer et n’ayant pas moi-même une telle configuration, ce n’est clairement pas le sujet que je maîtrise le mieux, mais la semaine dernière j’ai installé Manjaro GNOME chez une copine gameuse qui voulait tenter voir ce que donnait Linux. Tout le nécessaire pour la prise en charge d’Optimus était bien présent par défaut, et on a bien pu utiliser sa carte nVidia pour jouer.



Par contre, à l’inverse d’un Windows, ça ne se fait pas encore tout seul et il faut, soit lancer Steam avec la commande primusrun steam, histoire que tous les jeux Steam soient lancés sur le GPU nVidia, soit aller sur la fiche du jeu qui nous intéresse, éditer les propriétés, et sur l’option SET LAUNCH OPTIONS, préciser primusrun %command%, histoire qu’il n’y ait que les jeux que l’on aura choisi qui se lancent sur le GPU nVidia.



Et au vu de la doc présente sur le site de Steam, ça semble être le même délire côté Ubuntu.



Plus qu’à attendre la démocratisation de Wayland, qui a été pensé dès le départ pour que soient prises en compte les configurations multi GPU, histoire que tout fonctionne bien de base de façon transparente.


Le 23/10/2015 à 04h 43

La prise en charge du matériel ou les performances, c’est le noyau Linux, qui est le même pour tous. Selon les distributions, on aura droit à une version plus ou moins récente, et donc à plus ou moins de matériel pris en charge. Sur ce point précis, le fait d’opter pour Ubuntu n’apporte rien de plus. T’aurais eu la même chose avec une Manjaro, par exemple.



Pour Steam et les pilotes graphiques propriétaires, ils sont fournis de base avec Manjaro, qui se trouve donc être encore plus simple (bon, après, faut être gamer puis aimer le proprio). Et sur la question de pouvoir tout faire, c’est la même chose partout.



Si on critique Ubuntu, c’est qu’à une époque, elle était réellement plus simple et plus à jour, tout en apportant une certaine plus-value. Mais de nos jours, si on prend trois gus dans leur garage qui bossent bénévolement sur Manjaro (bon, ok, ils reprennent le travail effectué par Arch, mais il en va de même d’Ubuntu qui se resynchronise à chaque nouvelle version sur Debian), on obtient quelque chose de plus simple, plus complet, et carrément plus à jour.



Si encore ils développaient eux-mêmes ou effectuaient des contributions conséquentes à des outils ou applications manquantes à l’écosystème libre. Mais non, là encore, même pas. Hormis Unity, qui n’est utilisable que par Ubuntu, pour le reste, ils récupèrent le travail et les applications de GNOME, Red Hat et compagnie.



Hormis pour les technologies cloud ou IoT (OpenStack, Snappy…) et qui ne concernent donc pas le desktop, je ne vois jamais passer leur nom. Ce qui donne vraiment l’impression d’une distribution de suiveurs. Alors pour de la stabilité, autant préférer l’originale, Debian, et pour du bleeding edge, autant préférer une rolling release comme Manjaro (voir Antergos pour ceux qui voudraient une Arch sans avoir à se taper l’install) XD



Puis même sur le desktop, développer Unity plutôt que de contribuer à GNOME, j’ai trouvé ça d’une stupidité sans nom. Incroyable division de moyens, pour un résultat moins bon au final (même chose pour Mir vis-à-vis de Wayland, ceci-dit).

Le 23/10/2015 à 04h 17

Il n’y a jamais eu une véritable isolation jusqu’à présent. Même avec tes mesures, de par la conception même de X.org, n’importe quel processus peut enregistrer les frappes clavier des autres applications, par exemple. Problème qui a été corrigé depuis avec Wayland, dont la sécurité a été pensée dès le départ.



Ensuite, isoler une application, c’est bien, mais il faut parfois lui permettre d’interagir avec des périphériques (ton application de VoIP qui aimerait bien pouvoir accéder au micro ou à la webcam), si l’utilisateur donne son accord. Tout comme elle doit également pouvoir lire et écrire sur le système de fichiers, là encore, si on donne son accord. Et bien évidemment, on peut également avoir besoin que deux applications sandboxées puissent communiquer entre elles.



On va dire que jusqu’à présent c’était une isolation basique, et qu’on passe à l’étape suivante ;)



Avec le sandboxing, il y a également le principe de paquetage complet (l’application et tout ce dont elle a besoin pour fonctionner). Personne ne remet en cause le système de paquets actuels, avec des distributions qui empaquettent selon leurs propres normes. Pour du logiciel libre, c’est généralement très bien.



Maintenant, il y a plusieurs soucis. Dans le cas de logiciels propriétaires, les éditeurs n’ont pas envie de tester leur application avec toutes les distributions, se contentant généralement de la plus populaire (Ubuntu). Tout comme elles ne vont pas forcément suivre l’évolution dans le temps.



On avait déjà les applications liées statiquement avec certaines bibliothèques, mais on ne pouvait pas le faire avec un environnement de bureau complet, par exemple. Alors que maintenant, on pourra récupérer aussi bien un Skype isolé (qui, de base, n’a pas énormément de dépendances) et qui pourra tourner sur n’importe quelle distribution, y compris une vieille Debian. Mais également une application prévue pour GNOME 3.18 alors qu’on est toujours sur la version 3.14.



Ce qui devrait éliminer les problèmes de compatibilité ascendante et descendante, et les éditeurs qui n’auront plus à s’inquiéter de la distribution (version, système de paquets…) utilisée par leurs clients. Ceux qui n’aiment pas le proprio ne sont de toute façon pas concernés et pourront continuer comme avant.



Et pour finir sur les mises à jour, qui n’a jamais rencontré le moindre souci ? Que ce soit après une mise à jour de noyau, pilote graphique, environnement de bureau… de constater que le système ne boot plus ou de se retrouver avec un écran noir. Là on peut imaginer qu’il y ait une option (soit automatique si le système constate qu’il y a souci, soit dans le menu du bootloader) pour démarrer sur le précédent snapshot fonctionnel.



Pour ceux qui n’ont ni les connaissances, ni l’envie de bidouiller, ça serait tout de même une grande avancée que de savoir que quoi qu’ils fassent, ils auront continuellement accès à un système pleinement fonctionnel.