Linux Mint 20 n'aura pas de version 32 bits, inquiétudes autour de Snap

Linux Mint 20 n’aura pas de version 32 bits, inquiétudes autour de Snap

Linux Mint 20 n'aura pas de version 32 bits, inquiétudes autour de Snap

Sans surprise, la prochaine version majeure de Linux Mint, estampillée 20, sera exclusivement 64 bits. Conséquence logique du choix de Canonical, Mint étant basée sur Ubuntu.

Selon Clément Lefèbvre, fondateur de Mint, la plupart des développeurs sont satisfaits de la décision. Il note que Canonical a répondu aux inquiétudes autour des cas Steam, Wine et autres, de manière a priori satisfaisante. La question reste importante pour Mint, qui continuera à surveiller la situation.

La situation est toutefois moins problématique pour les utilisateurs de Mint. Toutes les versions de la distribution sont supportées cinq ans, Mint n’utilisant que des moutures LTS d’Ubuntu comme socle. Mint 20 sera ainsi basée sur Ubuntu 20.04.

Sur une note différente, Clément Lefèbvre s’inquiète de Snap et du pouvoir que prend la solution de conteneurs logiciels de Canonical. Il remarque notamment que la promesse qu’il ne remplacerait pas Apt est en train d’être brisée.

Ubuntu envisage en effet de remplacer le paquet classique de Chromium par une « boite vide » qui renverrait alors vers le snap correspondant. Pour les distributions basées sur Ubuntu et utilisant donc Apt, cela signifie une dépendance au client Snap qui n’était pas prévue. Les développeurs de Mint espèrent pouvoir s’entretenir bientôt avec Canonical sur le sujet.

Commentaires (20)


Je partage l’inquiétude autour de Snap.



L’idée de départ était bonne et facilitait le travail des développeurs, le temps de pouvoir sortir des paquets dédiés aux différentes distrib.

Mais là son usage, qui plus est étendu par Canonical qui le met particulièrement en avant, est de plus en plus fourvoyé et pousse les développeurs à ne faire aucun effort sous prétexte de faire du multi-distrib…



Surtout qu’un snap reste largement plus consommateur de ressources et d’espace qu’un paquet dédié, (plus ou moins) optimisé pour la distribution sur laquelle il va tourner. Aucun système de dépendance etc.

Ça n’a aucun sens d’en promouvoir l’usage pour remplacer les paquets.



Ça me fait penser à tous ces outils (npm, etc) que l’on a en dev web et qui font que les sites/appli font ensuite un poids considérable, donc qui consomment toujours plus de ressources, sous prétexte de faciliter la vie du dev… Alors que le job d’un dev c’est aussi d’optimiser son code et faire en sorte qu’il consomme le moins possible.



Cette dérive est inquiétante je trouve (et illustre une perte de compétences quelques part). Surtout à une époque où l’on devrait réduire la consommation du code à des fins environnementales/énergétiques.


Mème constat.



  J'irai même plus loin en disant que l'on est dans l'obsolescence logicielle, les projets ne se maintiennent plus.       

 









Furanku a écrit :



Cette dérive est inquiétante je trouve (et illustre une perte de compétences quelques part). Surtout à une époque où l’on devrait réduire la consommation du code à des fins  de sécurité.





<img data-src=" />



Si je conçois bien le snap pour des logiciels “isolés” (jeux vidéos par exemple, qui sont dans la très grande majorité autonomes et “autistes”), j’ai du mal à comprendre le snap pour des navigateurs, pour des outils comme blender qui sont parfois des dépendances d’autres logiciels (openshot)

Ca marche bien ça?



Par ailleurs, dans le cas d’une faille openssh, il faudra maintenant mettre à jour les snaps de tous les logiciels l’utilisant? (Chrome, Firefox, Libreoffice, …)



On se retrouve avec les mêmes travers infernaux des téléphones mobiles (mises à jour permanentes, sauvages, sans réelle utilité)…





Xanatos a écrit :



&nbsp;J’irai même plus loin en disant que l’on est dans l’obsolescence logicielle, les projets ne se maintiennent plus.&nbsp;



Depuis à peu près l’iPhone et l’iPad, l’informatique grand public a pris le pas sur l’informatique pro. Les problématiques qui avant étaient: pérennité, fiabilité, capitalisation des connaissances sont devenues: attractivité, présence médiatique, time to market

Avis perso.









Xanatos a écrit :



Mème constat.



   J'irai même plus loin en disant que l'on est dans l'obsolescence logicielle, les projets ne se maintiennent plus.









Faut arrêter un peu.

C’est pas un abandon, c’est la version +1 qui laisse une architecture obsolète, en plus si t’es pas content:




  • Tu reste sur Ubuntu 18.04 (10 ans de support)

  • Tu passe sur Debian

  • Tu donne le budget de Redhat à Mint pour les encourager à maintenir l’architecture



ou tu utilises une autre distribution


C’est gentil de me dire ce que je dois faire, merci.

&nbsp;

Je parle d’en général, Ubuntu est un exemple parmi d’autres.

Le bazar toussaaa c’est chouette, on innove, on fork, on créé des tas de choses, par contre pour maintenir il n’y a plus personne, c’est ça le soucis.

Et accessoirement quand on veut de la pérennité on n’utilise pas Ubuntu. <img data-src=" />

&nbsp;

Tout à fait d’accord avec&nbsp;

brice.wernet , on vit une époque de gaspillage sans consolider les bases. Pendant très longtemps le recyclage d’ordinausores était viable, aujourd’hui je vois mal recycler un cpu &lt; 2 cœurs pour usage navigation web, c’est un fait, ça patine dans la semoule. Dernier exemple en date le raspbery pi est un monstre miniature, mais pour naviguer sur le web il a du mal.

&nbsp;








Xanatos a écrit :



C’est gentil de me dire ce que je dois faire, merci.

 

Je parle d’en général, Ubuntu est un exemple parmi d’autres.

Le bazar toussaaa c’est chouette, on innove, on fork, on créé des tas de choses, par contre pour maintenir il n’y a plus personne, c’est ça le soucis.





Comment ça personne ???

-&gt; Ubuntu LTS = 10 ans de support.

-&gt; Redhat = 11 ans ! avec du rétroportage de fonctionnalités dans le kernel.



Tu parle d’obsolescence, je préfère dire que les mainteneurs ne veulent plus assumer le choix de la minorité qui garde du matériel 32 bits en 2019. Et je répète que tu peux continuer à utiliser les versions courantes (on t’oblige pas à upgrader) ou utiliser une distribution qui le supporte encore.









Obidoub a écrit :



Faut arrêter un peu.

C’est pas un abandon, c’est la version +1 qui laisse une architecture obsolète, en plus si t’es pas content:




  • Tu reste sur Ubuntu 18.04 (10 ans de support)

  • Tu passe sur Debian

  • Tu donne le budget de Redhat à Mint pour les encourager à maintenir l’architecture





    Ou tu utilise’ LMDE.



Pas compris ta réaction (oui je ne sais pas le sens de l’image) :)



Sans parler d’obsolescence, on est surtout dans une fuite en avant technologique. On a du matériel avec des capacités énormes mais le code, lui, devient de plus en plus crade et non-optimisé.

Quand je vois ce que l’on arrivait à faire il y a 20 ans avec du matériel limité, ou encore ceux que peuvent faire certains (comme le scène démo), je me dis qu’il y a là des questions à se poser sur comment on conçoit les logiciels à notre époque et les contraintes que l’on impose aux développeurs.



Je le vois tous au quotidien dans le développement web. Et dès que j’essaie de le faire comprendre autour de moi on me répond “on verra plus tard” ou encore “ça fonctionne ? Laisse alors. Si c’est pour gagner quelques ms/ko ça sert à rien” (sauf que “quelques” part ci par là, au final…).

Il faut aller toujours plus vite, donc on sort des outils qui permettent cela, et tant pis si la consommation en ressources augmente exponentiellement par manque d’optimisation du code, et donc augmente in fine l’impact énergétique/écologique.








Furanku a écrit :



Quand je vois ce que l’on arrivait à faire il y a 20 ans avec du matériel limité, ou encore ceux que peuvent faire certains (comme le scène démo), je me dis qu’il y a là des questions à se poser sur comment on conçoit les logiciels à notre époque et les contraintes que l’on impose aux développeurs.





Si les ordinateurs savaient ce qu’est un ‘objet’, les développeurs pourrait se prendre pour des informaticiens.

Je sais, c’est hard; mais je m’explique :

La programmation objet à permis de former des centaines de milliers de développeurs dont l’industrie avait besoin pour produire les millions d’applications qui sortent chaque mois.

Mais aucun (ou quasi) ne sait ce qui se passe au niveau des registres de calcul ou d’adressage du processeur; aucun n’a conscience du nombre de couches qui sépare son code du processeur. Ce n’est pas un reproche, c’est un constat; et la raison est économique : ça n’aurait aucun intérêt financier.

La scène Demo est un bon exemple de ce qu’un informaticien (un vrai) peux faire en apprenant à connaitre la structure intime d’un processeur, et en lui demandant, dans un langage adapté (C, ASM), de faire fonctionner ses rouages internes pour atteindre son but.

Quand il faut tout dire dans le moindre détail à la machine, on optimise, forcément.

Et c’est ainsi que l’on pouvait gérer 20 utilisateurs en accès concurrent sur un fichier de 10 millions d’enregistrements avec des temps de réponse chiffrés en millisecondes … avec un Z80 à 4 Mhz et 64Ko de RAM (je le sais, je l’ai fait … il y 30 ans)

Ah !! mon bon vieux C-ISAM <img data-src=" />









Gilbert_Gosseyn a écrit :



Ou tu utilise’ LMDE.







J’allais le dire. <img data-src=" />



La discussion sur le glissement vers snap du lieu de deb sur le forum de développement d’Ubuntu

https://community.ubuntu.com/t/please-do-not-use-snap-into-ubuntu-its-too-early/…








Furanku a écrit :



&nbsp;Alors que le job d’un dev c’est aussi d’optimiser son code et faire en sorte qu’il consomme le moins possible.





Mouais… Il me semble qu’il y avait eu une mini-polémique lancée par une personnalité de Mozilla parce que ce dernier répondait aux arguments anti-gâchi de RAM par l’idée que ça ne sert à rien d’avoir autant de RAM qu’aujourd’hui si ce n’est pas pour s’en servir…



Le dev n’a pas à optimiser son code pour tourner avec le moins de puissance possible, mais à faire en sorte que l’application fonctionne avec la majorité des machines en service aujourd’hui. La nuance est de taille car ce que nous appelons gâchi ne l’est plus avec une telle logique.



Et j’imagine qu’au passage, les devs se disent que l’utilisateur lambda ne lance que deux ou trois logiciels en même temps de toute façon, donc des ressources il en a…









TheKillerOfComputer a écrit :



Et j’imagine qu’au passage, les devs se disent que l’utilisateur lambda ne lance que deux ou trois logiciels en même temps de toute façon, donc des ressources il en a…





Mauvais calcul. Firefox est utilisé massivement par des power users qui sont ensuite prescripteurs pour les utilisateurs lambdas. Et le power user, il veut que ce soit optimisé, il utilise plus de choses en même temps, et plein d’onglets en même temps.

S’ils se mettent à dos les power users, leur part de marché va tendre vers 1%.









TheKillerOfComputer a écrit :



Le dev n’a pas à optimiser son code pour tourner avec le moins de puissance possible, mais à faire en sorte que l’application fonctionne avec la majorité des machines en service aujourd’hui.





Faux. Du moins selon le point de vue que tu abordes.

Si tu es pour la débauche matérielle pour faire qu’un simple “Hello World!” puisse s’afficher, en effet.

Si tu es contre et que tu te dis que le code doit laisser une empreinte la plus petite possible, pour au passage tourner sur le plus grand nombre de machines possibles, alors le dev doit optimiser son code.



Et perso je suis dans cette seconde optique.

Je ne l’étais pas forcément au début de ma carrière de dev. Mais mon expérience et les projets sur lesquels j’ai bossé depuis, plus la veille que j’effectue, m’ont fait prendre conscience de cet effet de surenchère et de débauche, avec un code qui consomme toujours plus pour arriver à un même résultat qu’il y a 10 ans ou plus.



Tout cela sous prétexte de faciliter le dev (ce qui n’est pas toujours vrai et reste tout relatif), et surtout réduire les coûts… donc du business avant tout.

Pas pour faciliter la vie de l’utilisateur.









GruntZ a écrit :



Si les ordinateurs savaient ce qu’est un ‘objet’, les développeurs pourrait se prendre pour des informaticiens.

Je sais, c’est hard; mais je m’explique :

La programmation objet à permis de former des centaines de milliers de développeurs dont l’industrie avait besoin pour produire les millions d’applications qui sortent chaque mois.

Mais aucun (ou quasi) ne sait ce qui se passe au niveau des registres de calcul ou d’adressage du processeur; aucun n’a conscience du nombre de couches qui sépare son code du processeur. Ce n’est pas un reproche, c’est un constat; et la raison est économique : ça n’aurait aucun intérêt financier.

La scène Demo est un bon exemple de ce qu’un informaticien (un vrai) peux faire en apprenant à connaitre la structure intime d’un processeur, et en lui demandant, dans un langage adapté (C, ASM), de faire fonctionner ses rouages internes pour atteindre son but.

Quand il faut tout dire dans le moindre détail à la machine, on optimise, forcément.

Et c’est ainsi que l’on pouvait gérer 20 utilisateurs en accès concurrent sur un fichier de 10 millions d’enregistrements avec des temps de réponse chiffrés en millisecondes … avec un Z80 à 4 Mhz et 64Ko de RAM (je le sais, je l’ai fait … il y 30 ans)

Ah !! mon bon vieux C-ISAM <img data-src=" />





My 2 cents,



Les besoins ne sont juste plus les mêmes.

A l’époque tu faisais du code pour ton ordinateur 8-bit avec une largeur d’affichage fixe et du matériel connu accessible en bas niveau, et ce n’était pas interopérable avec les autres modèles. Ah oui et il n’y avait aucune notion de sécurité.



De nos jours l’écosystème informatique est beaucoup plus large, ton programme doit s’adapter à la résolution de l’écran, à la vitesse du CPU, à toutes les cartes graphiques/audio existantes, prendre en compte les problématiques de sécurité… ce n’est juste pas possible de coder en bas niveau, tu es obligé de passer par des api, sdk, frameworks.



Pour autant on ne rend pas les utilisateurs plus bêtes, il y a un potentiel de bidouille énorme (suffit d’apprendre à développer).









alex.d. a écrit :



Mauvais calcul. Firefox est utilisé massivement par des power users qui sont ensuite prescripteurs pour les utilisateurs lambdas. Et le power user, il veut que ce soit optimisé, il utilise plus de choses en même temps, et plein d’onglets en même temps.

S’ils se mettent à dos les power users, leur part de marché va tendre vers 1%.





Il me semble que ça s’était fini par un méchant retour de bâton par commentaires utilisateurs <img data-src=" />



Il n’empêche que c’est une tendance qui se généralise : les développeurs semblent fonctionner sur la pensée que leur programme est limite le seul à tourner sur une machine type à un instant donné.



&nbsp;





Furanku a écrit :



Faux. Du moins selon le point de vue que tu abordes.

Si tu es pour la débauche matérielle pour faire qu’un simple “Hello World!” puisse s’afficher, en effet.

Si tu es contre et que tu te dis que le code doit laisser une empreinte la plus petite possible, pour au passage tourner sur le plus grand nombre de machines possibles, alors le dev doit optimiser son code.





Je n’ai pas dit que ta position n’était pas bonne, je la soutiens.



Je fais juste le constat que c’est comme ça. Donc oui, les devs font en sorte que le Hello World tourne peu importe la consommation, tant que ça ne dépasse pas les capacités de la machine-type.



Du coup :





Tout cela sous prétexte de faciliter le dev (ce qui n’est pas toujours

vrai et reste tout relatif), et surtout réduire les coûts… donc du

business avant tout.

Pas pour faciliter la vie de l’utilisateur.



Tout à fait.



De toute façon l’utilisateur, on s’en fout. Il suffit de voir les ravages dans le domaine des interfaces graphiques dans les 10 dernières années pour s’en convaincre. Ça donne des Snapchat et compagnie.









Obidoub a écrit :



Pour autant on ne rend pas les utilisateurs plus bêtes, il y a un potentiel de bidouille énorme (suffit d’apprendre à développer).





Voilà, tu as tout dit <img data-src=" />



Combien de “développeurs” à notre époque, qui ont suivi une formation accélérée et sont ensuite lâchés en entreprise pour pisser du code… avec tous les méfaits que cela engendre. Les formations manquent cruellement de culture générale sur l’informatique et sur la technicité. On forme majoritairement des pisseurs de code plus que des techniciens/ingénieurs…



Je ne conçois pas qu’un développeur ne soit pas, quelque part, un architecte logiciel, capable d’avoir une réflexion globale sur le code qu’il produit et son intrication avec le reste. Ils sont trop nombreux à dire “l’important c’est que ça fonctionne”. Oui, mais à quel prix ? Ça ce n’est que le premier niveau de développement, ensuite il faut incrémenter et factoriser, optimiser, etc.



On dirait que dans le métier “d’analyste programmeur” le mot “analyste” est passé à la trappe…









TheKillerOfComputer a écrit :



Je n’ai pas dit que ta position n’était pas bonne, je la soutiens.





Mea culpa <img data-src=" />









Obidoub a écrit :



… ce n’est juste pas possible de coder en bas niveau, tu es obligé de passer par des api, sdk, frameworks.



AMHA, c’est faux; c’est juste que ce n’est plus du tout économiquement rentable, ni justifié au vu de l’évolution technique des alternatives.

Le codage “à ras les pâquerettes” et le reverse engineering requièrent des compétences qui ne sont plus enseignées (plus “commercialement utile”), sauf à se spécialiser dans l’exploitation des failles du microcode d’un processeur (bye bye SPECTRE, bonjour SPOILER); mais ça reste faisable.



Il n’y a pas que des pisseurs de code, il y a aussi les « artistes ». Enfin ceux qui croient l’être en écrivant du code “joli à regarder”.



Et ce code “joli à regarder”, ça peut être une batterie de boucles sans aucun break et autres conditions qui permettrait pourtant d’en sortir le plus vite possible. Il vaut mieux que ça tienne sur le moins de lignes possibles car c’est plus agréable à l’oeil… mais terriblement inefficace, évidemment.

&nbsp;


Fermer