Il y a 30 ans, Linus Torvalds lançait Linux

Il y a 30 ans, Linus Torvalds lançait Linux

Avec ou sans les bras ?

Avatar de l'auteur
Sébastien Gavois

Publié dans

Logiciel

25/08/2021 4 minutes
149

Il y a 30 ans, Linus Torvalds lançait Linux

L’annonce de Linux fête ses 30 ans, il a donc exactement le même âge que le Web. Au cours des dernières années, le noyau a continué d'évoluer et de se répandre jusqu'à se faire une place… dans Windows.

Linux, c’est un peu comme le PC et le Web, on peut avoir l’impression que le projet a toujours existé tant il est désormais présent partout dans nos vies, de manière plus ou moins visible. Mais pour resituer un peu les choses, Linux a été annoncé après la sortie de Windows 3.0 (mai 1990)… tandis qu’Unix date des années 70.

C'est dans la soirée du 25 août 1991 que Linus Benedict Torvalds publie sur Usenet un court message (à peine plus de 150 mots) qui marquera l’informatique pour les décennies à venir : « un système d'exploitation (gratuit) pour les clones AT 386 (486) ». Son noyau (kernel) ne comptait à ses débuts « que » 10 000 lignes de code.

Il s’adressait alors aux utilisateurs de Minix, un clone d’Unix, dont son système ne reprenait aucune ligne de code. Torvalds présentait son projet comme « un passe-temps », qui « ne sera pas gros et professionnel comme GNU ». 30 ans plus tard, cette dernière phrase sonne toujours aussi faux.

Rapidement, le développeur décide de publier le code sous licence GNU GPL, ce qui a notamment permis à GNU et au noyau Linux de s’associer pour former un nouveau système d'exploitation : GNU/Linux (souvent raccourci en Linux). Slackware, Debian et Red Hat Linux ont été les premières distributions à exploiter le noyau de Linus.

Linux ou GNU/Linux ? 

Richard Stallman, à l’origine du projet GNU (GNU is Not Unix), tient à la terminologie GNU/Linux et pas Linux simplement. Il s’est déjà longuement expliqué sur le sujet

« Beaucoup d'utilisateurs de l'informatique utilisent une version modifiée du système GNU tous les jours sans même s'en rendre compte. À la suite d'une tournure particulière des événements, la version de GNU qui est largement utilisée aujourd'hui est souvent appelée « Linux » et beaucoup de ses utilisateurs ne savent pas qu'il s'agit essentiellement du système GNU, développé par le projet GNU ».

Il existe bien un Linux, mais c'est juste une partie du système utilisé. Linux est le noyau, c'est-à-dire le programme du système qui alloue les ressources de la machine aux autres programmes qu'on exécute. Un élément essentiel, mais seul il est inutile  et ne peut fonctionner que dans le contexte d'un système d'exploitation complet (ici, GNU).

Pour d’autres, dont Linus Torvalds, parler de Linux est plus simple. Une chose est sûre, dans le grand public c’est bien le terme Linux qui est couramment utilisé pour désigner aussi bien le noyau que l'OS.

Linux est partout… même dans Windows

Quoi qu’il en soit, on trouve désormais une base Linux dans à peu près tous les systèmes, du plus petit des objets connectés aux supercalculateurs, en passant par les ordinateurs, les smartphones, etc. Une petite révolution a même été annoncée en 2016 : le sous-système Linux de Windows (WSL), publié le 2 août de cette même année.

Il s'agissait au départ d'un simple shell (Bash) sous Windows 10 permettant ainsi d'utiliser certaines distributions Linux directement au sein de l'OS de Microsoft en y lançant des binaires Linux ELF64. Les appels au noyau étaient alors automatiquement interceptés et convertis à la volée.

Alors qu’il était plutôt limité au lancement, WSL a progressivement  déployé ses ailes. Avec WSL 2 disponible depuis Windows 10 Mai 2020, Microsoft a changé son fusil d’épaule et le système intègre désormais un noyau Linux maison, virtualisé. L'éditeur développe même sa propre distribution : CBL-Mariner, utilisée pour Azure ou WSLg.

De quoi rapprocher Linux et Windows. Une situation rendue possible depuis que Satya Nadella a pris la direction de l’entreprise à la place de Steve Ballmer, qui s’était fait remarquer pour avoir parlé de Linux comme d‘« un cancer ».

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Linux ou GNU/Linux ? 

Linux est partout… même dans Windows

Fermer

Commentaires (149)


Si on avait parlé de WSL il y a ne serait-ce que 10 ans, tout le monde aurait rigolé.
C’est un outil vraiment pratique et je trouve bien foutu. Il correspond très bien à un usage de développeur web couplé à Docker, surtout en conjonction avec VSCode.
Je ne l’utilise pas encore au quotidien mais je me tâte, pour conserver un accès aux applis Office (ou même les jeux pendant la pause dej) tout en ayant les mêmes capacités de code que sur mon Linux.


Ben quand on voit l’opinion qu’avait Steve Balmer de Linux, c’est sur qu’on aurait rigolé :transpi: (lui, il aurait rigolé jaune quand même…)


Joyeux anniversaire Linux. Me concernant, c’est dans les 15 ans de collaboration déjà.


moi ça doit faire 17 ans, je l’ai détesté pendant 2 ans* (ça veut pas dire que j’appréciai Windows pour autant!) , pour finalement m’y habituer et l’apprécier.




  • un jour mon manager est venu et m’a dit: bon bin maintenant tu vas t’occuper des serveur linux après le départ de la personne en charge des serveurs linux….


En même temps, Balmer c’était le Trump de Microsoft.



Pour ma part, je remercie surtout Linus pour git qui est génial !



eglyn a dit:


Ben quand on voit l’opinion qu’avait Steve Balmer de Linux, c’est sur qu’on aurait rigolé :transpi: (lui, il aurait rigolé jaune quand même…)




En même temps il était plutôt visionnaire au final. Linux a bien infecté Windows et Microsoft en général d’ailleurs il a déjà tué quelques cellules Azure de ce dernier mais pour le moment ça lui réussi plutôt bien.


GoboLinux pour ma part, je l’utilise de plus en plus.


Rapidement, le développeur décide de publier le code sous licence GNU GPL, ce qui a notamment permis à GNU et au noyau Linux de s’associer pour former un nouveau système d’exploitation



Ceci est faux. Ce n’est pas le fait que la licence du noyau Linux soit la GPL qui a permis d’utiliser le système GNU avec ce noyau. Rien n’interdit d’utiliser le système GNU avec un noyau non GPL et même non libre.


Il s’agissait au départ d’un simple shell (Bash) sous Windows 10 permettant ainsi d’utiliser certaines distributions Linux directement au sein de l’OS de Microsoft en y lançant des binaires Linux ELF64.



Ceci est encore faux. Ce n’était pas un simple shell Bash) mais une distribution Linux à l’exception du noyau qui était remplacé par une émulation du noyau Linux comme indiqué ci-dessous :



Les appels au noyau étaient alors automatiquement interceptés et convertis à la volée.



ErGo_404 a dit:


C’est un outil […] je trouve bien foutu.




En plus des autres habituelles horreurs de sécurité Windows, WSL ouvre une autre boîte de Pandore niveau sécurité.
Une certaine communauté se fend bien la poire avec les LOLBins, et WSL augmente le champ des possibles.



La seule mission de WSL est d’empêcher la fuite vers GNU/Linux des utilisateurs moyens qui seraient éventuellement prêts à franchir le pas pour découvrir un environnement libre.
Cela, afin de les continuer à les enfermer dans un environnement Microsoft-dépendant, afin qu’ils conservent leurs habitudes, paient des licences (Windows & autres)
… et, par ricochet, qu’ils poussent les entreprises à continuer d’utiliser des produits Microsoft(-compatibles), là-aussi pour qu’elles paient des licences et s’enferment dans un environnement Microsoft-dépendant.



“Pas besoin d’installer GNU/Linux : vous avez WSL”.
Les connaisseurs reconnaîtront l’arnaque marketing, les autres se f(er)ont piéger comme les bleus… qu’ils sont.



Satya Nadella est très fort : entre la transformation de tous les produits en services et l’intégration d’un pseudo noyau Linux + outils GNU réappropriés, l’écrasante majorité des utilisateurs seront ravis de la peinture fraîche sur les murs de leur prison. La vache à lait pécuniaire d’un environnement tout-Microsoft a de (très) beaux jours devant elle.
Stockholm, toussa toussa.


J’imagine que tu te places du côté des connaisseurs (et donc, vu mon commentaire, que tu me places du côté … des bleus). Je trouve ton message arrogant pour rien. Tu énonces des vérités assez évidentes (par exemple, que MS souhaite que l’on reste sur Windows) et en même temps des jugements de valeurs basée sur ta vision assez étriquée.



Je pense qu’un long débat sur l’intérêt de Windows avec toi ne mènerait à rien, mais garde à l’esprit que tout le monde n’a pas les mêmes besoins et envies que toi, et que même avec ses inconvénients Windows reste un choix pragmatique dès lorsque tu utilises des outils qui ne sont présents que sur cet OS. On parle ici bien évidemment de 95% des jeux vidéo, de la suite Office, des outils de graphisme, des logiciels pros, etc.


MS ne retient pas (toujours) ses utilisateurs et en entreprise, pour avoir fait des 1àaines d’atelier et de fasttrack, ils sont bien conscient des limites des produits.



Après on a le choix, on veut du Azure, M365, je ne connais pas dans le “libre” de fournisseur avec autant d’intégration (bien joué MS là dessus) et faut être pragmatique. On en a fait des pilotes là dessus, passé du temps (très formateur) mais au vu des coûts de maintenance, en JH, MS est au final plus rentable d’après la direction (je demande à voir).


Il n’y a rien de Linux dans WSL : c’est plutôt un portage de l’ecosystème GNU sur le noyau NT, c’est-à-dire que WSL fait tourner sous Windows une distribution Linux entière, à l’exception de son noyau (Linux, justement).


Revenions-en au sujet : GNU/Linux.



Quel beau projet personnel qui a bénéficié d’une trajectoire tellement enviable !



Aujourd’hui, malgré les dangers toujours présents relatifs à la sécurité de code collaboratif, à la pression sur les licences sur lesquelles il faut rester attentifs afin de veiller à l’usage fait par les entités propriétaires/privatrices qui se servent, et malgré les outils monolithiques qui font leur chemin jusqu’au PID 1 grâce à la manne financière de grosses entreprises, GNU/Linux est une des rares manière de bénéficier d’un environnement sûr et stable.
Quel régal.



Même si Linus a beaucoup d’ego, prend beaucoup de place et polarise, un grand merci au génie créateur de cette personne !


Déjà dredi ?



Tu en dis des bêtises en un seul post…


Cumbalero

Déjà dredi ?



Tu en dis des bêtises en un seul post…


Je sais que le sujet s’y prête, mais si on pouvait éviter de se chamailler bêtement, ça serait pas plus mal :chinois:


David_L

Je sais que le sujet s’y prête, mais si on pouvait éviter de se chamailler bêtement, ça serait pas plus mal :chinois:


d’un autre côté, la personne à laquelle il a répondu en a posté un bien gros, poilu et baveux juste avant, même si sa réponse pointe sur le mauvais :chinois:



(quote:1892041:alex.d.)
Il n’y a rien de Linux dans WSL : c’est plutôt un portage de l’ecosystème GNU sur le noyau NT, c’est-à-dire que WSL fait tourner sous Windows une distribution Linux entière, à l’exception de son noyau (Linux, justement).




Non, comme précisé plus haut, WSL1 implémentait les appels systèmes Linux sur le noyau Windows. WSL2 est un vrai noyau Linux qui tourne dans une VM Hyper-V: https://docs.microsoft.com/en-us/windows/wsl/compare-versions



ErGo_404 a dit:


Si on avait parlé de WSL il y a ne serait-ce que 10 ans, tout le monde aurait rigolé.




C’est clair. Moi le 1er…




Berbe a dit:


En plus des autres habituelles horreurs de sécurité Windows, WSL ouvre une autre boîte de Pandore niveau sécurité. Une certaine communauté se fend bien la poire avec les LOLBins, et WSL augmente le champ des possibles.



Cela, afin de les continuer à les enfermer dans un environnement Microsoft-dépendant, afin qu’ils conservent leurs habitudes, paient des licences (Windows & autres) … et, par ricochet, qu’ils poussent les entreprises à continuer d’utiliser des produits Microsoft(-compatibles), là-aussi pour qu’elles paient des licences et s’enferment dans un environnement Microsoft-dépendant.




Mouais… ça, c’est vrai seulement si tous les utilisateurs et toutes les boites qui ont du MS sont tous parfaitement débiles et hautement influençables.
Ou alors, l’explication la plus plausible reste quand même que la plupart de ces gens sont pragmatiques et utilisent les outils qui correspondent à leur besoin même si ceux-ci sont payants.
J’ai longtemps tenu ce discours “MS = maychants pa bô qui lobotomise ses clients et les retient enchainés ad vitam” mais avec le temps, je me suis aperçu que c’est loin d’être vrai… Parfois oui, et parfois pas du tout. Pour la plupart des cas, c’est très nuancé. Faut pas oublier que sur certains trucs, ils ont des produits pas si pourris.
(mais j’irai pas acheter du MS a titre perso quand même, faut pas déconner)



Le mercredi 25 août 2021 à 13:37




Les vrais savent.



trou a dit:


Non, comme précisé plus haut, WSL1 implémentait les appels systèmes Linux sur le noyau Windows. WSL2 est un vrai noyau Linux qui tourne dans une VM Hyper-V: https://docs.microsoft.com/en-us/windows/wsl/compare-versions




Ah oui, tiens, j’avais raté cette évolution. J’en était resté au wine à l’envers.
Mais du coup, quel est l’intérêt par rapport à avoir un Linux dans une VM classique ?


Première version Linux : 36 disquettes 3.5 pouce (on parle pas des loupées/corrompu/….) bien sur à recompiler …..



trash54 a dit:


Première version Linux : 36 disquettes 3.5 pouce (on parle pas des loupées/corrompu/….) bien sur à recompiler …..




Quelle capacité les disquettes ? 1,4 Mo, 720Ko ou 360 ? :transpi:



(quote:1892051:alex.d.)
Ah oui, tiens, j’avais raté cette évolution. J’en était resté au wine à l’envers. Mais du coup, quel est l’intérêt par rapport à avoir un Linux dans une VM classique ?




L’intégration. WSL est très intégré dans windows et rend l’utilisation de Linux quasi transparente.


Heure parfaite pour poster cet article !


Vive GNU/Linux ! Et j’espère que le Steam Deck va rendre le gaming sur linux réellement possible, même pour les vieux jeux. C’est la seule raison valable de garder encore Windows pour un usage perso


Ca doit faire 15 ans environ que je l’utilise, mais jamais en Desktop, uniquement serveur.



Je trouve Windows plus agréable pour un usage personnel et comme je dev pour Windows…



Je me souviens d’avoir passer des heures à configurer un exim4, d’avoir monté un serveur DNS IPv6 bien avant la plupart des gens, ou autres drôlerie du genre.



Ajourd’hui, j’ai toujours 3 machines Ubuntu ou OPNsense, ça m’entretient !



D’ailleurs, les utilisateurs du forums doivent trouver que ça fait longtemps que tout n’a pas planté 😅



ErGo_404 a dit:


Si on avait parlé de WSL il y a ne serait-ce que 10 ans, tout le monde aurait rigolé.




Il y a 10 ans: http://www.colinux.org/ - et ça a débuté en 2004.
Je l’avais testé à un moment - mais sans conviction, je tournais sous BSD à l’époque.



Edtech a dit:


Je trouve Windows plus agréable pour un usage personnel et comme je dev pour Windows…




Oui, bon argument pour avoir Windows :)



Linux, c’est la liberté totale - et le pire fouilli que je connaisse.



Autant j’ai beaucoup d’estime pour le noyau, autant je n’en n’ai pas beaucoup pour la plupart des distros: doc pas à jour, pas de cohérence dans les outils, pas de doc d’install correcte… Hors, difficile de ne pas confondre Linux avec ses distros.



Autant j’aime bien bidouiller sous Linux, autant avec leurs docs plus cohérente/complètes/compréhensibles, les autres systèmes comme BSD, OpenVMS et même Windows (en tout cas à l’époque du MSDN) ont toujours eu ma préférence en pro…



Les systèmes dont la doc disparaît en quelques années car elle n’est diffusée que sur internet, ça me lasse…



J’imagine que si on est administrateur dédié Linux, on doit savoir où trouver la bonne doc (les man pages sont de qualité très variable) mais si c’est un système parmi d’autres et qu’il faut apprendre de Redhat, le centos, le debian = 9 pour corriger chaque système, c’est fatiguant.


perso en tant que admin windows/linux, sur les doc, je trouve que les 2 se vallent, par contre mention spéciale à la doc officielle archlinux (leur wiki) que j’ai trouvé bizarrement succinte, pourtant dans 99% des cas j’ai trouvé la solution ou l’explication que je cherchais!



SebGF a dit:


Joyeux anniversaire Linux. Me concernant, c’est dans les 15 ans de collaboration déjà.




13 ans d’utilisation (dual boot uniquement pour les jeux…) - Aucune contribution - Je prends conscience que suis un morpion :roll:



Bon au moins j’achete mes licences windows pour le jeu… Sur le marché gris :cartonrouge:



revker a dit:


En même temps, Balmer c’était le Trump de Microsoft.



Pour ma part, je remercie surtout Linus pour git qui est génial !




Ahah. En effet cet incompétent a privé Microsoft d’ un avenir encore plus radieux. Pariant toujours sur les mauvais chevaux avec l’esprit le plus fermé qui soit.



rmfx a dit:


Ahah. En effet cet incompétent a privé Microsoft d’ un avenir encore plus radieux. Pariant toujours sur les mauvais chevaux avec l’esprit le plus fermé qui soit.




C’est pas lui qui a commencé: Gates ne croyait pas au web.


Linux en a fait du chemin. Il y a 10-15 ans voir 5-10 ans, le fil aurait pas pu atteindre 10 coms sans qu’un commentateur vienne troller qu’aucune distribution linux n’était userfriendly comme windows. Et aujourd’hui on peut atteindre 30 posts sans avoir ce genre de com.


Tain… l’anniversaire de Linux et à peu près la moitié des posts parlent de Windows…
Enfin, disons que c’est parce que le rédacteur conclue son papier par un gros pavé sur le WSL, alors que c’est purement anecdotique dans toutes les utilisations de Linux aujourd’hui…
Bref bon anniv, et bon boulot Torvalds et la communauté


Parce que si on avait pas parlé de WSL, bien entendu, aucun commentaire n’aurait fait mention de Windows :D



Et désolé, je sais qu’il te faut toujours un angle pour te plaindre dans les commentaires, mais on parle régulièrement de l’anniversaire de Linux depuis 1520 ans qu’on existe, et s’il y a bien un élément qui diffère de 2016 c’est tout de même l’intégration à Windows, sous une forme batarde dans un premier temps, puis un noyau complet désormais (et WSLg/CBL-Mariner).



Désolé que ça te défrise autant ou que tu considères que ce n’est pas faire le job correctement :chinois:


David_L

Parce que si on avait pas parlé de WSL, bien entendu, aucun commentaire n’aurait fait mention de Windows :D



Et désolé, je sais qu’il te faut toujours un angle pour te plaindre dans les commentaires, mais on parle régulièrement de l’anniversaire de Linux depuis 1520 ans qu’on existe, et s’il y a bien un élément qui diffère de 2016 c’est tout de même l’intégration à Windows, sous une forme batarde dans un premier temps, puis un noyau complet désormais (et WSLg/CBL-Mariner).



Désolé que ça te défrise autant ou que tu considères que ce n’est pas faire le job correctement :chinois:


Euh, comment dire…
Tel que c’est écrit, en lisant derrière la toute petite ironie, ça veut justement dire que même si le rédacteur n’avait pas conclu là dessus, les coms auraient abondé de Windows.



Enfin je persiste : parler du WSL en corps de texte pourquoi pas (en fait si, évidement ça mérite dd’être mentionné), c’est conclure dessus que je trouve étrange.
La conclusion, me disaient mes profs de français, c’est une synthèse du sujet, si possible en l’étendant. Je persiste, conclure sur un truc anecdotique, tout révolutionnaire et “defrisant” qu’il soit, ça réduit la portée du sujet à l’anecdote en question.



Et non, je ne me plains pas toujours. Desfois oui je ne le nie pas, desfois je trolle aussi, et assez souvent j’exprime un contentement. Mais bon, c’est souvent le négatif qu’on retient : c’est humain, je ne t’en veux pas.


Anonyme_f7d8f7f164fgnbw67p

Euh, comment dire…
Tel que c’est écrit, en lisant derrière la toute petite ironie, ça veut justement dire que même si le rédacteur n’avait pas conclu là dessus, les coms auraient abondé de Windows.



Enfin je persiste : parler du WSL en corps de texte pourquoi pas (en fait si, évidement ça mérite dd’être mentionné), c’est conclure dessus que je trouve étrange.
La conclusion, me disaient mes profs de français, c’est une synthèse du sujet, si possible en l’étendant. Je persiste, conclure sur un truc anecdotique, tout révolutionnaire et “defrisant” qu’il soit, ça réduit la portée du sujet à l’anecdote en question.



Et non, je ne me plains pas toujours. Desfois oui je ne le nie pas, desfois je trolle aussi, et assez souvent j’exprime un contentement. Mais bon, c’est souvent le négatif qu’on retient : c’est humain, je ne t’en veux pas.


C’est un article, pas une rédaction “Thèse, Antithèse, Synthèse” ;)


20 ans de Linux derrière moi. Que le temps passe…



(reply:1892061:Skiz Ophraine)




J’avais connu quelques vieux briscards d’Unix à l’époque qui pestaient contre Linux qui arrivait en force dans la DSI (alors fortement AIXisée et AS400isée). “C’est un jouet fait par des devs pour des devs !” j’entendais souvent chez eux.



A titre perso je ne suis pas capable de savoir s’ils avaient raison ou bien étaient juste rebutés à l’idée de sortir de leur zone de confort, mon expérience sur AIX étant plus superficielle. Mais ça me faisait marrer de les voir faire leur guerre de clocher. :francais:


A l’inverse, et même sans être dev, on a été nombreux d’avoir enfin un Unix-like (Linux Is Not Unix ;-) ) sur x86 et s’affranchir du très coûteux SCO Unix et du très lourd Solaris for PC


Esquive comme tu veux.
Mais conclure les 30 ans de Linux par “chouette et en plus c’est dans windows” sur 3 paragraphes et demi, tu ne m’enlevera pas de l’esprit que le sujet méritait largement mieux.
Genre quel pourrait être le futur de Linux ? Quelle nouvelle étape à franchir maintenant que justement Linux est partout ? Comment faire pour augmenter la PDM de GNU/Linux sur desktop ? Quid des concurrents, s’il y en a de sérieux (hurd, etc.) ? Quid de la gouvernance et de la direction que ça peut prendre quand Linus va se retirer ou mourir ? Etc.


Je n’esquive pas, mais tu as un avis différent. Il ne me semble pas pertinent, mais je le respecte. Tu attendais un dossier complet, ce n’était pas l’objectif de cet article (on en écrit d’autres sur Linux).



PS : avec WSLg, la pdm de Linux Desktop va forcément augmenter ;)



Drepanocytose a dit:


Esquive comme tu veux. Mais conclure les 30 ans de Linux par “chouette et en plus c’est dans windows” sur 3 paragraphes et demi, tu ne m’enlevera pas de l’esprit que le sujet méritait largement mieux. Genre quel pourrait être le futur de Linux ? Quelle nouvelle étape à franchir maintenant que justement Linux est partout ? Comment faire pour augmenter la PDM de GNU/Linux sur desktop ? Quid des concurrents, s’il y en a de sérieux (hurd, etc.) ? Quid de la gouvernance et de la direction que ça peut prendre quand Linus va se retirer ou mourir ? Etc.




le principe est de ne PAS augmenter la PDM sur du desktop, pour plusieurs raisons :
a/ linux restera pour l’informatique et le GP un système par et pour les pros, ce qui est VRAI : il est essentiellement utilisé dans les datacenters, à des fins pros ou scientifiques. En aucun cas une michu ne veut de ligne de commande. Un vrai linux IMPOSE l’usage du terminal.
b/ linux ne veut pas être windows, aka ciblé par des virus, ransomwares et logiciels malveillants, ciblant systématiquement et forcément l’OS le plus répandu sur ordinateur. Linux veut rester “élitiste”, qui’il le reste.
c/ sans compter que beaucoup de progs ne tournent pas sur linux, notamment les logiciels indispensables aux professionnels, logiciels propriétaires notamment.
d/ Linux, KISS. Tout est fichier, et la michu ni le gérard ne veulent s’amuser à éditer du .conf sous nano ou gedit toutes les semaines pour modifier leur configuration wifi, changer tel ou tel paramètre.
Oui, quand ta distro va tout va. Quand ton ordi est trop récent ou utilise une carte wifi non reconnue par l’ordi, tu passes forcément par les fichiers conf ou la ligne de commande.
N’oublions jamais qu’un terminal (linux, windows..) est contre-intuitif et ne sera jamais accepté par le commun des mortels, à l’instar de l’huile qui coule sur les mains quand tu dépannes un véhicule ou de l’électroménager : les gens ont horreur de la maintenance, surtout quand ils ne connaissent pas, et ils ont raison : ils veulent du kimarche, et ne surtout pas se faire chier avec en cas de problème.



Berbe a dit:


“Pas besoin d’installer GNU/Linux : vous avez WSL”. Les connaisseurs reconnaîtront l’arnaque marketing, les autres se f(er)ont piéger comme les bleus… qu’ils sont.




Piéger? Enculer serait le mot juste!


ne confondons surtout pas le vrai linux installé par des connaisseurs par l’entourage familial, l’install party ou autres initiatives variées, au “linux” imposé par défaut sur des millions de smartphones et ne correspondant pas à la philosophie du libre, à savoir être attiré/convaincu par l’alternative logicielle : android n’est pas un “linux” sous entendu alternative, mais un OS vendu comme un windows.
jamais je ne tirerai mon chapeau à ceux qui prétendent que linux tourne partout sous prétexte qu’android a été imposé sur l’appareil de gens qui s’y connaissent rien en informatique !



(reply:1892135:::1)




T’as oublié de dire qu’il faut recompiler 5 fois le noyau pour pouvoir utiliser une souris sous Linux.



(reply:1892133:::1)




Linux fait aussi tourner la plupart des box Internet, routeurs domestiques (pour les pays qui n’ont pas de box) et autres systèmes embarqués. Et c’est là aussi un vrai Linux souvent sans les outils GNU.




(reply:1892135:::1)




J’ai l’impression que ça fait longtemps que tu n’as pas touché une distribution Linux.
Ça s’utilise sans mettre les mains dans le cambouis même avec du matériel récent. Le fait qu’Intel contribue largement au noyau doit pas mal aider.



Quant à ton affirmation que le terminal est contre-intuitif, c’est faire peu de cas de tous ceux qui ont connu l’informatique avant l’avènement des interfaces graphiques. Windows ne date que de 1985 et le premier système à interface graphique ne date que de 1973.



Edit : J’oubliais : les logiciels pro sont de plus en plus utilisés depuis un navigateur et dans ce cas, Linux n’est pas un problème. Pour ceux qui restent natifs, ils viendront à Linux si les parts de marché sont là, mais encore une fois, ils sont de plus en plus rares.


Pour les personnes qui veulent essayer Linux, une petite documentation, pas à pas : https://infolib.re
Ça s’installe plus facilement et plus rapidement que Windows. La phase paramétrage permet de découvrir l’environnement graphique Cinnamon (il y en a d’autres, les licences libres permettent d’avoir du choix). Plus on l’utilise, moins on a envie de revenir à Windows (je suis passé à Linux en 1999).


Les liens promos à chaque commentaire, on s’en passe, merci ;)


souvenir de décrouvrir que nos IBM ps/2 flambant neuf possédait un joli bus MCA au lieu du bon vieux ISA du coup ben rip l’installation de linux 0.99 dessus.



je me suis toujours demandé qu’elle est l’abruti chez IBM qui a pondu un bus propriétaire et qui dans l’académie avait choisi ces ps/2 qui coutait un bras par rapport a un compatible. Ca aurait pu transformé notre vie dans le lycée :D


C’est pas mal il aura fallu attendre le commentaire 45 pour avoir du type “Mme Michu ne veut pas du terminal linux pour tripatouiller les fichiers .conf alors qu’on ne peut pas s’en passer”. ça s’améliore, dans 10 ans les trolls auront enfin compris qu’on peut faire tourner un ordi sous une distro généraliste sans passer par le terminal.



(quote:1892133:::1)
ne confondons surtout pas le vrai linux installé par des connaisseurs par l’entourage familial, l’install party ou autres initiatives variées, au “linux” imposé par défaut sur des millions de smartphones et ne correspondant pas à la philosophie du libre




Linux est aussi dans les NAS, les SAN d’entreprise, et mon ancien picoprojecteur samsung.



Par contre, un linux installé sur un ordi est peut-être un “vrai linux”, mais à milles lieux de l’original, bardé d’extensions dans le kernel pour que d’autres softs y aient une place au lieu d’utilise le FS pour communiquer, et en plus on a tué le serveur X parce qu’on ne savait pas comment faire pour que le terminal soit celui qui effectue le rendu…



Bref, on a tourné linux pour qu’il ressemble à un OS desktop comme Windows.


Ce qui a bien profité à Linux et à tous, c’est le côté GNU, il faut le reconnaître. De grosses firmes (y compris IBM, Oracle, Ms…) ont profité d’avoir ce kernel à disposition pour le tuner/l’étendre/l’utiliser, et y ont contribué en rendant modifications et souvent pilotes.
Sous BSD on n’a pas forcément le retour.



Et on arrive toujours à faire des Linux utilisables en moins de 16Mo, ça c’est cool :)


Encore heureux que çà ne touche pas les pauvres gens qui se disent codeurs et qui n’ont aucunes notions de cobol, ASM ou de C :‘(
vive nix ! (j’ai commencé sur des pdp-11)



Le lancer de manchots c’est pas un sport de yétis ?



:humour:



(quote:1892133:::1)
ne confondons surtout pas le vrai linux installé par des connaisseurs par l’entourage familial, l’install party ou autres initiatives variées, au “linux” imposé par défaut sur des millions de smartphones et ne correspondant pas à la philosophie du libre




La philosophie du libre est qu’il est bien plus efficace d’avoir un socle de code source commun, que tout le monde peut utiliser gratuitement et contribuer s’il le souhaite (comme Wikipedia qui en a repris le principe), plutôt que chaque constructeur de matériel/utilisateur ait besoin de racheter/refaire lui même de zéro.



C’est simplement rationnel d’un point de vue industriel et économique, et c’est pour ça que ça s’est imposé. Le libre n’a jamais été une philosophie destinée à rester “alternative”, au contraire, quand on a compris le principe, on sait que c’est destiné à s’imposer progressivement.



Richard Stallman tient à la terminologie GNU/Linux et pas Linux simplement.




Mais non, RMS n’est pas jaloux. Pas du tout… :mdr:



(quote:1892135:::1)
N’oublions jamais qu’un terminal (linux, windows..) est contre-intuitif et ne sera jamais accepté par le commun des mortels,




C’est marrant parce que l’informatique “grand public” a été amenée par l’IBM PC, qui tournait sous DOS. Je ne sais pas si tu as déjà utilisé DOS, mais franchement, on fait mieux comme interface graphique.



Bon, et sinon moi mes logiciels “professionnels” tournent exclusivement sous Linux. On est pro ou on ne l’est pas.


On peut être Pro, sous Linux et en rester à de la gaminerie :D Sur le fond, l’histoire est toujours la même : différents besoins, différents outils. “Gnia gnia gnia, c’est mois le meilleur et de toutes façons j’ai raison” = puérile, quel que soit le “camp” qui utilise l’argument.



Surtout qu’évoquer DOS pour parler d’étendue du PC fait quand même doucement rigoler. On a effectivement dû tous commencer avec du CPC 464, PC sous DOS ou autre, parce qu’il y avait un passionné/geek dans le coin pour nous y faire goûter, mais on en faisait quoi ? Peu de choses.



Certes on pouvait déjà jouer à cette époque (si on aimait modifier la mémoire paginée et Autoexec.bat), mais ce n’était pas non plus la panacé et heureusement que les interfaces graphiques, souris et autres avancées sont rapidement venues.



Parce que quand on parle d’informatique grand public, on parle de plusieurs appareils par habitant dans un pays comme la France. Si on en était resté à DOS, je ne suis pas sûr que le résultat aurait été le même. Oui la CLI rebute. Elle est parfois nécessaire, parfois plus rapide, mais elle rebute (à raison). Et oui, Linux la nécessite de moins en moins (mais quand même).



Idem pour les jugements de valeur de type “Pro” = “Sous Linux”. Je ne commenterai pas plus avant tellement l’argument est ridicule (à moins de considérér que seul un développeur système est digne, ce qui est effectivement la façon de penser de certains, à tort).



La guerre a d’autant peu d’intérêt que comme il a été dit ici ou là, les deux “camps” ont gagné, chacun à leur manière. Linux parce qu’il est partout, utilisé par tout le monde, de manière plus ou moins directe, au point que MS l’intègre à son OS principal, construise le succès d’Azure en très grande partie grâce à lui.



Microsoft, parce qu’ils sont la plateforme grand public la plus puissante à ce jour, maître de nombreux grands usages, présente du petit PC pour faire de la bureautique à la station de travail en passant par presque toutes les machines de Gamer, même si elle est contestée.



Chacune a ses atouts, on peut apprécier à raison l’une ou l’autre, l’important à mon sens, ce n’est d’ailleurs pas que telle ou telle marque des points, mais que quelle que soit la plateforme, le monde et la pensée du libre y progressent. Même si ce n’est pas toujours facile. Même si cela implique la multiplication à l’envi de stériles combats de coqs.


Premières tentatives d’install entre 1994-1998 pour ma part avec une suse ou redhat filée en CD avec un magazine, mais ça n’avait pas fonctionné faute de pilote. (et j’ai commencé à l’époque d’avant AOL illimité, donc tu ne pouvais pas passer des heures sur le net à trouver une soluce).



Début 2000, j’ai eu la phase dual-boot : d’abord avec windows par défaut puis linux. (je dirais mandrake puis debian et ses dérivés ).
Un jour j’ai constaté que je ne bootais jamais Windows, donc je l’ai viré et suis passé à Gentoo que j’utilise toujours (vers 2005 je dirais). Je l’ai ré-installée une fois depuis au passage au 64bit, sinon c’est rolling release depuis > 15ans :) )



Sur certains aspects je trouve Gentoo plus simple que Debian par ex : les outils de dev sont inclus c’est très simple de bricoler un soft, sous Debian installer un pilote relevait du parcours du combattant (trouver le pilote tout compilé, ou installé les outils de dev, les sources , et tenter de recompiler soi-même, puis galérer avec les pb de versions de noyau vs pacakge tout-compilé d’apt…).
Sous Gentoo toute la chaine de compil est prête à servir, la doc explique tout simplement et avec les rolling release tous les matos sont reconnus : la plupart des pb de pilotes sont du passé car le noyau est toujours ultra récent !


Je parie une RedHat 4.1 avec le Dream 41 de juin 1997 … Hum ?
:kimouss:



J’avais fait pareil sauf que ça s’était installé, pour remettre Windows peu après vu qu’on pouvait pas jouer à Vroom ni Dune 2 avec :mdr:



Ceci n’est pas une pub mais une référence … Vieux magasines : Dream


“Je l’ai ré-installée une fois depuis au passage au 64bit, sinon c’est rolling release depuis > 15ans :) )”
Fucking respect.:incline:



fofo9012 a dit:


Premières tentatives d’install entre 1994-1998 pour ma part avec une suse ou redhat filée en CD avec un magazine,




Et à l’époque: si tu avais 4Mo de RAM, tu restais en CLI, lancer le serveur X + le client X sur la même machine, ça mangeait toute la RAM, il fallait au moins 8Mo




(quote:1892135:::1)
b/ linux ne veut pas être windows, aka ciblé par des virus, ransomwares et logiciels malveillants, ciblant systématiquement et forcément l’OS le plus répandu sur ordinateur. Linux veut rester “élitiste”, qui’il le reste.




Beaucoup de tentatives de distro “grand public” prouve que non, “Linux” tente d’être grand public à la place de Windows. Dans d’autres pays ayant une informatique plus récente ou encore en développement, ça peut fonctionner.
Mais si “Linux” peut gagner ce n’est pas “Linux” que les gens voient en grand public, mais le bureau: GNOME ou KDE essentiellement. Que KDE tourne sur Linux, BSD ou Windows, du moment que c’est KDE…
La bataille du desktop n’est pas une bataille de Linux, mais des DE.




(quote:1892135:::1)
d/ Linux, KISS.




Si seulement… Mais pour chaque outil, un outil de configuration différent, une structure différente. Et pour chaque outil, un autre outil à peu près équivalent qui “fait mieux” (grr la bataile Sysv vs systemctl)
Le prix à payer pour le libre? Une fragmentation énorme des outils… Je n’interroge jamais quelqu’un pour savoir s’il connait linux: il peut connaître une distro ou une autre, ou des outils opensource, Linux n’a à peu près rien avoir dedans. Quelqu’un qui connaît Linux n’es tpas aussi intéressant que quelqu’un qui sait configurer convenablement une synchro du fs de deux ordi en mode bloc (sous linux) ou quelqu’un capable de faire correctement du maître/esclave mysql (sous linux)
Mais ça a peu à voir avec linux dans les deux cas, plus aux outils construits dessus.



(quote:1892181:brice.wernet)
Mais si “Linux” peut gagner ce n’est pas “Linux” que les gens voient en grand public, mais le bureau: GNOME ou KDE essentiellement. Que KDE tourne sur Linux, BSD ou Windows, du moment que c’est KDE… La bataille du desktop n’est pas une bataille de Linux, mais des DE.




Ça me semble un résumé de l’enjeu plutôt très pertinent. :chinois:




(quote:1892181:brice.wernet)
Si seulement… Mais pour chaque outil, un outil de configuration différent, une structure différente. Et pour chaque outil, un autre outil à peu près équivalent qui “fait mieux” (grr la bataile Sysv vs systemctl) Le prix à payer pour le libre? Une fragmentation énorme des outils… Je n’interroge jamais quelqu’un pour savoir s’il connait linux: il peut connaître une distro ou une autre, ou des outils opensource, Linux n’a à peu près rien avoir dedans.




Je dois m’inscrire en faux : si effectivement on a une inflation du syndrome de “ceci est une révolution” sur certains sous-systèmes, on a également a) de nouveaux standards qui émergent (sur la virtualisation par exemple, pour le moment Docker est bien parti pour devenir la nouvelle norme en entreprise) et surtout b) beaucoup d’outils “de base” que tu trouves absolument PARTOUT sans discontinuer depuis 1980 jusqu’à aujourd’hui, notamment dans tous les outils en ligne de commande de traitement de texte ou flux de texte…



Ce qui n’est d’ailleurs pas étranger à mon sens à la résistance qu’il y a eu face à systemd ou aux nouveaux paradigmes de gestion d’infra avec puppet et compagnie (qui simplifient partiellement mais déportent une partie de la complexité malgré tout) : tant que le fonctionnement reste sur une base texte, un mec qui maîtrise tous ces outils de base a une compétence bien portable.


GNU/Linux a ceci d’intéressant que c’est une base solide pour un système d’exploitation, avec des contributeurs de tous bords pour le noyau et les logiciels de base tels que SystemD, etc.



Mais malheureusement, dès qu’on commence à parler interface graphique et environnements de bureau, ça devient vite compliqué: beaucoup de choix, mais pour chaque choix son lot de compromis sur les fonctionnalités, sur la philosophie, sur le design, sur les technologies utilisées, la cohérence d’ensemble, etc…



On sent clairement que contrairement au noyau, les développeurs d’applications n’ont plus une contribution commune mais ont plutôt tendance à être fractionnés : GTK pour les uns, QT pour les autres, conflits de licences, innombrables forks et j’en passe. Bien des projets prometteurs finissent par ralentir, tomber en désuétude et être remplacés par d’autres projets au stade embryonnaire qui n’évoluent pas bien vite.



Le sentiment final que je ressens quelque soit la distribution que j’installe, c’est du “pas fini, brouillon”, “bien conçu mais mal réalisé”, “limité, même et surtout sur des standards ouverts”, etc. Je ne parle pas de l’âge des versions fournies selon les distributions, qui peuvent avoir jusqu’à 2 ans de retard.



Tant et si bien que malgré les avantages du Libre/OpenSource/Gratuit je reste sous Windows et MacOS parce que les applications, payantes et fermées, sont mieux finies et plus adaptées à mes besoins, et plus confortables.



Joyeux anniversaire Linux, je t’aime beaucoup, mais malheureusement tu portes encore trop de conflits et de divisions, au lieu de fédérer.



David_L a dit:


On peut être Pro, sous Linux et en rester à de la gaminerie :D




Un jour, tu admettras donc que les “codeurs” de l’an 2021, qui ne sont que des joueurs de Légo et qui n’inventent rien…. n’arrivent pas à la cheville d’un codeur des années 70 ? ;)


t’façon les seuls vrais codeurs, ils avaient un poinçon et ils perforaient des cartes. Aaaaah ! Ça, c’était l’bon temps ! Depuis, avec leur histoire de claviers, ça se ramollit !


Oh, comme il y en a qui font leur historique…



Linux, je ne crois pas en avoir entendu parler avant 1997, en voyant ce nom sur un gros titre de magazine. Mais bon, à l’époque, ça l’avait toujours paru plutôt « brouillon » (j’avais que 12-13 ans, pas encore d’Internet chez moi, l’unique PC sous Windows 95 était une machine où mon père faisait en permanence son boulot dessus et je n’allais dessus que lors des vacances, quand il était au boulot). En tout cas, moins « raffiné » que Windows. Notez que cette impression ne m’a jamais quitté depuis.



En 2009, je saute une première fois le pas en installant la toute récente Ubuntu 9.10 dans VirtualBox : OK, ça avait l’air cool, je voyais que certains logiciels que je connaissais ou utilisais étaient présents dessus, mais dans l’ensemble, le GNOME 2.x fourni à l’époque me paraissait quand même assez « grossier » (polices de l’interface plus grandes que sous Windows, options plus simplistes), et je ne connaissais alors aucune commande Unix (alors que je me débrouillais bien en DOS et les commandes Windows en CLI). J’ai fini par délaisser le monde Linux, avant de m’y remettre (pour de bon, cette fois) il y a 7 ans, en août 2014, après avoir vu une démo d’installation d’Arch Linux avec XFCE sur YouTube. J’ai immédiatement adoré cet OS « Lego » d’une simplicité enfantine (oui, dire ça pour Arch, faut oser) à maintenir et mettre à jour, ainsi qu’XFCE que j’ai pu modeler à ma guise et qui était aussi léger que simple à l’usage. En avril 2015, j’achète un disque dur neuf pour mon PC portable et j’y installe donc pour la première fois Arch en dur, toujours avec XFCE. Réinstallé en juillet 2016 à cause de la mort de ce disque dur, c’est toujours sur cette installation de 2016 que mon PC portable fonctionne en priorité (et depuis lequel je tape ce message).
Aujourd’hui, je ne me vois pas revenir à Windows comme OS principal, sauf contraint et forcé (et pas tant qu’il n’y aura pas de thème sombre pour toutes les applications Win32, et pas juste l’Explorateur) : je me plais trop sur Arch !



(quote:1892181:brice.wernet)
Et à l’époque: si tu avais 4Mo de RAM, tu restais en CLI, lancer le serveur X + le client X sur la même machine, ça mangeait toute la RAM, il fallait au moins 8Mo




Je n’avais pas le souvenir d’avoir eu 8Mo en 1995, et pourtant le lançais XWindows.




Si seulement… Mais pour chaque outil, un outil de configuration différent, une structure différente.




Je veux bien des exemples… inutile de me parler de produits comme sendmail qui sont plutôt l’exception.
Et après on pourra s’amuser à comparer avec la BDR de Windows question consistence/cohérence.




Et pour chaque outil, un autre outil à peu près équivalent qui “fait mieux”




Ce qui est le cas sur tous les OS.




​Quelqu’un qui connaît Linux n’es tpas aussi intéressant que quelqu’un qui sait configurer convenablement une synchro du fs de deux ordi en mode bloc (sous linux) ou quelqu’un capable de faire correctement du maître/esclave mysql (sous linux) Mais ça a peu à voir avec linux dans les deux cas, plus aux outils construits dessus.




Là encore ça n’a rien de propre à Linux. Quel que soit l’OS, le stockage c’est un métier, comme celui de DBA.



David_L a dit:


On peut être Pro, sous Linux et en rester à de la gaminerie :D




On peut aussi être pro, sous Windows, et être dans la team premier degré visiblement :D


C’etait l’horreur à installer Linux avec gestionnaire de fenetre au debut surtout avec une SIS6326 meme apres recompilation du noyau impossible à faire fonctionner.




Le lancer de manchots c’est pas un sport de yétis ?



:humour:




Je me demande combien connaissent ce jeu, ça remonte à 2003 ou 2004 non ?
(c’était un jeu en flash, assez simple, mais rigolo avec un bruitage amusant, ça a eu du succès là où je bossais)



timanu69 a dit:


Un jour, tu admettras donc que les “codeurs” de l’an 2021, qui ne sont que des joueurs de Légo et qui n’inventent rien…. n’arrivent pas à la cheville d’un codeur des années 70 ? ;)




Je suis plutôt en clin à penser que dans toute population, et donc a fortiori dans celles que tu opposes ici, on trouve des génies et des boulets, les seconds pouvant avoir leurs bons moments. Et que toute tentative de faire croire “que c’était mieux avant” revient à nous faire penser que le sommet de l’évolution humaine, c’était Neandertal. Pour certains sans doute, pas pour moi.




(quote:1892198:alex.d.)
On peut aussi être pro, sous Windows, et être dans la team premier degré visiblement :D




J’utilise les trois OS principaux sans distinction et selon les besoins. Il n’y a qu’Android et Chrome OS que je ne touche que par obligation en général. Et je pratique régulièrement le second degré, mais rarement pour m’en faire une excuse ;)



Cumbalero a dit:


A l’inverse, et même sans être dev, on a été nombreux d’avoir enfin un Unix-like (Linux Is Not Unix ;-) ) sur x86 et s’affranchir du très coûteux SCO Unix et du très lourd Solaris for PC




C’est clair, même si cela n’a vraiment bien pris qu’a partir de la première moitié de la décennie 2000. Mais ensuite, en moins de 10 ans, la plupart des autres unices et les stations de travail non x86 qui allaient avec ont disparu des bureaux. Et pas mal de diversité d’architectures avec, un peu comme le marché domestique dans les années 80 quand le PC/x86 a pris.



De toutes manières, j’ai toujours pensé que quand IBM a spécifié l’architecture ouverte du PC ils étaient parfaitement conscients que dès lors qu’il y aurait le premier x86 gérant la mémoire virtuelle (permettant une implémentation propre du multi-process) et qu’on lui collerait une carte réseau dans un slot d’extension, le marché de la station de travail aurait ses jours comptés si l’OS était à la hauteur: Ils étaient bien placés pour connaître la loi de Moore!



C’est sans doute la raison pour laquelle ils ont choisi l’OS le plus mal branlé qui ait alors existé (DOS, alors que des unices existaient depuis plus de 10 ans, multi-utilisateurs/process et traversés par la pile réseau depuis les origines) porté par 2 boutonneux vite rendus milliardaires: Retarder un maximum la fin de leur gagneuse station de travail, en mettant le pied à l’étrier à Microsoft qui allait brider durablement par le logiciel les capacités des machines, fut sans doute la stratégie d’IBM…



Cela a fonctionné jusqu’à ce que la tambouille d’un certain Linus prenne: La victoire de la boite blanche contre la boite noire est désormais globalement là, sauf chez le particulier.



Pourtant, une distro Linux est de nos jours souvent plus simple et incomparablement plus rapide à installer. Mais pour beaucoup de gens, c’est le faire qui pose encore problème par rapport au confort de la vente liée d’un OS préinstallé.


Pas mal de réactions sur Diaspora*, et ce genre d’image m’a bien fait marrer : https://diaspora-fr.org/posts/82d96bb0e80d0139afe6268acd52edbf :D



(reply:1892207:Le-Glod)




J’avais ce GPU sur mon PC quand j’ai installé ma première distrib, une RedHat 5.2.
Et effectivement, X Window n’était pas utilisable tel quel. j’avais un gros curseur et pas de texte visible.



Il a fallu chercher sur le Web comment résoudre ces problèmes et rebootant sous Windows ou en utilisant lynx.



Mais j’ai résolu ces soucis en 2 lignes de configuration dans le fichier XF86Config :



Option     "sw_cursor"
Option "xaa_no_color_exp"


Aucune recompilation du noyau n’a été nécessaire.



Oui, je garde sur mon PC actuel une copie du disque du PC de l’époque; :D



Ayant une bonne expérience des système Unix en ligne de commande, le démarrage sans interface graphique ne m’a pas posé trop de problème.



Et une fois la configuration affinée pour afficher en 24 bpp et 1024x768, j’ai passé bien plus de temps sous Linux que sous Windows.
Ce premier PC a été mon seul PC perso sous Windows, Windows 98 à l’époque.


Après avoir fait du double boot Windows/Linux pendant 2 ans, depuis 2004, j’ai coupé le cordon et n’utilise plus que Linux exclusivement (surtout KUbuntu et Ubuntu server), aussi bien en pro que sur mes PC perso.



Aujourd’hui, Windows et macOS, je ne les fréquente plus que dans des machines virtuelles.




CowKiller a dit:


C’est pas mal il aura fallu attendre le commentaire 45 pour avoir du type “Mme Michu ne veut pas du terminal linux pour tripatouiller les fichiers .conf alors qu’on ne peut pas s’en passer”. ça s’améliore, dans 10 ans les trolls auront enfin compris qu’on peut faire tourner un ordi sous une distro généraliste sans passer par le terminal.




Et, contrairement à ce que veulent croire certains, je confirme que c’est mission impossible pour Mme Michu. Il arrive trop souvent un moment, une mise à jour, un accident, où l’interface graphique montre ses limites et où il faut aller mettre les mains dans le cambouis pour tout remettre sur les rails. Résoudre des problèmes de diff sur des fichiers de conf, des problèmes de dépendances, de permissions ou autres, terminal ou graphique n’y change rien, Mme Michu finit face à un mur.



Mais, quand on aime le cambouis, qu’est que c’est bien !



Cumbalero a dit:


Je n’avais pas le souvenir d’avoir eu 8Mo en 1995, et pourtant le lançais XWindows.




Le lancer, oui, et encore avec au mieux TWM. L’utiliser … pour xterm OK, mais il n’y avait plus de RAM dispo ensuite… Il faut bien dire que sur 4Mo de RAM, avec le serveur X qui avait les bitmaps en mémoire et le client X qui en avait une copie sur la même machine, on ne risquait pas de faire du graphisme à outrance en 800x600x32…




Ce qui est le cas sur tous les OS.




Ce que je souligne, c’est que c’est lié à la politique de la distro. J’avais l’impression dans les commentaires qu’il y avait une confusion entre Linux et les distros. Pour moi, on peut comparer Linux à Windows Core, pas à Windows.




Là encore ça n’a rien de propre à Linux. Quel que soit l’OS, le stockage c’est un métier, comme celui de DBA.




Idem. Les gens ont tendance à dire qu’ils connaissent Linux, alors qu’ils connaissent une distro, un outil…



Je connaissais un peu Linux (le noyau) fin 99/début 2000 (époque où je jalousais ceux qui avaient pu s’acheter la seule carte mère bi CPU grand public dispo et jouaient avec le SMP sous BeOS ou Linux), parce que je “travaillais” sur un pilote de carte son (sous BeOS) et sur un soft pour configurer le MIDI (sous Linux et sous BeOS). J’ai bien appris la différence entre kernel et userland :)



Je critique surtout “Linux” dans le sens “toutes les distros confondues” que je compare du coup plutôt à FreeBSD que je préfère de loin dans ce cadre.
Par contre quand il est question de Linux en tant que noyau++, base d’une chaîne pour une appliance, j’aime bien (Tiny Core Linux, ou alors les noyaux sur les petites cartes RISC-V)



(quote:1892284:brice.wernet)
Le lancer, oui, et encore avec au mieux TWM. L’utiliser … pour xterm OK, mais il n’y avait plus de RAM dispo ensuite… Il faut bien dire que sur 4Mo de RAM, avec le serveur X qui avait les bitmaps en mémoire et le client X qui en avait une copie sur la même machine, on ne risquait pas de faire du graphisme à outrance en 800x600x32…



Ce que je souligne, c’est que c’est lié à la politique de la distro. J’avais l’impression dans les commentaires qu’il y avait une confusion entre Linux et les distros. Pour moi, on peut comparer Linux à Windows Core, pas à Windows.



Idem. Les gens ont tendance à dire qu’ils connaissent Linux, alors qu’ils connaissent une distro, un outil…



Je connaissais un peu Linux (le noyau) fin 99/début 2000 (époque où je jalousais ceux qui avaient pu s’acheter la seule carte mère bi CPU grand public dispo et jouaient avec le SMP sous BeOS ou Linux), parce que je “travaillais” sur un pilote de carte son (sous BeOS) et sur un soft pour configurer le MIDI (sous Linux et sous BeOS). J’ai bien appris la différence entre kernel et userland :)



Je critique surtout “Linux” dans le sens “toutes les distros confondues” que je compare du coup plutôt à FreeBSD que je préfère de loin dans ce cadre. Par contre quand il est question de Linux en tant que noyau++, base d’une chaîne pour une appliance, j’aime bien (Tiny Core Linux, ou alors les noyaux sur les petites cartes RISC-V)




Je lis un peu l’historique.
En 199697, j’avais un 486DX4-100 (oc à 120MHz), 1Go de disque et … 4 Mo de RAM.
Il fallait 2 minutes pour booter le W95 que j’avais installé depus des disquettes, mais la RedHat 4.1 permetait de lancer Window Maker qui était plus lourd que TWM.
Vers octobre 97, je suis passé à un Cyrix PR200+ et toujours 4 Mo car étudiant sans trop de sous .. mais j’avais testé le Netscape 4 et de mon souvenir paramétré le client mail de netscape pour lire mes premiers mails chez moi (ho surtout plus passer par FTP pour m’envoyer les fichier ada et c) …. celui fourni par Dream 49.



800x600x32…
Heu, 640x80 en 16bit je crois pour moi :D C’était toujours l’écran de mon premier Comodore à base de 386sx.



C’est que vers août 98 et mes premières indemnités de stage que j’ai pu ajouter 4 autres Mo de RAM pour monter à 8 Mo !!!



Donc non … 4 Mo, on pouvait avoir son PC sous Linux, compiler, lancer Xemacs pour poursuivre son projet d’étudiant avec les 3 compilateurs cobol, C, ADA installés …). J’ai jamais rien capté à vi (même maintenant, vim se limite à “I” “esc” “ctrl+C”) et je pouvais pas l’utiliser. Xemacs, c’était lourdingue, ça ramait, mais on pouvait travailler !!!! Donc non



4 Mo + Linux : ça rame, mais ça bosse, je témoigne.



Ceci dit … j’avais été impressionné par la fluidité de BeOS 5 et sa rapidité comparé à Linux et Windows 98SE quand il a été donné gratos par Login. Dommage que faute de logiciels, jeux, compatibilité Windows, drivers modem, programmation par un étudiant … … ça servait à rien. :pastaper:



(quote:1892284:brice.wernet)



Ce que je souligne, c’est que c’est lié à la politique de la distro.




Ce qui est manifeste, c’est ta tendance aux amalgames et à la confusion




Idem. Les gens ont tendance à dire qu’ils connaissent Linux, alors qu’ils connaissent une distro, un outil…




Quand on parle de stockage ou de base de données, on ne parle pas d’OS donc ni de Linux, ni de la distribution.




Je critique surtout “Linux” dans le sens “toutes les distros confondues” que je compare du coup plutôt à FreeBSD que je préfère de loin dans ce cadre. Par contre quand il est question de Linux en tant que noyau++, base d’une chaîne pour une appliance, j’aime bien (Tiny Core Linux, ou alors les noyaux sur les petites cartes RISC-V)




L’art de comparer les poires et les rutabagas…


je sais que je vais encore me faire sabrer, mais un autre point noir de linux :
l’impossibilité de choisir une version spécifique d’un logiciel (par ex firefox 8 ou 39), et être obligé de se soumettre aux versions des librairies de ladite version..



(reply:1892135:::1)
Je te prierai de ne pas te faire passer pour la majorité. ;)




Une bonne moitié de tes “points” ne sont que l’expression de tes biais personnels.



a) FAUX. Complètement archi faux. Tu prends une distribution grand public, tu choisis un minimum tes périphériques pour pas être emmerdé, et ça roule. Tu peux passer 10 ans sans toucher une ligne de commande. Ce qui ne veut pas dire qu’effectivement tu n’y toucheras jamais… Ce qui mène directement à ton point d).



d) FAUX. Les gens “normaux” ont effectivement souvent peur de la ligne de commande mais ce n’est pas un état intrinsèque à la ligne de commande, c’est parce qu’ils ne s’y intéressent qu’à l’occasion d’un problème pour lequel on déborde de l’interface graphique.
Peur entretenue notamment par la perpétuation des commentaires stupidement anxiogènes tels que le tien.



Je te garantis que si tu intègres IMMÉDIATEMENT la ligne de commande, non pas comme “un truc qui fait peur où tu peux tout péter” (ce qui est vrai, mais ça peut l’être aussi sous Windows) mais comme “une alternative qui te fait gagner MASSE temps” et que tu présentes les outils simples à comprendre et largement plus efficaces pour avoir l’info que les outils graphiques (find, du) tu dédramatises largement.
Évidemment ça implique de l’accompagnement. Si tu laisses un quidam tout seul, ça va pas le faire. Rappelons tout de même pour être équitable que jusqu’à Windows 8, quand tu installais Windows toi-même t’avais des trucs à gérer à la main et pas des moindres (jusqu’à Vista souvent tu devais installer les pilotes réseau toi-même par exemple).
Ça ne va pas les convertir auto, bien sûr, mais ça leur montre que la ligne de commande c’est avant tout un moyen beaucoup plus rapide et potentiellement précis d’exploiter ton pc. Au mieux ils s’y mettront petit à petit, au pire ils auront moins la flippe de tout casser si un jour ils ont un problème non réglable par interface.
Situation qui a le plus de “chance” de se produire si tu utilises un périphérique mal supporté ou si tu essayes de faire tourner une appli non native en configurant “à la main” une couche de compatibilité type Wine…
Ce qui amène logiquement à tes points b) et c).



b) et c)

“Beaucoup de logiciels ne tournent pas sous Linux” : l’inverse est également vrai, bien que très rare dans la sphère des usages particuliers. Par ailleurs des outils facilitant l’émulation ou la “traduction” des applis sont de mieux en mieux foutues et de plus en plus faciles. Néanmoins ça reste une solution de fortune.
“Linux ne veut pas être grand public” déjà ça n’a aucun sens, Linux n’est pas une personne, ni même une communauté, mais une communauté de communautés.
Ensuite, je peux t’assurer qu’il y a des gens qui veulent que Linux devienne de plus en plus populaire. BEAUCOUP. Juste pas tous pour les mêmes raisons.




  • Raison idéologique (“le libre doit vaincre”), se comptent probablement en milliers au plus. :D

  • Raison économique (confer Valve, dont le rapport de force avec Microsoft va être largement infléchi par le succès potentiel du Steam Deck).

  • Raison idéolo-écologique (Linux est nettement moins gourmand et plus performant que Windows à charge/tâche égale même si l’écart n’a plus rien à voir avec 15 ans auparavant).

  • Raison pratique : et là perso je met mets en plein dedans : + d’utilisateurs Linux -> + de pression vis-à-vis des éditeurs logiciels et fabricants de périphériques à correctement supporter les produits -> + de produits nativement supportés/exécutés pour Linux -> gain de qualité de vie pour l’utilisation quotidienne.



Quant aux problèmes de sécurité/fiabilité, c’est tellement un non-sujet en vrai…
Si tu compares deux systèmes prêts à l’emploi pour le quidam moyen, entre Linux et Windows, Windows est encore et toujours à la ramasse.
Quant bien même tu multiplierais le nombre de virus par 10000 sous Linux, ce serait toujours moins pire.



De toute façon, ce qui fait la sécurité d’un système passé la première semaine (allez, soyons fous, le premier mois), c’est l’usage que t’en fais : tu peux très bien avoir un Windows à peu près safe en respectant toutes les bonnes pratiques, tout comme tu peux flinguer ton Linux en installant des services web permanents avec le mdp par défaut… XD



(EDIT : je précise à tout hasard que je suis sous Linux depuis avant 2000, lorsqu’un énième crash de Windows m’a fait découvrir Knoppix pour sauver mes données. Et je suis juriste de formation initiale, pas développeur. ;))



(reply:1892303:::1)




C’est faux, il te suffit d’installer la lib qui t’intéresse dans un dossier quelconque et préfixer ton programme avec LD_PRELOAD



(reply:1892303:::1)
Bah logique que tu te fasses sabrer quand tu dis pareille connerie.




Enfin, soyons honnêtes, je comprends ce que tu veux dire : si tu respectes le grand dieu GUI, effectivement les distribs de suggèrent très très fortement de passer à la toute dernière version (mention spéciale à Ubuntu qui depuis des années te fait un maxi gloubiboulga de tous les paquets en mode “faut tout MAJ sinon rien” alors que ça n’a aucun sens, d’ailleurs je l’ai quittée pour ça XD).



En revanche, rien ne t’empêche de télécharger une archive de l’application (le plus souvent) ou un exécutable (plus rarement), de l’installer où tu veux, et de le lancer.
Tu n’as même plus besoin de passer par un terminal pour rendre le bon fichier exécutable maintenant d’ailleurs.



Et sinon, maintenant que nous vivons dans une époque formidable où chacun peut pondre sa m en isolation, tu as aussi un système de paquets qui te permet d’installer côte-à-côte N versions d’un logiciel (d’ailleurs NXI a fait un article dessus récemment si je me plante pas).



C’est anéfé un peu plus complexe que de suivre un clic-o-drome, mais ce n’est pas plus compliqué que ce qu’on a toujours connu sous Windows consistant à aller fouiller sur internet pour trouver un fichier à décompresser / exécuter. :D




Carpette a dit:


C’est faux, il te suffit d’installer la lib qui t’intéresse dans un dossier quelconque et préfixer ton programme avec LD_PRELOAD




On en apprend décidément tous les jours. :) Je connaissais pas du tout cette astuce, merci ! :smack:
(Bon je l’aurai oubliée demain sans doute mais c’est l’intention qui compte XD)



Citan666 a dit:


Ce qui n’est d’ailleurs pas étranger à mon sens à la résistance qu’il y a eu face à systemd ou aux nouveaux paradigmes de gestion d’infra avec puppet et compagnie (qui simplifient partiellement mais déportent une partie de la complexité malgré tout)




Je comprends ton point de vue, mais derrière la “nouveauté”, il y a souvent un principe: la durée d’apprentissage.



C’est surtout dans les langages et les bibliothèques tierces qu’on le voit, mais on l’a vu pendant l’apparition de systemd: un groupe de personnes trouve le système trop compliqué, et en propose un nouveau plus simple… mais qui ne couvre pas fonctionnellement tous les cas (au début, systemd avait de bonnes idées mais n’implémentait pas tout ce qui existait - je n’ai plus les cas en tête mais j’y ai été confronté).
Au bout de quelques années de développement, le système final est au moins aussi complexe que le précédent, et du coup, un nouveau émerge…
Au final, les “nouvelles” technos accompagnent la formation et la prise d’expérience d’une génération. Bien sûr, elles apportent par-ci ou par là des nouveautés, mais rien de révolutionnaire. Et bien sûr, certaines sortent du lot.



yl a dit:


De toutes manières, j’ai toujours pensé que quand IBM a spécifié l’architecture ouverte du PC ils étaient parfaitement conscients que dès lors qu’il y aurait le premier x86 gérant la mémoire virtuelle (permettant une implémentation propre du multi-process) et qu’on lui collerait une carte réseau dans un slot d’extension, le marché de la station de travail aurait ses jours comptés si l’OS était à la hauteur: Ils étaient bien placés pour connaître la loi de Moore!



C’est sans doute la raison pour laquelle ils ont choisi l’OS le plus mal branlé qui ait alors existé (DOS, alors que des unices existaient depuis plus de 10 ans, multi-utilisateurs/process et traversés par la pile réseau depuis les origines) porté par 2 boutonneux vite rendus milliardaires: Retarder un maximum la fin de leur gagneuse station de travail, en mettant le pied à l’étrier à Microsoft qui allait brider durablement par le logiciel les capacités des machines, fut sans doute la stratégie d’IBM…




Tu veux dire qu’ils ont volontairement bridé leurs machines pour en vendre beaucoup ? Moyen comme raisonnement. Là tu raisonnes a posteriori, en connaissant le résultat, mais en 1981, l’IBM PC était un petit projet, un outsider sur un marché avec déjà beaucoup d’acteurs, ce n’était pas du tout gagné d’avance qu’il allait devenir la techno dominante et allait détrôner Apple II, TRS-80, et compagnie dans les bureaux.
Quant à concurrence des stations de travail, là encore, bof bof. En 1981, c’est encore le règne des mainframes et mini-ordinateurs avec des consoles. Les stations de travail (Sun, SGI, puis DEC Alpha, etc.), c’est plutôt dans le courant de la décennie 1980 que ça a décollé, puis la décennie 1990. Ce n’était pas du tout répandu en 1981.



IBM faisait du mainframe. Le PC était pour eux l’ultra bas de gamme, avec du matériel et logiciel minimaliste, pour arriver à un prix discount. Plus tard, quand les capacités ont augmenté, ils ont bien vu la convergence avec les stations de travail, et c’était bien l’objectif d’OS/2. Et c’est là qu’ils se sont faits doubler par la petite startup MS, qu’ils méprisaient depuis le début et qui leur a fait a l’envers…


Avoir un PC en 1980, c’est de l’ultra bas de gamme ?
:mdr:
Que dire de plus…


barlav

Avoir un PC en 1980, c’est de l’ultra bas de gamme ?
:mdr:
Que dire de plus…


Pour IBM, le PC de 80 était de l’ultra low cost.
Le truc c’est qu’à l’époque la scission entre Ordinateur personnel (8bit) et professionnel (16bit) était total. L’amalgame des deux est arrivé plus tard avec les clones PC-compatible largement moins cher, mais aussi Amstrad qui proposait des imprimantes et traitement texte, et communiquait pas mal sur le côté moitié pro moitié perso (même si objectivement tout le monde achetait la console de jeu qui ne monopolise pas le TV du salon)



Techniquement au début, le PC malgré son nom a surtout été vendu aux pros, car il remplaçait avantageusement le terminal et évitait d’avoir un étage réservé au mainframe correspondant.


fofo9012

Pour IBM, le PC de 80 était de l’ultra low cost.
Le truc c’est qu’à l’époque la scission entre Ordinateur personnel (8bit) et professionnel (16bit) était total. L’amalgame des deux est arrivé plus tard avec les clones PC-compatible largement moins cher, mais aussi Amstrad qui proposait des imprimantes et traitement texte, et communiquait pas mal sur le côté moitié pro moitié perso (même si objectivement tout le monde achetait la console de jeu qui ne monopolise pas le TV du salon)



Techniquement au début, le PC malgré son nom a surtout été vendu aux pros, car il remplaçait avantageusement le terminal et évitait d’avoir un étage réservé au mainframe correspondant.


Déjà en 1980 le compatible PC n’existait pas.
J’ai eu un ZX81 qui date donc de 1981 et qui lisait ses données sur cassette audio.
J’ai connu osborne aussi, avant d’avoir un x86.
Mais je tique sur le côté “ultra low cost” quand on parle de 2 mois de salaire, désolé.
Pas grand monde ne pouvait en profiter à l’époque.
Après, aujourd’hui, les téléphones et consoles, on peut parler de gammes parce que 99% y a accès, mais parler de ultra pas cher c’est un peu gros, non? honnêtement.



David_L a dit:


On a effectivement dû tous commencer avec du CPC 464,…., parce qu’il y avait un passionné/geek dans le coin pour nous y faire goûter,




Ou un catalogue LAa Redoute à proximité :francais:



fofo9012 a dit:


Pour IBM, le PC de 80 était de l’ultra low cost.



Techniquement au début, le PC malgré son nom a surtout été vendu aux pros, car il remplaçait avantageusement le terminal et évitait d’avoir un étage réservé au mainframe correspondant.




Ultra low cost: non, absolument pas. Le PC était cher et donc réservé aux pros.



Par contre, tu as raison sur le fait que le PC est arrivé au moment ou la puissance de calcul est passé du mainframe au poste de travail. IBM a du se sentir menacé.



N’oublions pas qu’à l’époque, et malgré la “scission” pro/grand public, une bonne partie des ordis “sérieux” (donc or ZX81, clairement grand public) qui sortaient avaient une petite ambition pro. AMIGA, Atari ST n’étaient PAS des machines purement de jeu. Sinclair a tenté de sortir un ordi pro. Certains ont effectivement travaillé avec des Apple ][.



Le ZX81, il avait quand même la même conception qu’un calculatrice: le CPU s’occupait même de l’affichage. Et son prédécesseur était vendu en kit à souder soit même. Les deux par correspondance. Pas vraiment pro ce modèle effectivement :)




yl a dit:


De toutes manières, j’ai toujours pensé que quand IBM a spécifié l’architecture ouverte du PC ils étaient parfaitement conscients que dès lors qu’il y aurait le premier x86 gérant la mémoire …
C’est sans doute la raison pour laquelle ils ont choisi l’OS le plus mal branlé qui ait alors existé

Cela a fonctionné jusqu’à ce que la tambouille d’un certain Linus prenne: La victoire de la boite blanche contre la boite noire est désormais globalement là, sauf chez le particulier.




Tu refais l’histoire. Comme dit plus haut, l’informatique prenait un tournant (l’inverse de l’actuel: on passait d’un calcul centralisé à des calculs locaux). IBM a voulu faire du time to market: il fallait sortir rapidement quelque chose (d’où DOS, certainement moins cher que CP/M et UNIX j’imagine), et innonder le marché (d’où l’ouverture aux clones) en rassurant (un standard au lieu d’avoir un fractionnement).
Et non, ce n’est pas la qualité qui prime, c’est le prix. Car OS/2 étaient un très bon OS, mais trop cher. Windows a pris à cause du marketing et du prix, Linux … en grande partie aussi grâce à son prix… (ce qui n’en n’enlève pas ses qualités)



barlav a dit:


Avoir un PC en 1980, c’est de l’ultra bas de gamme ? :mdr: Que dire de plus…




Dans la gamme d’IBM en 1981, oui, clairement. le PC n’était pas du tout vu comme une menace pour le System/370. Ce n’était juste pas du tout la même catégorie.


Le fait qu’IBM voit les choses d’une façon ou d’une autre, c’est son problème.
Ils se sont d’ailleurs perdu, si on regarde 40 ans après.



Mais sans déconner, avoir “de l’ultra bas de gamme”, pas grand monde pouvait y prétendre en 1980.
:byebye:



(quote:1892385:brice.wernet)
Ultra low cost: non, absolument pas. Le PC était cher et donc réservé aux pros.




Par rapport à un System/370, je maintiens : le PC, c’est du low cost du point de vue d’IBM. En tout cas, il était considéré comme tel par les gens que je connaissais chez IBM France.




N’oublions pas qu’à l’époque, et malgré la “scission” pro/grand public, une bonne partie des ordis “sérieux” (donc or ZX81, clairement grand public) qui sortaient avaient une petite ambition pro. AMIGA, Atari ST n’étaient PAS des machines purement de jeu. Sinclair a tenté de sortir un ordi pro. Certains ont effectivement travaillé avec des Apple ][.




Amiga et Atari ST n’existaient pas en 1981.



luxian a dit:


Donc non … 4 Mo, on pouvait avoir son PC sous Linux, compiler, lancer Xemacs pour poursuivre son projet d’étudiant avec les 3 compilateurs cobol, C, ADA installés …).




Moi c’était trop instable (pas dans le genre plantage, dans le genre “out of memory” permanent. Mais l’architecture même de X était en cause!



Mais rahhh… Widowmaker … L’environnement NExt. J’ai toujours adoré.




(quote:1892407:alex.d.)
Par rapport à un System/370, je maintiens : le PC, c’est du low cost du point de vue d’IBM. En tout cas, il était considéré comme tel par les gens que je connaissais chez IBM France.




Pas trop du point de vue des clients potentiels :)




Amiga et Atari ST n’existaient pas en 1981.
Certes, mais tout le monde préparait son ordi “pro”. Les dragon32 qui sortaient en 82, les atari 400 et autres … Le lecteur de disquette était un argument plus “pro” que “gamer” (surtout que beaucoup d’ordi avaient des cartouche pour ça).
Le segment pro était l’avenir, l’el dorado. IBM (surtout avec son I) ne pouvait pas se laisser distancer (surtout que côté mainframe arrivait des concurrents plus petits comme les VAX)




On oublie parfois que nos ordis sont des “micro” ordinateurs: des modèles rikiki face à ce qui se faisait pré-1980. Mais qui ont évincé les mainframes.


nan, jamais eu ce type de comportement, juste ça ramais bien.
Mais il y avait déjà des partitions de swap à l’époque et j’avais bien alloué 6 fois ma mémoire plutôt que les 2,5 usuels.
En gros … ça devait swapper à fond.



La seule fois que j’ai eu un truc dans ce style sous un linux, c’était avec un projet de parallélisation à base de PVM. Un projet de multiplication de matrice en parallèle programmé en récursif avec des forks récursifs … qui s’arrêtait jamais de forker. T’as fait top -d 0 et le fameux “while (1) fork();” pour voir un jour ? … le résultat était exponentiellement pire. Mon programme lancé sur le PC, je voyais la mémoire monter en flèche puis plus de souris, plus de clavier, plus de mouvement sur le terminal en moins de 15 secondes.



Quand je le lançais sur les serveurs de la fac de façon aléatoires en 20 min, j’avais plus personne sur le réseau pour le reste de l’après-midi. Jusqu’à ce qu’un admin me repère :mdr:



fofo9012 a dit:


Pour IBM, le PC de 80 était de l’ultra low cost. Le truc c’est qu’à l’époque la scission entre Ordinateur personnel (8bit) et professionnel (16bit) était total [..]



Techniquement au début, le PC malgré son nom a surtout été vendu aux pros, car il remplaçait avantageusement le terminal et évitait d’avoir un étage réservé au mainframe correspondant.




Je confirme, j’ai connu cet époque, et les publicités avec Charlot (pour dire que ça n’était pas cher), on doit pouvoir les trouver en ligne.




barlav a dit:


Mais je tique sur le côté “ultra low cost” quand on parle de 2 mois de salaire, désolé. Pas grand monde ne pouvait en profiter à l’époque.



(quote:1892385:brice.wernet)
Ultra low cost: non, absolument pas. Le PC était cher et donc réservé aux pros.




C’était quand même du low cost en tant qu’ordinateur professionnel, par rapport à tout ce que faisait IBM, comme dit par d’autres. Effectivement pour un particulier au début c’était cher. Et même par la suite, au milieu des années 90, un PC complet (avec écran) c’était de mémoire facilement dans les 7000 FRF (soit 1500 E non actualisés).




AMIGA, Atari ST n’étaient PAS des machines purement de jeu.




Concernant l’Amiga (que j’ai bien connu en commençant avec le 500), effectivement il était assez novateur, tant sur le matériel que le logiciel avec un OS multitâches préemptif, il manquait juste la protection mémoire pour que ce soit solide comme un Unix.




Tu refais l’histoire. Comme dit plus haut, l’informatique prenait un tournant (l’inverse de l’actuel: on passait d’un calcul centralisé à des calculs locaux). IBM a voulu faire du time to market: il fallait sortir rapidement quelque chose (d’où DOS, certainement moins cher que CP/M et UNIX j’imagine)




Le côté low-cost vu des constructeurs c’était aussi l’OS primitif (MS-DOS). Alors qu’on a vite vu des Mac par exemple, c’était autre chose.




Et non, ce n’est pas la qualité qui prime, c’est le prix. Car OS/2 étaient un très bon OS, mais trop cher.




Je me souviens qu’OS/2 était estimé techniquement, mais qu’il était nettement plus gourmand en mémoire, ce qui n’avait pas aidé.




(quote:1892407:alex.d.)
Par rapport à un System/370, je maintiens : le PC, c’est du low cost du point de vue d’IBM. En tout cas, il était considéré comme tel par les gens que je connaissais chez IBM France.




:chinois:



OlivierJ a dit:


au milieu des années 90, un PC complet (avec écran) c’était de mémoire facilement dans les 7000 FRF (soit 1500 E non actualisés).




En 1995, j’avais payé 13 000 F (2 000 €, mais actualisés INSEE plutôt 2 750 €) mon PC Pentium 90 MHz avec W95, soit environ 2 mois de salaire…



serpolet a dit:


En 1995, j’avais payé 13 000 F (2 000 €, mais actualisés INSEE plutôt 2 750 €) mon PC Pentium 90 MHz avec W95, soit environ 2 mois de salaire…




Merci pour la précision, je me souvenais d’un montant plus proche des 10 000 FRF à vrai dire, mais je craignais d’indiquer un montant un peu haut de gamme donc j’ai parlé de 7 000, j’étais loin. (je voulais dire 1000 E non actualisés, j’ai fait une typo en pensant aux 10 000 FRF :-) ).



L’Amiga était bon marché en comparaison, mais en déclin malheureusement à cette époque (95), alors qu’il était bien supérieur.


C’était la fin des 486DX4, concurrencés par les premiers Pentiums, ils pouvaient effectivement être un peu moins chers…



serpolet a dit:


En 1995, j’avais payé 13 000 F (2 000 €, mais actualisés INSEE plutôt 2 750 €) mon PC Pentium 90 MHz avec W95, soit environ 2 mois de salaire…




Je confirme : avant 1995, la moindre configuration un minimum potable, c’était 10 000 F minimum. J’ai encore les SVM de novembre 1991 (où là, certaines configurations pouvaient carrément monter jusqu’à 40 000 F !) et de septembre 1995, donc je peux facilement retrouver les prix de l’époque !



C’est après que les prix ont dégringolé : j’en revenais d’ailleurs tellement pas, de voir que le premier PC que m’avaient acheté mes parents, en juillet 1998, avait coûté moins de 3 500 F (un MSNet, marque blanche de Carrefour, et c’était du déstockage car on n’était qu’à 4 jours de la sortie de Windows 98…).



Aujourd’hui, voir des PC portables à moins de 500 €, ça me fait doucement rire quand je rappelle qu’aucun modèle portable ne coûtait moins de 1 500 € en 2006, quand des desktops plus puissants et performants n’en coûtaient que les deux tiers…



barlav a dit:


Le fait qu’IBM voit les choses d’une façon ou d’une autre, c’est son problème. Ils se sont d’ailleurs perdu, si on regarde 40 ans après.




Ils ne se sont pas perdu, ils sont juste revenus à leurs fondamentaux : le serveur. C’est bien la preuve que le PC n’était pas du tout le coeur de leur stratégie, puisque quand ça a vraiment bien marché, ils ont arrêté.




Mais sans déconner, avoir “de l’ultra bas de gamme”, pas grand monde pouvait y prétendre en 1980. :byebye:




C’est pratique de sortir une expression de son contexte pour en détourner le sens.
C’est comme une Dacia : quand il faut sortir les 10k€, ça reste cher ; mais par rapport à la gamme Renault, c’est du bas de gamme (sans vouloir être péjoratif, d’ailleurs je roule moi-même en Dacia). Pour IBM, c’était pareil : le coeur de leur marché, c’était le mini-ordinateur ; le micro-ordinateur, c’était pour toucher plus de monde.



Bon, après le topic de l’article, c’était plutôt Linux. Et bien Linux tourne sur System/370, alors qu’il ne tourne pas sur le PC 5150.


Ok, j’entends l’argument.
Après il faut voir la sortie marketing, et son usage X ans après.



Pour info j’ai eu le permis vers 2000, j’ai eu un C35, une ax, puis rien pendant quelques années, puis une 309 qui avait 20 ans, une mégane, et une C5.
Aucune de ces histoires ne m’a couté + de 3K€ à l’achat.



Pour reprendre le monde informatique, j’ai commencé 20 ans avant, avec un 14’ monochrome, …
je suis sur un 55’ couleur today.
Le boulot me proposait un 24’ pour le télétravail, je ne l’ai même pas branché.
un 24’ c’était du haut de gamme il y a 10 ans.



Bref, les gammes proposées, les besoins, …
Des fois un raspberry suffit, des fois il faut un octo-core.



ultra-bas de gamme c’est quand même vulgaire, j’ai entendu twingo dans ce dialecte.
:francais:



luxian a dit:


T’as fait top -d 0 et le fameux “while (1) fork();” pour voir un jour ?




Pas volontairement :) Mais j’ai déjà fait un truc qui forkait à chaque paquet réseau au lieu de forker à chaque connection établie …



Sous BSD, la limite de processus était en dur dans le kernel, sous Linux soit c’était dynamique, soit la limite était bien plus haute …



Fin 90/début 2000, ce qui me fascinait avec BSD et Linux, c’était la préservation de ressources pour le premier plan. Sous Linux/BSD, je pouvais lancer des compilations, de l’encodage ou un rendu 3D: ça ralentissait, mais ça ne devenait jamais vraiment lourd.



Sous Windows, la sentence était terrible: souris qui rame, clique qui sont reconnus des secondes plus tard…



Les perfs étaient souvent meilleures sous Windows, mais difficile de faire quelque chose en plus si on avait un rendu POV en arrière plan (et non, ce n’était pas à cause du swap). C’était particulièrement visible avec les souris, car à l’époque on voyait l’impact CPU de bouger vite la souris (si si! le décodage souris passait par le CPU!)



Par contre, la partition de swap en dur ça m’a toujours agacé.



(quote:1892458:brice.wernet)
Par contre, la partition de swap en dur ça m’a toujours agacé.




Un truc bizarre que quelqu’un pourra peut-être m’expliquer ?
Sous Linux, sur un SSD, je ne crée pas de partition Swap (j’ai peut-être tort, mais bon…)
Et pourtant, le Moniteur Système m’indique 1 GiB de Swap dispo, et le PC swappe un peu (4 MiB en ce moment…)
Est-ce du Swap comme sous Windows (sans partition dédiée) ?


Tu dois avoir un fichier de swap ? Que te donne :
\(cat /etc/fstab | grep swap ?
\)
sudo swapoff -a
Et sinon tu peux modifier définitivement l’usage du swap si ce n’est pas déjà fait :
$sudo echo “vm.swappiness = 10” >> /etc/sysctl.conf
Pardon pour l’autopub, mais c’est pour la bonne cause : ce sont des trucs et bidouilles sous nunux et autres et pas de pub ni rien d’autre.




(quote:1892458:brice.wernet)
particulièrement visible avec les souris, car à l’époque on voyait l’impact CPU de bouger vite la souris (si si! le décodage souris passait par le CPU!)



Par contre, la partition de swap en dur ça m’a toujours agacé.




Haaa, je comprends mieux pourquoi sous Win98 comme sous NT4 j’arrrivai à provoquer un gel puis un écran bleu de NT4 en bougeant la souris d’une certaine façon comme un taré, plus de 20 ans après !
Le swap en dur est toujours mieux que le swap en file car tu n’a pas à défragmenter.
D’ailleurs, sous Windows, tant que j’avais pas une débauche de RAM (là, juste 64Go) sur mon PC, j’avais toujours une partition dédiée et le swap fixé en dur pour “simuler une partition de swap.
Voir si possible, sur 2 disques différents et rapides … ce qui permettait d’avoir 2 sources d’arrivée et une sorte de raid0 :D
Avec 0 partoche de X Go (ou Mo vers 98), 1 : defrag disque, 2 création du swap en fixe, 3 reboot.


luxian

Tu dois avoir un fichier de swap ? Que te donne :
\(cat /etc/fstab | grep swap ?
\)
sudo swapoff -a
Et sinon tu peux modifier définitivement l’usage du swap si ce n’est pas déjà fait :
$sudo echo “vm.swappiness = 10” >> /etc/sysctl.conf
Pardon pour l’autopub, mais c’est pour la bonne cause : ce sont des trucs et bidouilles sous nunux et autres et pas de pub ni rien d’autre.




(quote:1892458:brice.wernet)
particulièrement visible avec les souris, car à l’époque on voyait l’impact CPU de bouger vite la souris (si si! le décodage souris passait par le CPU!)



Par contre, la partition de swap en dur ça m’a toujours agacé.




Haaa, je comprends mieux pourquoi sous Win98 comme sous NT4 j’arrrivai à provoquer un gel puis un écran bleu de NT4 en bougeant la souris d’une certaine façon comme un taré, plus de 20 ans après !
Le swap en dur est toujours mieux que le swap en file car tu n’a pas à défragmenter.
D’ailleurs, sous Windows, tant que j’avais pas une débauche de RAM (là, juste 64Go) sur mon PC, j’avais toujours une partition dédiée et le swap fixé en dur pour “simuler une partition de swap.
Voir si possible, sur 2 disques différents et rapides … ce qui permettait d’avoir 2 sources d’arrivée et une sorte de raid0 :D
Avec 0 partoche de X Go (ou Mo vers 98), 1 : defrag disque, 2 création du swap en fixe, 3 reboot.


J’ai utilisé :
sudo sysctl -w vm.swappiness=0
mais ça revient. Comme ça ne me gène pas plus que ça, je laisse…



serpolet a dit:


Un truc bizarre que quelqu’un pourra peut-être m’expliquer ? Sous Linux, sur un SSD, je ne crée pas de partition Swap (j’ai peut-être tort, mais bon…)




C’est ce que je fais depuis que j’ai eu un pc avec 4 GiB de ram, sans souci.




serpolet a dit:


Et pourtant, le Moniteur Système m’indique 1 GiB de Swap dispo, et le PC swappe un peu (4 MiB en ce moment…)




Je n’ai jamais vu ça.




serpolet a dit:


…Est-ce du Swap comme sous Windows (sans partition dédiée) ?




Tu utilises quelle distrib pour que je puisse l’ajouter à ma liste noire ? :transpi:


LinuxMint 20.2 (sur un portable i5 avec 6 GiB de RAM).



serpolet a dit:


Un truc bizarre que quelqu’un pourra peut-être m’expliquer ? Sous Linux, sur un SSD, je ne crée pas de partition Swap (j’ai peut-être tort, mais bon…) Et pourtant, le Moniteur Système m’indique 1 GiB de Swap dispo, et le PC swappe un peu (4 MiB en ce moment…) Est-ce du Swap comme sous Windows (sans partition dédiée) ?




Oui, certaines installations créent un fichier de swap sur la partition “/”, tu peux voir le fichier utilisé avec par exemple “cat /proc/swaps”.
Pour ma part je l’enlève (et change le “fstab”) pour mon PC qui a 16 Go de mémoire, mais je l’ai laissé sur mon mini-PC de salon qui a 8 Go, ça me permet de laisser Firefox tourner plus longtemps avant de devoir le relancer (à force ça finit par bouffer toute la mémoire, j’ai des onglets YouTube entre autres, du GMail et du GMaps, Telegram, et j’en oublie), et le Go de swap finit par être occupé.




Winderly a dit:


C’est ce que je fais depuis que j’ai eu un pc avec 4 GiB de ram, sans souci.




J’ai fait l’expérience en 2014 d’enlever le swap sur le Windows XP (oui oui, cela dit ça fonctionnait correctement) que j’avais sur mon PC portable boulot, car j’avais pu mettre finalement 3 Go sur ce vieux Dell et c’était reconnu (en principe c’était 2 max), et c’était bien agréable de ne plus avoir de ralentissements aléatoires ; Windows a longtemps mal géré la mémoire (swaping sans raison), ça a dû progresser avec les versions plus récentes.


~$ cat /proc/swaps
Filename Type Size Used Priority
/swapfile file 1081068 7168 -2



luxian a dit:


D’ailleurs, sous Windows, tant que j’avais pas une débauche de RAM […] sur mon PC, j’avais toujours une partition dédiée et le swap fixé en dur pour “simuler une partition de swap.




Par clic droit sur une clé USB, il y avait moyen de la transformer en fichier d’échange (W7 ?) quand on avait atteint la limite en RAM de la carte mère, qui pouvait être assez faible, par ex. 2 Go.



luxian a dit:


Tu dois avoir un fichier de swap ? Que te donne : $cat /etc/fstab | grep swap ?




Bizarre :
/swapfile none swap sw 0 0
alors que j’ai un swapfile dans /



luxian a dit:



Haaa, je comprends mieux pourquoi sous Win98 comme sous NT4 j’arrrivai à provoquer un gel puis un écran bleu de NT4 en bougeant la souris d’une certaine façon comme un taré, plus de 20 ans après ! Le swap en dur est toujours mieux que le swap en file car tu n’a pas à défragmenter.




Planter NT4 avec la souri, faut pas exagérer, il y a un problème matériel là. (remarque, le matériel de l’époque n’était pas aussi fiable que maintenant, les chipset étaient bourrés de bugs basiques).
Le swap en dur sous Windows, quasi obligatoire pour éviter un écroulement complet du système avec saturation du disque.
Le problème, c’était que Linux mangeait de la partition, et on n’en avait pas beaucoup de dispo. D’où les RACK échangeable pour les disques systèmes ou la disquette de boot juste pour amorcer l’ordi depuis l’autre disque.




serpolet a dit:


Et pourtant, le Moniteur Système m’indique 1 GiB de Swap dispo, et le PC swappe un peu (4 MiB en ce moment…) Est-ce du Swap comme sous Windows (sans partition dédiée) ?




Linux permet maintenant d’avoir un swap sur le FS.
Pourquoi il réapparaît, je ne sais pas, mais le swap n’est pas uniquement piloté par le système (en tout ca sous Windows): des applis réclament le swap, c’est le cas de plusieurs antivirus pour minimiser leur empreinte en mémoire privée. En gros, ils allouent du swap pour garantir que leur fonctionnement par défaut est d’être hors RAM.



Peut-ête que ça existe aussi sous Linux (en tout cas, ça existe aussi sous VMS).



(quote:1892509:brice.wernet)
des applis réclament le swap
Je ne savais pas pour les anti-virus, mais des jeux, je confirme. Sans au moins 100 Mo de fichier de swap impossible d’installer Company of Heroes (je sais, ça date) même si on a 32 Go de RAM.



serpolet a dit:


Bizarre : /swapfile none swap sw 0 0 alors que j’ai un swapfile dans /
Si tu a fait le swapoff que je t’ai conseillé, tu peux le supprimer $sudo rm /swapfile
Le swapiness dans sysctl ne supprime pas le swap, il permet de beaucoup beaucoup moins swapper dans le cas où tu n’arriverais pas malgré tout à supprimer ton swap. En gros, il dit à Linux de commencer à mettre en swap que si tu as 90 % de mémoire vive saturée. Du coup, tu as fromage et dessert : un fichier de swap de débord au cas où et … il n’est quasiment jamais employé si tu as beaucoup de ram.
En gros, si tu n’as fait que swappiness, tu peux aller en paix.




luxian a dit:


Le swapiness dans sysctl ne supprime pas le swap, il permet de beaucoup beaucoup moins swapper dans le cas où tu n’arriverais pas malgré tout à supprimer ton swap. En gros, il dit à Linux de commencer à mettre en swap que si tu as 90 % de mémoire vive saturée. Du coup, tu as fromage et dessert : un fichier de swap de débord au cas où et … il n’est quasiment jamais employé si tu as beaucoup de ram.
En gros, si tu n’as fait que swappiness, tu peux aller en paix.




Sur mon Arch, j’ai fait le « vm.swappiness » à 10 sur les deux ordis chez moi, et je peut confirmer que… ça n’a absolument rien, mais rien changé au remplissage de la partition swap ! L’OS continue à swapper comme et quand ça lui chante, même quand je suis loin de saturer les 4 Gio de RAM de la machine.



stratic a dit:


Et, contrairement à ce que veulent croire certains, je confirme que c’est mission impossible pour Mme Michu. Il arrive trop souvent un moment, une mise à jour, un accident, où l’interface graphique montre ses limites et où il faut aller mettre les mains dans le cambouis pour tout remettre sur les rails. Résoudre des problèmes de diff sur des fichiers de conf, des problèmes de dépendances, de permissions ou autres, terminal ou graphique n’y change rien, Mme Michu finit face à un mur.




Parce que tu crois que sous Windows, en cas de souci, les Michus arrivent à se débrouiller par eux-mêmes ? Ça sera comme sous Linux. Soit avoir quelqu’un qui s’y connaît dans son entourage, soit faire appel à un réparateur. Après, c’est sûr que ça sera plus facile de trouver des professionnels certifiés Apple ou Microsoft, mais c’est une autre histoire.



Et c’est la même chose pour l’installation du système. Tout comme un Michu ne va pas installer soit-même son Windows mais acheter un PC avec le système pré-installé, il peut faire de même avec Linux. Des marques comme Dell ou Lenovo, voir spécialisées Linux comme System76, proposent un certain nombre de modèles avec des distributions Linux.




(quote:1892303:::1)
je sais que je vais encore me faire sabrer, mais un autre point noir de linux : l’impossibilité de choisir une version spécifique d’un logiciel (par ex firefox 8 ou 39), et être obligé de se soumettre aux versions des librairies de ladite version..




Avec les paquets Flatpak, tu peux installer plusieurs versions en parallèle. Et comme ça règle également le problème des dépendances, on pourrait créer un équivalent Linux aux sites OldApps / OldVersion qui archiverai tous les Flatpak.


Je suis globalement d’accord avec ce que tu dis. Je pense aussi que c’est possible, en théorie. En pratique (après 20 ans d’Ubuntu), je n’ai cependant vu aucune distribution qui tienne la route dans ce sens. Aujourd’hui, dans les faits, si elle utilise Linux, Mme Michu se trouve beaucoup plus rapidement face à un mur, qu’avec un Windows ou un macOS.



Il y a des progrès notables. Je pense en particulier aux expérimentations de merge automatique entre les fichiers de configuration et ceux provenant de la distribution, au recours plus systématique à l’usage de fichiers séparés, à Snap, Flatpack, etc. Mais en pratique, je n’ai toujours pas l’impression que le compte y soit.



La distribution “idiot proof”, sans doute beaucoup plus restrictive (par défaut tout du moins), mais que l’on pourrait mettre dans les mains de tout le monde, a mon sens, on l’attend toujours et la quasi-impossibilité d’arriver à des consensus avec des objectifs clairs et précis dans la communauté Linux me fait craindre que l’on doive l’attendre encore longtemps.



stratic a dit:


Et, contrairement à ce que veulent croire certains, je confirme que c’est mission impossible pour Mme Michu. Il arrive trop souvent un moment, une mise à jour, un accident, où l’interface graphique montre ses limites et où il faut aller mettre les mains dans le cambouis pour tout remettre sur les rails. Résoudre des problèmes de diff sur des fichiers de conf, des problèmes de dépendances, de permissions ou autres, terminal ou graphique n’y change rien, Mme Michu finit face à un mur.




Sur le coup, je n’y ai pas pensé, mais des distributions Linux grand public telles que Linux Mint proposent désormais des outils comme Timeshift qui permettent de créer des instantanés du système, dans le but de pouvoir facilement revenir en arrière en cas de problème.



Next INpact en avait d’ailleurs parlé dans un vieil article.



luxian a dit:


Et sinon tu peux modifier définitivement l’usage du swap si ce n’est pas déjà fait : $sudo echo “vm.swappiness = 10” >> /etc/sysctl.conf




A première vue, autant mettre la swappiness à 0, si le but est d’éviter de swapper. À mon avis ça ne sert à rien, autant virer le swap (avec swapoff d’abord et ensuite en modifiant le fichier /etc/fstab). À noter aussi que modifier le fichier /etc/sysctl.conf nécessite de le faire prendre en compte, soit en redémarrant, soit en utilisant une commande sysctl avec la swappiness.




Haaa, je comprends mieux pourquoi sous Win98 comme sous NT4 j’arrrivai à provoquer un gel puis un écran bleu de NT4 en bougeant la souris d’une certaine façon comme un taré, plus de 20 ans après !




Ta machine avait un sérieux problème matériel si bouger la souris faisait planter ta machine. Je sais que Windows c’était pas très stable mais quand même… Jamais entendu parler de ce cas.




Le swap en dur est toujours mieux que le swap en file car tu n’a pas à défragmenter.




Qu’appelles-tu le swap en dur ?
Par ailleurs, réécrire au sein d’un fichier, ça dépend du filesystem mais à l’époque sous Windows c’est fort possible que ce soit au même endroit, donc pas de fragmentation.



A noter que sous Linux, on n’a pas de souci de fragmentation.




serpolet a dit:


J’ai utilisé : sudo sysctl -w vm.swappiness=0
mais ça revient. Comme ça ne me gène pas plus que ça, je laisse…




Ça répond à mon interrogation plus haut, je n’étais pas sûr que ça pouvait avoir l’effet souhaité.




serpolet a dit:


Bizarre : /swapfile none swap sw 0 0 alors que j’ai un swapfile dans /




C’est cohérent, ou alors quelque chose m’échappe.
Tu as bien un fichier de swap, et tu peux le désactiver, soit temporairement avec “swapoff”, soit définitivement en enlevant l’entrée dans le fstab (à moins que ce soit au niveau de la conf systemd, je ne sais pas).




(quote:1892509:brice.wernet)
Le swap en dur sous Windows, quasi obligatoire pour éviter un écroulement complet du système avec saturation du disque.




Saturation du disque ?




Le problème, c’était que Linux mangeait de la partition, et on n’en avait pas beaucoup de dispo.




On pouvait avoir 4 partitions primaires, on plus avec les partitions étendues, donc je ne vois pas bien le problème.




le swap n’est pas uniquement piloté par le système (en tout ca sous Windows): des applis réclament le swap, c’est le cas de plusieurs antivirus pour minimiser leur empreinte en mémoire privée. En gros, ils allouent du swap pour garantir que leur fonctionnement par défaut est d’être hors RAM.




Ça n’a aucun sens ta dernière phrase.
Tous les programmes démarrent en RAM, et des parties de la mémoire sont mise sur le swap en fonction des besoins (un autre programme demande suffisamment de mémoire et les zones mémoires non accédées récemment sont “swappées”).
Un antivirus ira en bonne partie sur du swap s’il ne fait rien, mais il reviendra en RAM quand il s’active.
Et normalement, une appli n’a pas à se renseigner sur l’existence de swap ou pas, ce qui lui importe c’est d’avoir assez de mémoire pour fonctionner. Le système est le mieux placé pour décider de ce qui doit être swappé ou pas, lors du fonctionnement.



OlivierJ a dit:


Qu’appelles-tu le swap en dur ? Par ailleurs, réécrire au sein d’un fichier, ça dépend du filesystem mais à l’époque sous Windows c’est fort possible que ce soit au même endroit, donc pas de fragmentation.




Sous XP, les zones de swap sur le disque était visible dans l’outil de défragmentation, et elles étaient fixes.



Mihashi a dit:


Sous XP, les zones de swap sur le disque était visible dans l’outil de défragmentation, et elles étaient fixes.




Oui, il fallait les défragmenter avec un outil sysinternals. C’était dû au swap dynamique: quand un soft “s’emballait”, il pouvait allouer et allouer de la mémoire. la swap augmentait par morceux, à droite, à gauche… Parfois jusqu’à la fin du disque…




OlivierJ a dit:


A noter que sous Linux, on n’a pas de souci de fragmentation.




Légende… On peut très bien défragmenter un e2fs, il faut même parfois le faire. Seulement pour cela il faut le garder longtemps, longtemps.
Peut-être que l’utilisation même de Linux menait à moins de fragementation, je ne sais pas.
Sous Window,s le gros problème, c’est ce fichu défragmenteur disque qui passait son temps à tout mettre au début du disque. Certains autres défragmenteurs répartissaient l’espace libre pour qu’il y en ai à la fin des répertoires ou de gros fichiers qui changeaient -> c’était là une excellente pratique.




Ça n’a aucun sens ta dernière phrase.e la mémoire sont mise sur le swap en fonction des besoins (un autre programme demande suffisamment de mémoire et les zones mémoires non accédées récemment sont “swappées”).




Pas tout à fait. C’est le schéma “standard” d’allocation sur la pile. Mais on va plus loin: https://docs.microsoft.com/en-us/windows/win32/memory/comparing-memory-allocation-methods



Tu peux allouer de la RAM qui ne sera consommée qu’à l’écriture, allouer avec seulement quelques pages dispos en RAM et tout le reste réservé sur le swap (comme les fameux mmap qui manquaient à BeOS)… Tout cela très similaire à ce que OpenVMS proposait. Linux a aussi ce genre de mécanismes.



Les “vieux” softs, de l’époque ou la RAM coutait tellement cher que l’on manipulait des fichiers qui ne tenaient pas en RAM l’utilisaient beaucoup.
Exemple: sur un PC avec 4Mo de RAM, Windows pouvait lancer Word (fichier exe de 8Mo) sans swapper (mais en réservant un espace de swap)… Les mécanismes de chargement des exe étaient “aware” sur ce point.



BSD avait aussi des petits principes du genre: sur certains, chaque processus lancé était réservé en SWAP, de sorte que contrairement à Linux et Windows ou la swap était une “extension”, sous BSD c’était plus proche de la “mémoire totale” du système.



(reply:1892521:Trit’)
swappiness 0 ?
ça désactive l’usage du fichier de swap
https://wiki.maemo.org/Swappolube#Swappiness




Perso, sur raspbian de base de mon rapberrypi3 et mes ubuntu, c’est où 0 swap ou swappiness à 10.
Je ne sais plus ce que j’avais remarqué pour 0, mais j’ai définitivement choisi 10 lorsque j’employais un swap.
Et mon swap est pas employé si j’ai 560 Mo d’employé pour 2 Go de RAM … ni 420 pour 512Mo du raspi d’ailleurs.




OlivierJ a dit:


A première vue, autant mettre la swappiness à 0, si le but est d’éviter de swapper.
À mon avis ça ne sert à rien, autant virer le swap




+1 ou tu réduis l’usage, ou tu supprimes.




Qu’appelles-tu le swap en dur ? Par ailleurs, réécrire au sein d’un fichier, ça dépend du filesystem mais à l’époque sous Windows c’est fort possible que ce soit au même endroit, donc pas de fragmentation.
A noter que sous Linux, on n’a pas de souci de fragmentation.




Mais Windows, si.
Et si tu crées un swap “fixe” (je me suis mal exprimé). Fixe : pour je fixe la taille du fichier de swap à 1 Go et comme il faut être précis dans ses expressions [b]Taille personnalisée initiale = maximale[/b] et ne variant pas entre initiale et maximale, versus ce l’idée de “en mou” je laisse Windows adapter lui-même le fichier de swap en fonction de l’usage [b]Taille gérée par le système[/b]. L’idée de “codé en dur” quoi, on fixe et ça peut plus être modifié.



Et bien si tu “fixe” ton fichier de swap sur un disque qui n’a pas été défragmenté au préalable … même avec Windows 10 tu verras que ton fichier de swap est découpé en petits morceaux et répartit selon la place … même avec un SSD (je sais les SSD se moquent de la fragmentation, mais c’est pour dire). Tu prends un bon jkdefrag et tu regardes quand il défragmente. Si tu as fermé toutes tes applications, que tes gros fichiers ne sont pas employés, les gros espaces non défragmentés, c’est ton swap !
Alors pour éviter cela, tu mets le swap à 0min0max (ou bien aucun fichier d’échange). Tu rebootes, tu supprimes le fichier de swap qui existe malgré tout, tu vides tes TMP et tu défragues. Une fois défrag … tu vois que t’as plus trop de bordel, là tu crées ton swap de taille fixe (en dur) et t’as une chance qu’il soit en 1 seul bloc … ce qui sur un disque “tournant” était quand même bien plus propre. Autre point d’optimisation, s’arranger pour que la création du swap soit faite sur la partie extérieure du disque (pour avoir la plus grande vitesse de rotation sous la tête de lecture et donc de débit, soit quasi 30% par rapport au centre). Quand t’as eu ça, ta tête lis ton swap en 1 passe et t’as réduit les mouvements de la tête pendant la lecture donc gagné en vitesse et réactivité.




On pouvait avoir 4 partitions primaires, on plus avec les partitions étendues, donc je ne vois pas bien le problème.




Sauf que pour accéder à l’étendue, la tête de lecture devait “d’abord” à chaque fois aller lire la définition dans la dite parition primaire alors que l’espace “primaire” ne peut contenir que 4 partition dans sa mémoire.
C’est pas bien les partitions étendues, faut éviter.




Et normalement, une appli n’a pas à se renseigner sur l’existence de swap ou pas, ce qui lui importe c’est d’avoir assez de mémoire pour fonctionner. Le système est le mieux placé pour décider de ce qui doit être swappé ou pas, lors du fonctionnement.




Oui, ça c’est ce que nous souhaitons tous de la part d’un swap : la théorie.
Sauf que pas mal de jeux refusent de s’installer s’il ne trouvent pas de fichier de swap et même de se lancer si tu lui as supprimé le fichier de swap après installation.
Company Of Heroes, par exemple (j’ai voulu y rejouer il y a 1 mois, c’est tout frais).




(quote:1892616:brice.wernet)
Oui, il fallait les défragmenter avec un outil sysinternals. C’était dû au swap dynamique: quand un soft “s’emballait”, il pouvait allouer et allouer de la mémoire. la swap augmentait par morceux, à droite, à gauche… Parfois jusqu’à la fin du disque…



Légende… On peut très bien défragmenter un e2fs, il faut même parfois le faire.




Exactement !
C’était du troll de Linuxien de dire que l’ext2 n’avait pas besoin de se défragmenter, comme la NTFS à sa sortie.
Mais la défragmentation est tellement moins “probante” que sous Windows, qu’on a le temps de réinstaller avec une nouvelle version d’une autre distribution sa machine avant de se dire : tiens, ça ramouille un peu, faudrait peut-être que je défragumente :non:
En tout cas, depuis que j’ai du SSD, j’ai plus défrag une ext4.



luxian a dit:


Mais Windows, si. Et si tu crées un swap “fixe” (je me suis mal exprimé). Fixe : pour je fixe la taille du fichier de swap à 1 Go et comme il faut être précis dans ses expressions Taille personnalisée initiale = maximale et ne variant pas entre initiale et maximale, versus ce l’idée de “en mou” je laisse Windows adapter lui-même le fichier de swap en fonction de l’usage Taille gérée par le système. L’idée de “codé en dur” quoi, on fixe et ça peut plus être modifié.




Oui, enfin, faut arrêter de répéter les tutos débiles qui étaient déjà pourris à l’époque de Windows 98… Surtout aujourd’hui, où Windows est désormais parfaitement capable de gérer son fichier d’échange tout seul comme un grand. Idem pour la défragmentation, désormais effectuée automatiquement en arrière-plan depuis Vista (ce qui commence à dater, quand même : les gens nés quand Vista est sorti vont faire leur entrée au lycée, en 2de, dans quelques jours…) et désactivée et remplacée par un TRIM si l’OS est – comme il se doit depuis 10 ans – installé sur un SSD.



Windows n’est plus (mais l’a-t-il jamais été ?) un OS qu’on peut bidouiller comme un taré (sauf à vouloir le flinguer, et venir ensuite pleurer que l’OS est en vrac alors qu’il marchait parfaitement avant qu’on se mette stupidement à le tripoter là où il ne faut pas). Laissez-le vivre sa vie et contentez-vous de l’utiliser, vous verrez que vos installations tourneront comme des horloges durant des années.



luxian a dit:


Exactement ! C’était du troll de Linuxien de dire que l’ext2 n’avait pas besoin de se défragmenter, comme la NTFS à sa sortie. Mais la défragmentation est tellement moins “probante” que sous Windows,




Oui, visiblement car Linux avait la bonne idée de réserver de la place après chaque fichier. Comme cela, quand il s’étendait, il commençait juste après le fichier.
De même en FAT32 sur gros disque, à part la place perdue, on constatait que la défragmentation allait plus vite … parce que aucun fichier de moins de 32 ou 64k ne pouvait être fragmenté!
Et défragmenter tout le temps augmentait la fragmentation, puisque les fichiers de log, le répertoire temp, … rien n’avait de place pour écrire.
On comprend mieux la fragmentation quand on touche à d’autres OS où quand on crée un fichier, on doit/peut indiquer la taille des extensions, si elles doivent être contigües, le maximum de morceaux du fichier…



Et effectivement, depuis les SSD et les SAN, la défragmentation n’a plus de sens.




(quote:1892628:Trit’)
Oui, enfin, faut arrêter de répéter les tutos débiles qui étaient déjà pourris à l’époque de Windows 98… Surtout aujourd’hui, où Windows est désormais parfaitement capable de gérer son fichier d’échange tout seul comme un grand.




Non, je rejoins luxian. Fixer au moins la taille maxi de son fichier d’échange était important. Et il le reste peut-être, sauf que avec la RAM et les disques qu’on a maintenant, on a moins de risques que tout s’emballe (mais j’ai déjà dû réduire un swap de plus de 60Go sur un serveur - merci les applis pourries)



(quote:1892634:brice.wernet)

(mais j’ai déjà dû réduire un swap de plus de 60Go sur un serveur - merci les applis pourries)




C’est Oracle à l’époque (1015 ans) qui déraillait plein pot si je me souviens.
Il ralait comme c’est pas permi si il ne trouvait pas un swap de 2x la ram.
Alors sur des machines de 64 Go de ram, le swap, il pouvait aller se le carrer profondément.


Pour la jouer perso,
Toutes mes machines sont sous GNU/Linux, y compris un trés vieux Mac QuickSilver de 2002. Avec différents petits bonheurs je doit dire …
Comme je n’ai pas envie de racheter une machine tous les cinq ans, ni les moyens financiers surtout; c’est un excellent moyen pour recycler une bécane qui se retrouve obsolète suite à un upgrade majeur ou un changement de version de WIN
Et puis les progrès des distrib’ ont été fulgurants ces dix dernières années, tant au niveau de la fiabilité que de la convivialité …



(reply:1892645:Vin Diesel)
Ton avatar me rappelle la première distrib que j’avais installée.
Et c’était y’a longtemps, ça me rajeuni pas tout ça. :phibee: :phiphi:




(quote:1892616:brice.wernet)
Légende… On peut très bien défragmenter un e2fs, il faut même parfois le faire. Seulement pour cela il faut le garder longtemps, longtemps. Peut-être que l’utilisation même de Linux menait à moins de fragementation, je ne sais pas.




Légende, pas du tout : personne ne défragmente un e2fs, je n’ai jamais vu ça sur aucun serveur et je ne sais même pas quel outil utiliser.
Je répète donc : « À noter que sous Linux, on n’a pas de souci de fragmentation. ».
Ça ne veut pas dire que la fragmentation est nulle, mais qu’elle n’a pas d’impact.




Sous Window,s le gros problème, c’est ce fichu défragmenteur disque qui passait son temps à tout mettre au début du disque. Certains autres défragmenteurs répartissaient l’espace libre pour qu’il y en ai à la fin des répertoires ou de gros fichiers qui changeaient -> c’était là une excellente pratique.




Honnêtement ça m’a toujours scié (et ça a toujours fait rigoler les non-windowsiens) ces histoires de défragmenteurs, le truc qui ne devrait même pas exister, à l’époque où les autres OS sérieux n’avaient pas ça. Je me souviens aussi des gars du service informatiques qui débarquaient dans les années 2000 et qui commençaient presque par défragmenter le disque, ça ne servait à rien à part le sentiment que tout se range comme par magie sans effort avec des beaux rectangles colorés, et rendre le PC indisponible pendant l’opération.



Je me demande si des gens ont fait des benchmarks à une époque, pour montrer que ça avait vraiment une différence importante, la défragmentation (et pas 10 % de différence à l’usage).



Certains ici ont peut-être connu la publication de Roberto Di Cosmo, un chercheur en informatique qui avait également publié un bouquin “Le hold-up planétaire” en, 1998 https://www.persee.fr/doc/reso_0751-7971_1999_num_17_94_3896 et qui expliquait dans un papier la nullité du FS de MS à l’époque, là où les FS correctement conçus n’avaient pas de souci concret de fragmentation.




Les “vieux” softs, de l’époque ou la RAM coutait tellement cher que l’on manipulait des fichiers qui ne tenaient pas en RAM l’utilisaient beaucoup. Exemple: sur un PC avec 4Mo de RAM, Windows pouvait lancer Word (fichier exe de 8Mo) sans swapper (mais en réservant un espace de swap)… Les mécanismes de chargement des exe étaient “aware” sur ce point.




Je suis extrêmement dubitatif sur ton histoire, à l’époque des PC Windows avec 4 Mo de RAM, on n’avait pas de mémoire virtuelle, les programmes étaient chargés entièrement en mémoire.




luxian a dit:



Mais Windows, si. Et si tu crées un swap “fixe” (je me suis mal exprimé). Fixe : pour je fixe la taille du fichier de swap à 1 Go




OK.




Et bien si tu “fixe” ton fichier de swap sur un disque qui n’a pas été défragmenté au préalable … même avec Windows 10 tu verras que ton fichier de swap est découpé en petits morceaux et répartit selon la place … même avec un SSD (je sais les SSD se moquent de la fragmentation, mais c’est pour dire).




Je ne vois pas pourquoi le fichier de swap serait fragmenté au départ, le FS de Windows 10 n’est toujours pas capable de créer un fichier qui est contigu, au départ, sur un disque où il y a un peu de place ?
Il faut faire attention à ce qu’affiche un outil de défragmentation aussi, c’est possible que ça montre une fragmentation simplifiée et en fait exagérée, en particulier sur l’impact réel, même sur disque dur magnétique.




Tu rebootes, tu supprimes le fichier de swap qui existe malgré tout, tu vides tes TMP et tu défragues. Une fois défrag … tu vois que t’as plus trop de bordel, là tu crées ton swap de taille fixe (en dur) et t’as une chance qu’il soit en 1 seul bloc …




Mais quel tintouin un peu absurde, quand on y réfléchit.




Autre point d’optimisation, s’arranger pour que la création du swap soit faite sur la partie extérieure du disque (pour avoir la plus grande vitesse de rotation sous la tête de lecture et donc de débit, soit quasi 30% par rapport au centre).




L’usage d’une partition de swap, ou d’une partition système de taille raisonnable où on met le fichier de swap, ça permet de placer la swap au début du disque.
Sous Linux et disque magnétique je mettais la partition de swap juste après les quelques Go de la partition système.




Quand t’as eu ça, ta tête lis ton swap en 1 passe et t’as réduit les mouvements de la tête pendant la lecture donc gagné en vitesse et réactivité.




Mais le swap est accédé de façon plus ou moins aléatoire, ce n’est pas lu linéairement en général. C’est bien pour ça qu’utiliser du swap de façon importante ça ralentit énormément (quand on a peu de RAM et des gros programmes ou des grosses données).




Sauf que pour accéder à l’étendue, la tête de lecture devait “d’abord” à chaque fois aller lire la définition dans la dite parition primaire




Heu, hein ?
Tu crois que l’OS va relire la table de partitionnement chaque fois que tu écris des données dans un fichier ? (la réponse est non)




Oui, ça c’est ce que nous souhaitons tous de la part d’un swap : la théorie. Sauf que pas mal de jeux refusent de s’installer s’il ne trouvent pas de fichier de swap et même de se lancer si tu lui as supprimé le fichier de swap après installation. Company Of Heroes, par exemple (j’ai voulu y rejouer il y a 1 mois, c’est tout frais).




Bienvenue dans le monde des jeux sous Windows alors.




Exactement ! C’était du troll de Linuxien de dire que l’ext2 n’avait pas besoin de se défragmenter




:mad2:
Personne de sensé ne défragmente un ext2, je ne connais aucun linuxien (amateur ou pro) qui sait faire ça, de toutes façons. Je ne sais même pas quel outil utiliser.




Mais la défragmentation est tellement moins “probante” que sous Windows, qu’on a le temps de réinstaller avec une nouvelle version d’une autre distribution sa machine avant de se dire : tiens, ça ramouille un peu, faudrait peut-être que je défragumente :non: En tout cas, depuis que j’ai du SSD, j’ai plus défrag une ext4.




Déjà, un linux ne se met pas à ramer avec le temps, parce qu’il n’y a effectivement pas de souci lié à la fragmentation, qui reste faible en pratique. Normale qu’elle soit moins probante, la supposée défragmentation d’un ext2 (ou suivants).



(quote:1892634:brice.wernet)
Oui, visiblement car Linux avait la bonne idée de réserver de la place après chaque fichier. Comme cela, quand il s’étendait, il commençait juste après le fichier.




Je n’ai plus de souvenir précis sur ce point (s’il y a bien réservation d’entrée de jeu de place à la fin d’un fichier), mais ce qui est sûr c’est que ext2 s’arrangeait déjà pour écrire un fichier de façon contiguë, le plus possible, sauf à ce que le disque soit vraiment déjà très plein et qu’il n’y ait plus d’espace contigu disponible.
C’était ce qu’expliquait en particulier Roberto Di Cosmo à l’époque de Win95.




Et défragmenter tout le temps augmentait la fragmentation, puisque les fichiers de log, le répertoire temp, … rien n’avait de place pour écrire.




Je ne pige pas comment une défragmentation peut retirer de la place pour des fichiers de log ou le répertoire temp.
J’ai le vertige quand je pense aux millions (milliards ?) d’heures perdues par ces gens qui étaient obsédés par la défragmentation régulière (sans utilité réelle derrière en plus). Je pense que l’aspect visuel du rangement était très satisfaisant, on aimerait pouvoir ranger son chez soi comme ça, en regardant tout se faire magiquement.




On comprend mieux la fragmentation quand on touche à d’autres OS où quand on crée un fichier, on doit/peut indiquer la taille des extensions, si elles doivent être contigües, le maximum de morceaux du fichier…




Je n’ai jamais entendu parler de ça pour les FS linux. La création d’un fichier c’est un appel système avec un nom de fichier et des permissions.
Ensuite, quand on écrit des données, c’est le FS qui décide où il réserve les blocs.




(mais j’ai déjà dû réduire un swap de plus de 60Go sur un serveur - merci les applis pourries)




60 Go de swap ? Houla… Avec quelle quantité de RAM ?



OlivierJ a dit:


Je ne pige pas comment une défragmentation peut retirer de la place pour des fichiers de log ou le répertoire temp.




Ces fichiers/répertoires sont modifiés régulièrement, si tu défragmentes en collant tout à la suite sans laisser de place, alors ils vont très vite se retrouver fragmentés.




J’ai le vertige quand je pense aux millions (milliards ?) d’heures perdues par ces gens qui étaient obsédés par la défragmentation régulière (sans utilité réelle derrière en plus).




Ça améliorait quand même sensiblement la réactivité du système.
Perso, j’avais une méthode un peu plus bourrin : formatage et réinstallation tous les ans…
Ça permettait de repartir avec un système complètement « sain », et ça prenait le même temps, voire moins, que de défragmenter.




Je pense que l’aspect visuel du rangement était très satisfaisant, on aimerait pouvoir ranger son chez soi comme ça, en regardant tout se faire magiquement.




C’était hypnotisant, en effet :transpi:



Mihashi a dit:


Ces fichiers/répertoires sont modifiés régulièrement, si tu défragmentes en collant tout à la suite sans laisser de place, alors ils vont très vite se retrouver fragmentés.
Ça améliorait quand même sensiblement la réactivité du système.




Assurément, quand on avait des disques lents et pas chers, ça se sentait. Je ne sais par contre plus quel est ce défragmenteur qui permettait de trier / classer les fichiers par date ou par extension.
Car en effet … Il fallait supprimer les logs et TMP avant de défragmenter et surtout placer ces extensions “à la fin”. Placer les fichierset répertoires sytèmes “au début”… car tout ce qui est système ne voit plus sa taille bouger (sous W98 … l’OS subissait pas les mises à jour de Windows 10).




C’était hypnotisant, en effet :transpi:




Un peu oui …




OlivierJ a dit:


Ça ne veut pas dire que la fragmentation est nulle, mais qu’elle n’a pas d’impact.




Permet moi de soutenir au sujet de l’impact : pas nulle mais négligeable, c’est à dire qu’elle existe mais qu’on s’en f… . C’est ce que nous disons avec Brice.
:cap:




Honnêtement ça m’a toujours scié …/… tout se range comme par magie sans effort avec des beaux rectangles colorés, et rendre le PC indisponible pendant l’opération.




Déjà, c’est beau à voir.
Ensuite, tu ne défraguementais pas avec l’outil par défaut de Windows … qui était une mmm.
Tu paramétrais tes heures de défrag pendant que le PC n’était pas utilisé, ce qui évitait d’embêter le monde.
Et surtout, ton défragmenteur est prévu pour se relancer tout seul jusqu’à un certain stade quand le disque est trop employé en parallèle … même si, en effet, vaut mieux pas employer le PC : tu pouvais le faire.




Je me demande si des gens ont fait des benchmarks à une époque, pour montrer que ça avait vraiment une différence importante, la défragmentation (et pas 10 % de différence à l’usage).




Je me souviens d’un prof en 98 qui nous expliquait qu’un de ses thésard lui avait démontré que ça ne servait pas vraiment à grand chose dans pas mal de cas : mais il n’avait pas non plus démontré que ça ne servait à rien.



Je n’ai que mes souvenirs, mes pratiques et mes ressentis de l’époque pour mettre face à tes dénégations certaines et générations absolues. Si tu n’y crois pas : je n’y peux rien.




Je suis extrêmement dubitatif sur ton histoire, à l’époque des PC Windows avec 4 Mo de RAM, on n’avait pas de mémoire virtuelle, les programmes étaient chargés entièrement en mémoire.




WoW.
Quand j’étais étudiant, j’ai bidouillé sur des bécannes passées de date : 3.1, 95 disquettes, 95 osr2, 98, 98SE, ME, NT4, 2000 Pro, 2003 Server … Tout ça obtenu de façon toujours très catholique … On a pas eu les même PC ou version d’OS ! Car pour moi … ça ne chargeait pas que en mémoire RAM (la barette), mais aussi sur le disque. Je crois même que c’est seulement depuis Office 2010 qu’il n’y a plus besoin d’un peu de swapfile déclaré sous Windows, Office 2003 devait en avoir besoin (à vérifier). Vers 2001, je commençais d’avoir assez de sous pour me payer assez de RAM, et même en 2001 (donc Xp Pro), il me fallait un peu de swap pour installer tous les softs “sans réfléchir : zut j’ai 0 swap et il gueule”.




L’usage d’une partition de swap, ou d’une partition système de taille raisonnable où on met le fichier de swap, ça permet de placer la swap au début du disque. Sous Linux et disque magnétique je mettais la partition de swap juste après les quelques Go de la partition système.




Alors attention … Moi aussi, je faisais ça : hda0 => swap, voir hda0 ET hdb0 …
Mais tu auras lu que j’écris plutôt “à l’extérieur du disque”.
Car !GAG! que tu n’avais peut-être pas remarqué, selon la marque de disque (et il fallait avoir l’oeil et chercher), le début “0” du disque n’était pas toujours à l’extrémité physique du cercle mais au centre.
Et là … effet pervers.
Tu penses mettre ton swap à l’endroit le plus rapide et pas de bol : c’est le plus lent.
A chaque nouveau disque, je faisais un premier partitionnement un peu bête .. avec une petite partition à chaque extrémité, puis un hdparm -itT /dev/hdbX … pour bien voir comment j’allais mettre mes partitions. Et parfois entre Maxtor, Seagate ou Fujitsu : j’avais des surprises.




Déjà, un linux ne se met pas à ramer avec le temps, parce qu’il n’y a effectivement pas de souci lié à la fragmentation, qui reste faible en pratique.




Je voulais surtout dire que je réinstallais bien trop souvent mes distributions Linux pour me soucier de la fragmentation.
La partition Windows … à l’époque, une fois installée, elle bougeait pas avant la nouvelle version (ou après une bêtise).



OlivierJ a dit:


Honnêtement ça m’a toujours scié (et ça a toujours fait rigoler les non-windowsiens) ces histoires de défragmenteurs, le truc qui ne devrait même pas exister, à l’époque où les autres OS sérieux n’avaient pas ça.




C’est un principe qui était encore pire sur OpenVMS (les répertoire pouvant être “pleins” sans que le disque le soit). Dire que OpenVMS n’est pas sérieux… c’était un OS bien en avance sur tout ce qui était de la duplication de noeud, du clustering.




Je me demande si des gens ont fait des benchmarks à une époque, pour montrer que ça avait vraiment une différence importante, la défragmentation (et pas 10 % de différence à l’usage).




Il ne fallait pas le lancer tout le temps. Mais sur un poste non défragmenté depuis quelques mois et utilisé quotidiennement, c’était très efficace.




Je suis extrêmement dubitatif sur ton histoire, à l’époque des PC Windows avec 4 Mo de RAM, on n’avait pas de mémoire virtuelle, les programmes étaient chargés entièrement en mémoire.




La mémoire virtuelle et le swap (car ce n’est pas la même chose), on l’avait dans Windows 3.1.
Quand à charger des EXE qui ne passent pas en RAM, le DOS le permettait (mais il fallait que le programmeur le prenne en charge -ce qui n’était pas évident ave cles environnement de dev en C ou Pascal)




:mad2: Personne de sensé ne défragmente un ext2, je ne connais aucun linuxien (amateur ou pro) qui sait faire ça, de toutes façons. Je ne sais même pas quel outil utiliser.




defrag?




Déjà, un linux ne se met pas à ramer avec le temps, parce qu’il n’y a effectivement pas de souci lié à la fragmentation, qui reste faible en pratique.




Voilà. Sauf utilisation extrême, avec un disque saturé, ça ne fragmente pas. De plus, la structure du FS est meilleure, permettant à chaque process de travailler dans son coin du disque, là où sous Windows il fallait (au début) tout réécrire sur les tables de FAT + leur copie…



(quote:1892824:brice.wernet)



defrag?




Je n’ai pas ça sur ma machine.



J’ai bien un e4defrag, mais qui ne fonctionne pas sur un filesystem ext3, donc je ne peut pas tester même pour mesurer la fragmentation.



fred42 a dit:


J’ai bien un e4defrag, mais qui ne fonctionne pas sur un filesystem ext3, donc je ne peut pas tester même pour mesurer la fragmentation.




C’est fsck qui t’annonce la fragmentation, uniquement sur partition non montée.
Après, sur SSD, aucun intérêt.



Sinon, une petite ressource https://www.linux-magazine.com/Online/Features/Defragmenting-Linux



Les fichiers de log tendent à être fragmentés (sauf si la rotation est suffisante), ceux des BDD, le reste, c’est marginal. Si on avait pu dire à windows où placer un fichier… Après, on pouvait défragmenter fichier par fichier ou répertoire par répertoire avec contig (bien plus intelligent que de faire un defrag complet)



luxian a dit:


Je me souviens d’un prof en 98 qui nous expliquait qu’un de ses thésard lui avait démontré que ça ne servait pas vraiment à grand chose dans pas mal de cas : mais il n’avait pas non plus démontré que ça ne servait à rien.




Je ne suis pas étonné.




WoW. Quand j’étais étudiant, j’ai bidouillé sur des bécannes passées de date : 3.1, 95 disquettes, 95 osr2, 98, 98SE, ME, NT4, 2000 Pro, 2003 Server … Tout ça obtenu de façon toujours très catholique … On a pas eu les même PC ou version d’OS ! Car pour moi … ça ne chargeait pas que en mémoire RAM (la barette), mais aussi sur le disque




“charger sur le disque”, ça ne veut rien dire.
Pour qu’un programme fonctionne en partie ailleurs qu’en RAM, il faut un mécanisme de mémoire virtuelle. Ce que n’avait pas Windows jusqu’à NT ou XP.




Vers 2001, je commençais d’avoir assez de sous pour me payer assez de RAM, et même en 2001 (donc Xp Pro), il me fallait un peu de swap pour installer tous les softs “sans réfléchir : zut j’ai 0 swap et il gueule”.




Drôle d’OS…




Alors attention … Moi aussi, je faisais ça : hda0 => swap, voir hda0 ET hdb0 … Mais tu auras lu que j’écris plutôt “à l’extérieur du disque”. Car !GAG! que tu n’avais peut-être pas remarqué, selon la marque de disque (et il fallait avoir l’oeil et chercher), le début “0” du disque n’était pas toujours à l’extrémité physique du cercle mais au centre. Et là … effet pervers. Tu penses mettre ton swap à l’endroit le plus rapide et pas de bol : c’est le plus lent.




Mais non…
Les 1er secteurs du disque sont toujours à l’extérieur, aucune raison de faire l’inverse, pour des raisons évidentes.
Jamais vu de disque dur “inversé”, et j’en ai eu pas mal. Je testais chaque nouveau disque avec “hdparm” et les partitions au début et plus loin.




Je voulais surtout dire que je réinstallais bien trop souvent mes distributions Linux pour me soucier de la fragmentation.




Un Linux qui tourne depuis des années n’a aucun ralentissement perceptible. J’ai gardé la même distribution sur mon PC pendant des années (un peu trop même), ça fonctionnait toujours aussi bien (et 2424).



(quote:1892824:brice.wernet)



C’est un principe qui était encore pire sur OpenVMS (les répertoire pouvant être “pleins” sans que le disque le soit).




Je ne vois pas le rapport avec le sujet de la fragmentation des fichiers.




Dire que OpenVMS n’est pas sérieux… c’était un OS bien en avance sur tout ce qui était de la duplication de noeud, du clustering.




J’ai utilisé VMS, pour info.




Il ne fallait pas le lancer tout le temps. Mais sur un poste non défragmenté depuis quelques mois et utilisé quotidiennement, c’était très efficace.




Je demande toujours à voir (et vu ce qu’a dit Luxian, d’après un thésard pas franchement, ce qui ne m’étonne pas, ou alors cas pathologique).




La mémoire virtuelle et le swap (car ce n’est pas la même chose), on l’avait dans Windows 3.1.




Tu rêves complètement. Je veux une source sérieuse pour cette affirmation. Windows 3.1 n’avait aucune protection mémoire, donc aucune mémoire virtuelle.




Quand à charger des EXE qui ne passent pas en RAM, le DOS le permettait (mais il fallait que le programmeur le prenne en charge -ce qui n’était pas évident ave cles environnement de dev en C ou Pascal)




Non ce n’était pas le DOS, mais le programme qui était écrit pour tirer parti du disque en cas de manque mémoire, ce qui n’a rien à voir.




defrag?




Mais encore ?




Voilà. Sauf utilisation extrême, avec un disque saturé, ça ne fragmente pas. De plus, la structure du FS est meilleure, permettant à chaque process de travailler dans son coin du disque




Pour tes 2 phrases, non.
Pour la 1ère, ça fragmente toujours un peu.
Pour la 2e, il n’y a rien de tel que “chaque processus travaille dans son coin du disque”, même si c’était le cas ça ne changerait pas la possibilité de fragmentation ou pas.




là où sous Windows il fallait (au début) tout réécrire sur les tables de FAT + leur copie…




Récrire dans la FAT, ça n’est pas ça qui cause de la fragmentation, pour le coup.



fred42 a dit:


Je n’ai pas ça sur ma machine.



J’ai bien un e4defrag, mais qui ne fonctionne pas sur un filesystem ext3, donc je ne peut pas tester même pour mesurer la fragmentation.




:chinois:



Je reste un peu scié par l’ignorance de beaucoup de gens dans l’informatique sur ce qui existe hors du monde Windows, sur des principes déjà anciens en informatique (comme la mémoire virtuelle et la protection mémoire, le chargement à la demande), et sur ce site où il y a des passionnés je m’attendais à mieux. Pardon mon propos paraît pas sympa, mais c’est aussi parce que je n’ai plus 20 ans et ai connu beaucoup de choses en informatique, et beaucoup de bases. Et pour un informaticien un peu expérimenté, ayant commencé avec la micro-informatique (ZX Spectrum, Commodore 64) mais aussi avec Amiga et Unix, j’ai toujours été triste du succès de Windows, qui était à l’informatique ce que MacDo est à la gastronomie, et ce pendant très longtemps.


Il me semble que les participants de la fin de ce fil de discussion avaient tous 20 ans au siècle dernier …



Je considère respectueusement ton expérience “admin Unix”, et ne te répond humblement que par ce que j’ai vécu et dont je me souviens (conscient de ne pas être devenu admin système, ni dev de drivers … Ce que me semble d’ailleurs avoir été Brice : il codait déjà des drivers sous BeOS alors que je ne faisais que lire Dream et Pirate Mag entre 2 cours de Cobol et d’Ada95).
Nous avons la même passion mais pas les mêmes expériences : ce que nous avons vécu n’est pas une loi absolue que tous auraient dû vivre et ne tirons pas les mêmes conclusions sur un sujet donné … Même si à nous aussi, il nous est arrivé d’assister à des conférences de Di Cosmo et RMS (qui parlent un très bon français).
Par exemple, sur ce fil, il n’y a clairement pas de spécialiste “admin Windows”, tu n’en es pas un non plus (vu tes avis et expériences d’OS …) : du coup, un peu moins de condescendance serait aimable.


luxian

Il me semble que les participants de la fin de ce fil de discussion avaient tous 20 ans au siècle dernier …



Je considère respectueusement ton expérience “admin Unix”, et ne te répond humblement que par ce que j’ai vécu et dont je me souviens (conscient de ne pas être devenu admin système, ni dev de drivers … Ce que me semble d’ailleurs avoir été Brice : il codait déjà des drivers sous BeOS alors que je ne faisais que lire Dream et Pirate Mag entre 2 cours de Cobol et d’Ada95).
Nous avons la même passion mais pas les mêmes expériences : ce que nous avons vécu n’est pas une loi absolue que tous auraient dû vivre et ne tirons pas les mêmes conclusions sur un sujet donné … Même si à nous aussi, il nous est arrivé d’assister à des conférences de Di Cosmo et RMS (qui parlent un très bon français).
Par exemple, sur ce fil, il n’y a clairement pas de spécialiste “admin Windows”, tu n’en es pas un non plus (vu tes avis et expériences d’OS …) : du coup, un peu moins de condescendance serait aimable.


Mea culpa, bien volontiers je reconnais que par moments je n’ai pas été aimable, alors que Brice et toi êtes pour moi des interlocuteurs que je trouve souvent intéressants.



OlivierJ a dit:


J’ai utilisé VMS, pour info.




Mais tu n’as pas vécu/pas compris les problèmes de ODS-2 concernant les répertoires qui ne pouvaient être que d’un seul bloc contigu alloué au départ?



Ca illustre très bien la fragmentation, et pourquoi ext2 (qui marrie des idées de ODFS2 comme répartir les “allocations” sur le disque et FAT avec son côté “dynamique”, comme BSD-FFS)




Je demande toujours à voir (et vu ce qu’a dit Luxian, d’après un thésard pas franchement, ce qui ne m’étonne pas, ou alors cas pathologique).




Ca pathologique, ça marche. Ca marche aussi sur les fichiers de SQL Server, sur les fichiers de backup, les fichiers de outlook…




Tu rêves complètement. Je veux une source sérieuse pour cette affirmation. Windows 3.1 n’avait aucune protection mémoire, donc aucune mémoire virtuelle.




Le MMU et les mémoire virtuelle c’est différent. Comme la mémoire virtuelle et le SWAP.
Windows 3.1 avait un fichier de SWAP, et System.ini avait des paramètres (dont paging=on, paging=off)




Pour tes 2 phrases, non. Pour la 1ère, ça fragmente toujours un peu. Pour la 2e, il n’y a rien de tel que “chaque processus travaille dans son coin du disque”, même si c’était le cas ça ne changerait pas la possibilité de fragmentation ou pas.
Récrire dans la FAT, ça n’est pas ça qui cause de la fragmentation, pour le coup.




Pour le 1, bien sûr, pour le 2, et la FAT, c’était concernant la question de “ramer”. La tête en plus de la fragmentation faisait beaucoup de déplacements en FAT. C’est moins le cas en NTFS je crois.




OlivierJ a dit:


Je reste un peu scié par l’ignorance de beaucoup de gens dans l’informatique sur ce qui existe hors du monde Windows, sur des principes déjà anciens en informatique (comme la mémoire virtuelle et la protection mémoire, le chargement à la demande)






(quote:1892862:brice.wernet)
Mais tu n’as pas vécu/pas compris les problèmes de ODS-2 concernant les répertoires qui ne pouvaient être que d’un seul bloc contigu alloué au départ?



Ca illustre très bien la fragmentation




A vrai dire je ne vois pas en quoi ça illustre la fragmentation, cette histoire. Les données d’un répertoire n’étaient manifestement pas fragmentés sous OpenVMS, vu le mécanisme que tu décris.




Le MMU et les mémoire virtuelle c’est différent.




Faire de la mémoire virtuelle sans MMU, je suis curieux de savoir comment ça fonctionne. Il faut un mécanisme dans le CPU qui permet d’intercepter les appels à des emplacements mémoire qui ont été swappés sur disque. En l’occurrence, un Unix/Linux pouvait fonctionner sur un 80386 (qui avait intégré une MMU) mais pas sur les 80286.




Comme la mémoire virtuelle et le SWAP. Windows 3.1 avait un fichier de SWAP, et System.ini avait des paramètres (dont paging=on, paging=off)




On peut imaginer d’implémenter de la mémoire virtuelle sans swap (tant qu’on n’alloue pas plus que la RAM), mais ça n’a aucun intérêt pour le coup. L’idée et l’intérêt de la mémoire virtuelle c’est de pouvoir allouer plus que la RAM disponible, et mettant de côté sur disque les parties de la mémoire virtuelle qui n’ont pas été accédées depuis le plus longtemps.



Bon j’ai fait des recherches sur cette histoire de paging, j’ai trouvé ceci dans Wikipedia, ça concerne à partir du 286 qui dispose d’un début de mécanisme de mémoire virtuelle :



Ainsi chaque processus DOS lancé sur la machine s’exécute de manière autonome dans des machines virtuelles séparées sans connaître l’existence des autres applications lancées, alors que les applications Windows graphiques sont mélangées au sein d’un même fil d’exécution (thread) et partagent donc le même espace mémoire. Une application Windows peut donc mettre en danger une autre application Windows alors que les applications DOS sont (en théorie) isolées entre elles.



J’ignorais cette subtilité entre applications DOS et graphiques, en tous cas les applications graphiques n’utilisaient pas de protection mémoire, et je ne sais pas comment était géré ce swap. Windows 3.1 n’avait pas non plus de multitâche préemptif.




Pour le 1, bien sûr, pour le 2, et la FAT, c’était concernant la question de “ramer”. La tête en plus de la fragmentation faisait beaucoup de déplacements en FAT. C’est moins le cas en NTFS je crois.




Si l’OS (ou le mécanisme du FS) ne cachait pas un minimum la FAT, effectivement ça causait de nombreuses écritures dans cette zone et des mouvements de tête. Je pense que c’était cas vu que le FS était plutôt rudimentaire, l’OS aussi (fondation MS-DOS).



OlivierJ a dit:


Faire de la mémoire virtuelle sans MMU, je suis curieux de savoir comment ça fonctionne. Il faut un mécanisme dans le CPU qui permet d’intercepter les appels à des emplacements mémoire qui ont été swappés sur disque. En l’occurrence, un Unix/Linux pouvait fonctionner sur un 80386 (qui avait intégré une MMU) mais pas sur les 80286.




Effectivement, je me suis trompé de terme. La MMU est nécessaire puisqu’elle mappe la mémoire et déclenche les mécanisme qui préviennent de l’accès à une zone ou l’autre de l’espace mémoire. Mais rien ne force à gérer les accès entre plusieurs processus: ça c’est niveau de l’OS, rien dans le CPU ne gère les processus en tant que tels.



Je ne peux pas te montrer de capture ici pour Windows 3.1, mais https://networkencyclopedia.com/windows-3-1/
https://www.brainbell.com/tutors/A+/Hardware/Windows_NT.htm (plusieurs parties s’appliquent à 3.1)
http://conradshome.com/win31/83435-6.php



Windows 3 fonctionnait en mode “dégradé” sur 286. Le mode 386 “Enhanced” était nécessaire pour le swap.




J’ignorais cette subtilité entre applications DOS et graphiques, en tous cas les applications graphiques n’utilisaient pas de protection mémoire, et je ne sais pas comment était géré ce swap. Windows 3.1 n’avait pas non plus de multitâche préemptif.




En gros, tout Windows était une une seule appli, dans le même espace mémoire virtuel, mais rien n’empêchait une partie de swapper. Du moment que les accès mémoire se font par page, on peut l’implémenter.
Les VM DOS ne pouvaient pas swapper par contre et étaient limitées à 1Mo de RAM accessible.



De toutes façons, même sous DOS: EMS386 faisait basculer en mode 386 et utilisait le MMU pour simuler l’EMS et la mapper sur l’espace adressable du DOS. On est bien dans une application de mémoire virtuelle, quoique “sur la base du volontariat”. C’est pour cela j’imagine qu’on disait que ça “ralentissait” les ordis: à chaque changement de page de 4K, il fallait certainement repasser par le MMU, ce qui n’avait pas lieu en mode “réel”



luxian a dit:


Déjà, c’est beau à voir. Ensuite, tu ne défraguementais pas avec l’outil par défaut de Windows … qui était une mmm.




Celui de Windows 98 était pourri et lent, oui. Mais il suffisait de le remplacer par celui de Windows ME, qui était beaucoup plus rapide (j’avais pu tester sur un K6-2 400 MHz et c’était flagrant). Pour ceux qui n’avaient pas de Windows ME sous la main, il existait un « Service Pack » non officiel (Windows 98 Ultimate Pack) qui permettait de l’avoir (ça + le thème de couleurs et les icônes de Windows ME, entre autres).




OlivierJ a dit:


Tu rêves complètement. Je veux une source sérieuse pour cette affirmation. Windows 3.1 n’avait aucune protection mémoire, donc aucune mémoire virtuelle.




Ah, si, il avait de la mémoire virtuelle : il se lançait par défaut en mode protégé 386 étendu. Windows 3.1 n’était plus compatible avec le mode réel, il ne proposait que les modes protégés standard et 386 étendu, avec un module du panneau de configuration pour gérer la mémoire virtuelle, justement. Je l’ai assez utilisé (Windows 3.1) pour m’en rappeler. Après, comment elle fonctionnait exactement, ça, je ne saurai te dire.



OlivierJ a dit:


Mea culpa, bien volontiers je reconnais que par moments je n’ai pas été aimable




Après si je m’étais relu, forcément j’aurais corrigé l’histoire du MMU. Du coup ma réponde faisait un peu noob quand même.



Pour revenir sous Linux, les deux choses avec lesquelles j’ai encore un peu de mal, c’est les modules dans /boot (ce qui est toujours mieux que tout recompiler pour activer la carte son… - et ça ressemble à l’UEFI) et l’absence d’interface graphique en cas d’erreur ‘assez’ grave.
En effet, si lors d’une mise à jour (mettons de deb10 à deb 11) un système de fichier a été renommé (mettons exfat en fuse-exfat), et que ce type de FS et utilisé dans le fichier fstab (là c’est moi qui suit allé un peu vite),… Le prochain boot s’arrête bien tôt sur une ‘émergency mode’, en mode texte.
Si linux veut conquérir le desktop, il va lui falloir un peu de travail sur la récupération au boot.



Ce n’est pas encore fini…



(quote:1892969:brice.wernet)
Si lors d’une mise à jour (mettons de deb10 à deb 11) un système de fichier a été renommé (mettons exfat en fuse-exfat), et que ce type de FS et utilisé dans le fichier fstab (là c’est moi qui suit allé un peu vite),… Le prochain boot s’arrête bien tôt sur une ‘émergency mode’, en mode texte. Si linux veut conquérir le desktop, il va lui falloir un peu de travail sur la récupération au boot.




Ce sera pas la solution la plus conviviale (parce que pas dispo d’emblée sur la machine à remettre d’aplomb), mais tu peux démarrer sur un système live (pas besoin que ce soit la même distro, d’ailleurs) et réparer ton fstab depuis les outils graphiques de cette dernière. Évidemment, ça implique d’avoir une clef USB avec un live prêt à servir pour dépanner (mais bon, c’est comme IRL : il faut avoir une trousse à outils pour éventuellement resserrer un écrou dans la plomberie, ou un tournevis ; donc, il faut avoir de quoi dépanner un PC en rade, au moins pour des problèmes purement logiciels comme ici).



(quote:1893008:Trit’)
Ce sera pas la solution la plus conviviale (parce que pas dispo d’emblée sur la machine à remettre d’aplomb), mais tu peux démarrer sur un système live (pas besoin que ce soit la même distro, d’ailleurs) et réparer ton fstab depuis les outils graphiques de cette dernière.




Pour moi, vi suffisait :)
En “emergency mode”, Linux est démarré, à moitié (un runlevel en mono utilisateur j’imagine)
Après, je suis en debian, pas choix, mais je ne crois pas que les distro “userfriendly” soient meilleures.
Et le PC était sans écran branché (il est “suspendu” en hauteur) - je ne l’ai pas vu venir, mais ça m’a servi de leçon: tout FS qui n’est pas indispensable au boot doit être chargé via un service systemd