Connexion
Abonnez-vous

Microsoft fête les 20 ans du « Patch Tuesday »

Microsoft fête les 20 ans du « Patch Tuesday »

Le 10 novembre 2023 à 06h37

Il y a 20 ans, Windows XP régnait en maitre, avant d’être « remplacé » par Windows Vista puis Windows 7. On ne va pas vous refaire l’histoire de Windows… puisqu’on l’a déjà faite.

Pour en revenir au Patch Tuesday, Microsoft rappelle quatre « principes ». Prévisibilité, le second mardi de chaque mois, simplicité et agilité pour la mise en place des mises à jour et enfin transparence. 

Le père de Windows en profite pour revendiquer pas moins de « de 1,4 milliard d’appareils Windows actifs par mois ». 

Le 10 novembre 2023 à 06h37

Commentaires (73)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Faille 0-Day WebP du mois de septembre :




  • temps correction dans Linux : 1 jour

  • temps de correction chez Microsoft : 19 jours.



(Et 19 jours, c’est une fourchette basse pour Microsoft.)



Ah oui, on se rappellera aussi que, informé d’une faille de sécurité, Microsoft admet pouvoir attendre jusqu’a un mois avant de la corriger (mais dans le même temps il informe immédiatement le gouvernement américain de la faille).



Si quelqu’un vient vous dire “Mais Windows c’est plus professionnel”, vous pouvez lui rire au nez.

votre avatar

Heu faut arrêter de raconter n’importe quoi. MS a publié la maj à peu près en même temps que sur d’autres système. Il ne s’est pas passé 19 jours.



Pour infos, les maj de sécu n’attendent pas le patch Tuesday pour être déployé. Ce sont des maj hors cycle.




Si quelqu’un vient vous dire “Mais Windows c’est plus professionnel”, vous pouvez lui rire au nez.


Déso mais non. Windows est très stable, fonctionne sans problème, facilement gérable via l’AD. Dans la collectivité territoriale où je bosse, il y a un peu plus 3000 PC Windows 10 et jamais eu de problèmes.



Faut arrêter un peu le Windows bashing.

votre avatar

Windows XP allait être remplacé par Windows XP ?

votre avatar

Alphonse_2 a dit:


Windows XP allait être remplacé par Windows XP ?


Attendons mardi que la News soit patchée

votre avatar

Plus rapide que Microsoft et Linux, patch déjà appliqué ! (merci :smack:)

votre avatar

Dino_fly a dit:


Attendons mardi que la News soit patchée


:mdr:

votre avatar

Cette “prévisibilité” que Microsoft présente comme un atout, avait rappelons le fait qualifier le mercredi qui suivait en “Exploit Wednesday”.
:D



En effet, les hacker n’étaient pas pris au dépourvu et pouvaient faire les diff binaires pour voir le zéro-day patché et exploiter cela rapidement sur les machines pas encore patchées (pas allumées la veille, en entreprise avec des patchs souvent appliqués en retard/après test).



A l’usage, eux trouvaient cette “prévisibilité” très pratique en effet!

votre avatar

yl a dit:


A l’usage, eux trouvaient cette “prévisibilité” très pratique en effet!


En tant que linuxien, ça me fait aussi marrer tous mes collègues ayant des comportements bizarres le mercredi, car leur ordinateur avait appliqué les patchs mais n’avait pas redemarré, ce qui provoque pas mal de soucis (pile réseau par ex).



Je leur disais : on est le 2e (ou 3e) mercredi du mois, redémarre et ça ira mieux (normalement 😅)

votre avatar

sebsauvage a dit:


Si quelqu’un vient vous dire “Mais Windows c’est plus professionnel”, vous pouvez lui rire au nez.


Vive trolldi.



Tu parles d’une faille desktop. Quand Linux aura à se soucier de faire autant de tests sur desktop que Ms, avec autant de retombée en cas de patch qui pose problème, on verra.



J’utilise Linux quotidiennement - debian stable, kde de base, ordi sans fioriture. Impossible de ne pas éteindre régulièrement l’ordi. Impossible de conseiller cela en déploiement au boulot, à part à multiplier par 3-4 le nombre de hotliners.



Windows est stable (dans son comportement). Il fait dinosaure, mais c’est ce que mes utilisateurs attendent: pas de changement, car on s’en fout des changement en entreprise, des fonds transparents et que le rendu soit optimisé par GPU.



Maintenant, Linux a mis quoi: 7 ans sur un programme opensource comme sudo pour trouver la “faille” qui ressemblait à un backdoor? BSD, c’était du même acabi pour l’exécution à distance simplement par envoi d’un email…
L’opensource ne protège pas du tout de mauvaises intentions. Et à la vitesse où les liens se sont multiplés entre les softs, bien malin est celui qui se portera garant de tout ce m..dier.



Parles-en avec la cellule de la gendarmerie qui prévoit les déploiements: il faut un paquet de monde et ça prend un temps fou pour déployer sur des postes opensource.

votre avatar

Je pense que ton soucis vient de matériel qui est conçu avec les pieds.
Le fils d’un collègue (étudiant) s’est racheté un Lenovo suite à une noyade de son précédent PC dans de la vodka à l’orange.



Et après avoir installé une distro dessus, ce fut la merde. L’analyse des logs du kernel a mis en évidence un problème dans l’ACPI. Une petite recherche sur Internet sur le git du kernel a permis d’apprendre que Lenovo a fait de la merde sur un certains nombres de modèles en mélangeant du legacy ACPI avec des trucs plus modernes.



Le rapport ? Comme Lenovo vend du Windows, ils ont bien évident testé avec Windows et fait toute les modifs nécessaires (de façon certainement crade) pour que Windows fonctionne. En revanche, Linux n’ayant pas eu la chance de connaître ce traitement, c’est plus olé-olé. Et c’est récemment une mise à jour du kernel qui lui a permis d’avoir un PC qui fonctionne car les petits gars du kernel ont fixé cette merde de conception de Lenovo. Et pour info, tu retrouves la même chose chez Dell ou HP en fonction de la gamme de leur produit.



Donc, je t’invite à jeter un oeil tes kernel logs pour voir le soucis.



PS : Utilisatrice pro d’une Arch avec 3 GPUs (2 Nvidia & 1 AMD) sur la même machine avec un kernel custom. Impatiente de voir Windows faire ça :D




sebsauvage a dit:


Si quelqu’un vient vous dire “Mais Windows c’est plus professionnel”, vous pouvez lui rire au nez.


Tant que Windows sera incapable de tourner aussi efficace qu’une distro Linux sous Desktop et pire, de faire tourner correctement un super-calculateur du Top500, Windows ne restera qu’un cancer adulé par les sous-développés de grandes écoles de commerces à la noix. Mais comme dit le dicton : “Les geeks prendront un jour le pouvoir, mais d’abord j’ai un raid sous WoW à finir “:mdr:

votre avatar

ça se faite une défaite?
genre: ouais on a plein de bugs et de failles, mais on va les corriger, un jour…



vu le nombre de bugs et de failles patchés, ils ne peuvent pas être tous différents, non? tous ces milliers…
Alors si yen a qui se répètent, que doit on en penser??
(:roll: désabusé)

votre avatar

Étonné qu’il y ait encore des gens pour croire que du soft sans vulnérabilités, ça existe…



Windows est le seul OS où il y a des patches ? Non mais franchement.

votre avatar

de là à le fêter…

votre avatar

sebsauvage a dit:


Faille 0-Day WebP du mois de septembre :




  • temps correction dans Linux : 1 jour


C’est quoi linux ?
Je ne savais pas qu’il y avait un unique OS qui s’appelait linux



j’ai souvenir d’une faille 0D grave liée à ksmb directement dans le noyau juste avant noêl l’année dernière et qui n’avait pu être corrigé immédiatement pour toutes les distributions linux.





  • temps de correction chez Microsoft : 19 jours.



(Et 19 jours, c’est une fourchette basse pour Microsoft.)



Ah oui, on se rappellera aussi que, informé d’une faille de sécurité, Microsoft admet pouvoir attendre jusqu’a un mois avant de la corriger (mais dans le même temps il informe immédiatement le gouvernement américain de la faille).



Si quelqu’un vient vous dire “Mais Windows c’est plus professionnel”, vous pouvez lui rire au nez.


votre avatar

Wosgien a dit:


Vive trolldi.


Il y a plusieurs jours qualifiables ainsi, va falloir trouver 6 autres noms :)




J’utilise Linux quotidiennement - debian stable, kde de base, ordi sans fioriture. Impossible de ne pas éteindre régulièrement l’ordi. Impossible de conseiller cela en déploiement au boulot, à part à multiplier par 3-4 le nombre de hotliners.


Il est vain de comparer les deux. Cela dépend tellement du contexte et, surtout, du savoir-faire de l’utilisateur: un utilisateur qui fait tout et n’importe quoi sous linux avec sudo finira pareil sous windows avec l’UAC.



Je ne sais pas comment tu fais pour être obligé de rebooter tous les jours ton desktop linux (debian en plus). Tu dois sûrement t’en servir n’importe comment de manière non-conventionnelle :) : sudo à donf ? install de PPA inconnus dans tous les sens ? personnalisation à outrance ?



Dans l’ensemble, une distrib desktop grand public est super stable de base de nos jours (l’important ici, c’est le “de base”). Une fois bricolée dans tous les sens, cela peut être moins le cas.




Bon, Windows, de toute façon, il passe son temps à rebooter pour ses mises-à-jour, alors il est toujours “frais” d’une certaine façon :)

votre avatar

Ouais, c’est à peu près ça : mon Windows reboot pour les majs, soit une fois par mois :fumer:

votre avatar

Utilisateur de Linux Mint Una avec XFCE, je confirme. Certes ma config est assez minimale, un vieux core i5 et 4Go de RAM, mais par moment, je me retrouve avec un ordi qui rame sur tout alors que le CPU tourne à 20%. Même l’explorateur se met à ramer, seul le reboot me permet de résoudre ça.

votre avatar

ça ressemble à un manque de RAM, du coup -> Swap (ralentissement) -> kernel panic -> crash



Que je vois ce que certains sites bouffent comme RAM (dernièrement un onglet Firefox sur “Adobe XD” me bouffait 24Go de RAM….. 24Go !)

votre avatar

Pourtant ma conso de RAM dépassait pas les 60% à ce moment. Enfin, j’ai conscience que cette bécane est vieille, il y a peut-être des incompatibilités matérielles avec l’OS.

votre avatar

Perso, l’explorateur qui rame ça m’arrive aussi (j’utilise caja sur ubuntu)… en fait il lag plus qu’il ne rame… je double clic sur un truc et y’a un délai d’une demi seconde pour que l’action soit prise en compte.



Ça n’arrive pas tout le temps, mais quand ça lui pique, c’est bien chiant. Me demande si ça ne serait pas lié aux partages NFS.

votre avatar

J’ai aussi un i5, 6Go de RAM, sous LinuxMint MATE, aucun problème.
Actuellement, avec FF (3 onglets) et TB ouverts : 2,9 Go utilisés, 0 swap.
Les 4 cœurs largement au-dessous de 10%, plutôt 5%.
Il y a peut-être autre chose à voir ?

votre avatar

C’est une vieille bécane mais, elle a été reformatée pour y mettre Mint 20.3 dessus. Donc hormis quelques jeux Steam, et Firefox, il n’y a pas grand chose dessus. Maintenant, on parle d’un core i5 de 2009.

votre avatar

Ne pas oubliez que sur les cpus anciens, il a le cumul de tous les patchs comme spectre qui font ralentir le système.
Peut-être commencer par essayer de ne pas appliquer ces patchs en mettant GRUB_CMDLINE_LINUX=“mitigations=off” dans /etc/default/grub.
Les lags peuvent aussi venir de “l’ordonnanceur” du kernel. Il sera changer avec le noyau 6.6 par un plus performant. Pour le changer dès maintenant, tu peux changer de noyau en mettant le Liquorix.

votre avatar

La guerre des OS transparait dans les commentaires.



Factuellement quand on fait un historique depuis 20 ans, Microsoft était largement en avance sur la proposition de valeur concernant le patch management de parc massif (>20 000 PC/serveur).
Je me rappel d’un temps pas si lointain ou sous AS400 ou Oracle les patchs validés par l’éditeur avec un support étaient envoyés 3à4x /an par CD. Et le manque d’habitude des infogérants et DSI hors Windows faisait que l’on avait qu’un train de patch par an.



En 2023 ça parait fou mais je penses que Microsoft peut s’enorgueillir d’avoir élaboré le Patch Tuesday clair et lisible il y a 20 ans. Après la menace et les standards ont changés, ce qui était bien il y a 20 ans n’est plus suffisant aujourd’hui et il ne faut pas s’endormir sur ses lauriers.



Pour finir en 2023 la proposition de patch coté Apple n’est pas au niveau de ce que proposait Microsoft il y a 20 ans. Pour une gestion de parc massif impossible d’orchestrer les màj et au vu des exploits sur tout les équipements ça me parait grave.

votre avatar

Wosgien a dit:


Tu parles d’une faille desktop. Quand Linux aura à se soucier de faire autant de tests sur desktop que Ms, avec autant de retombée en cas de patch qui pose problème, on verra.


Sur une installation standard, Debian (je parle de ce que je connais) fourni un bureau Gnome avec toutes ses applis (un navigateur, un client mail, une visionneuse de photos, de documents…)
Tu peux rajouter à ça LibreOffice, Firefox et probablement quelques autres logiciels assez connus (j’ai pas tout en tête).
Les mainteneurs Debian patchent régulièrement l’ensemble de ces paquets quand il y a des failles de sécurité découvertes et vérifient que ça ne casse rien d’autre dans la distribution.



Il me semble que même dans ses versions récentes, Windows ne fourni pas autant de logiciels sur une installation standard.



Du coup, quand Microsoft aura autant de logiciels à traiter sur desktop, on verra oui.




J’utilise Linux quotidiennement - debian stable, kde de base, ordi sans fioriture. Impossible de ne pas éteindre régulièrement l’ordi.


Sur une Debian stable ? Je me demande bien ce que tu peux faire avec pour avoir besoin d’éteindre régulièrement ? À part pour charger une nouvelle version du noyau ou de la libc par exemple, il n’est pas besoin de redémarrer pour appliquer les mises à jour de paquets.




Maintenant, Linux a mis quoi: 7 ans sur un programme opensource comme sudo pour trouver la “faille” qui ressemblait à un backdoor? BSD, c’était du même acabi pour l’exécution à distance simplement par envoi d’un email…


On parle du temps pour déployer un correctif de sécurité et tu réponds en parlant du temps avant la découverte d’une faille. Ça n’a rien à voir.

votre avatar

Il me semble que même dans ses versions récentes, Windows ne fourni pas autant de logiciels sur une installation standard.



Détrompes-toi ! On a OneDrive, Ms365, Facebook, Instagram, Netflix, Disney+, Prime Video, TikTok, Xbox, Spotify, plein de jeux et d’autres joyeusetés.
C’est fou tout le temps économisé à installer tout ça lors de l’achat d’un nouveau Windows. Sans compter que, contrairement à des distros Linux, « mes documents » est par défaut dans le cloud ! Merci Microsoft.



/s

votre avatar

N’importe quoi… Je vais me répéter sur chaque news Microsoft mais déjà en entreprise on install une entreprise édition et sur cette version on peut enlever 95% des softs. Sur une pro on peut maintenant desinstaller quazi 80-85% des sites de softs

votre avatar

Ms365 n’est pas fourni gratuitement avec Windows.
Une version simplifiée de Ms365 est fournie avec une adresse mail Microsoft (Hotmail, Live, Outlook, …)

votre avatar

“et enfin transparence”
Heureusement que vous avez précisé que c’est Microsoft qui le dit.



“You shouldn’t need to stop what you’re doing to rigorously test an update before deploying it.”
On est bien d’accord que c’est un principe et pas forcément la réalité ?



“Transparency: To simplify the update process for individuals and for businesses large and small, everyone should have access to as much information as they need. You should be able to understand updates in advance. This includes comprehensive yet clear release notes, guides for common servicing tools, access to assistance and a feedback system.”
C’est quand même une défintion de transparence particulière.

votre avatar

Wosgien a dit:


J’utilise Linux quotidiennement - debian stable, kde de base, ordi sans fioriture. Impossible de ne pas éteindre régulièrement l’ordi.


Sauf MAJ noyau (hors modules), il n’y a pas de besoin d’extinction. Et comme c’est pas si fréquent, on peut avoir des mois d’uptime. Tout particulièrement sur des distro stables comme un roc comme Debian, sauf à être sur Sid mais là, “c’est le jeu ma pauvre Lucette”.
youtube.com YouTube



Tiens, même le pauvre Raspberry qui gère la baraque est actuellement à pile 60j d’uptime. Le clicodrome de Redmond, toujours peu modulaire, il aurait déjà dû redémarrer au moins 2 mardis.

votre avatar

Sauf MAJ noyau (hors modules), il n’y a pas de besoin d’extinction. Et comme c’est pas si fréquent, on peut avoir des mois d’uptime.


Oui c’est vrai mais attention au services qui ne sont pas restart lors des MAJ. Du coup tu te retrouves avec des process qui tournent avec de vielles lib.
Le paquet “needrestart” est très utile pour éviter ça. Une fois installé il se lance après chaque upgrade.

votre avatar

Wosgien a dit:


J’utilise Linux quotidiennement - debian stable, kde de base, ordi sans fioriture. Impossible de ne pas éteindre régulièrement l’ordi.


Passe sur Debian unstable, ça ira mieux.
Debian unstable ici :
% uptime
10:51:09 up 38 days, 12:00, 60 users, load average: 0,79, 0,66, 0,90

votre avatar

BlackLightning a dit:


Lenovo a fait de la merde sur un certains nombres de modèles en mélangeant du legacy ACPI avec des trucs plus modernes.



Le rapport ? Comme Lenovo vend du Windows, ils ont bien évident testé avec Windows et fait toute les modifs nécessaires (de façon certainement crade) pour que Windows fonctionne…


Le pb n’est pas nouveau, je l’avais déjà eu avec un Transportable Toshiba 17” avec une vidéo Nvidia. En résumé, Toshiba avait fait le minimum côté ACPI (les tables ACPI contiennent aussi du code de routines permettant d’implémenter les particularismes OEM, cf compilateur/décompilateur iasl d’Intel) pour implémenter les routines de régulation de température GPU: Juste les primitives contrôle de vitesse ventilo et de mesure de T côté ACPI… et régulation utilisant ces primitives dans leur driver OEM dérivé du nvidia!



Bref, sous Linux avec le driver Nvidia standard tu n’avais pas de ventilation et un GPU qui surchauffait. Eventuellement jusqu’à une fin anticipée pour ceux qui ne se demandaient pas pourquoi leur clavie était bien plus chaud en bootant leur partition Linux vs la Windows.



Note que le même pb se serait posé en allant chercher ce driver GPU chez Nvidia plutôt que chez Toshiba.



Voilà le type de conneries auxquelles on assiste. Note aussi que Windows n’offre absolument pas la souplesse de Linux en pareil cas: Linux permet en effet de récupérer les tables ACPI (DSDT dans mon exemple), les décompiler/modifier… mais surtout de charger au démarrage une table modifiée plutôt que celle passée par le BIOS/ACPI.



Il fut ainsi possible de modifier assez simplement pour moi la primitive de contrôle ventilo pour lui coller une valeur de vitesse de rotation initiale médiane au lieu de nulle.



J’aurais sans doute pu implémenter une régulation complète, mais dû en apprendre bcp plus sur l’ACPI et la façon dont tout ceci fonctionnait sans avoir de documentation du matériel. Ca suffisait dans mon cas à maintenir une température raisonnable, y compris en jeu.



Ceci étant impossible côté windows, en l’absence de suivi du fabricant niveau drivers OEM ce PC n’avait pu passer de XP à Seven…

votre avatar

Les distros Linux - et recemment Microsoft - ont décidé de sacrifier la stabilité au profit de la réactivité.



C’est dingue le nombre de gens qui installent joyeusement une version qui se qualifie elle-même comme étant “instable”.



La réponse à “elle sortira quand la version finale de ?”, c’est bien évidemment “jamais”.
Et tout le monde trouve cela normal.



¯\(ツ)

votre avatar

“Il y a 20 ans, Windows XP régnait en maitre”
Euh j’ai du mal à trouver les chiffres de l’époque, mais ne suis pas convaincu que XP se soit imposé aussi rapidement après sa sortie… il devait rester encore pas mal de PC sous 9x/Me/NT4/2000.

votre avatar

Constance a dit:


“Il y a 20 ans, Windows XP régnait en maitre” Euh j’ai du mal à trouver les chiffres de l’époque, mais ne suis pas convaincu que XP se soit imposé aussi rapidement après sa sortie… il devait rester encore pas mal de PC sous 9x/Me/NT4/2000.


Effectivement, XP a régné en maitre à partir de fin 2004.
En 2003 il était au coude à coude avec win2000



youtube.com YouTube

votre avatar

madhatter a dit:


Il me semble que même dans ses versions récentes, Windows ne fourni pas autant de logiciels sur une installation standard.


Microsoft a tout viré suite aux plaintes et risques liés à l’abus de monopole.
Résultat: quand on installe un Windows, c’est quasi nu, à part des applis tierces qui font caution.




madhatter a dit:


On parle du temps pour déployer un correctif de sécurité et tu réponds en parlant du temps avant la découverte d’une faille. Ça n’a rien à voir.


Oui, tout à fait d’accord, mais comme Microsoft a AUSSI traité la faille dans la journée (correctifs déployés le 1209 pour Edge, Skype, Teams et consorts dans le store), j’ai répondu à un affreux troll qui balance du fake pour le bon gros troll anti open source (je ne suis pas du tout anti-open source - juste modéré car je ne trouve pas que Windows soit un mauvais produit et que Linux soit merveilleux)




Sur une Debian stable ? Je me demande bien ce que tu peux faire avec pour avoir besoin d’éteindre régulièrement ?


Juste du dev de base, de l’internet et de la bureautique mais le DE pète un câble. J’ai essayé en X11 et l’autre mode, c’est pareil.
Après, je suis sur une deb upgradé 3 fois - mais mon Windows est un 7 upgradé 8, 10, 11 et ne pose pas de problème.
C’est pas vraiment Linux le problème: c’est l’utilisation en bureau. C’est les distro, les DE, les différents environnements, l’empilement improbable de couches…




(quote:2164331:alex.d.)
Passe sur Debian unstable, ça ira mieux. Debian unstable ici : % uptime 10:51:09 up 38 days, 12:00, 60 users, load average: 0,79, 0,66, 0,90


En serveur je n’ai rien à dire, le proxmox redémarre rarement hors coupure de courant - c’est en desktop que c’est très aléatoire, c’est le DE qui plante.




yl a dit:


Tiens, même le pauvre Raspberry qui gère la baraque est actuellement à pile 60j d’uptime. Le clicodrome de Redmond, toujours peu modulaire, il aurait déjà dû redémarrer au moins 2 mardis.


Windows serveur core limite bien le nombre de démarrage. Et pas de GUI, donc pour le clickodrome…
Et 60j, même sans redémarrer, tu as tout ton linux à mettre à jour suite à la faille libc (qui est exploitée via des extensions PHPUnit dernièrement, donc ne pas la sous-estimer)



De mon point de vue, Windows et Linux se valent pas mal. Chacun ses défauts. Windows n’est pas le plus performants, le plus stable, mais il est pas mal cohérent. Il peut être lourd. Mais j’ai le choix dans les sources d’applis.



Linux est stable au niveau noyau, mais les envs des applis sont parfois un peu épileptiques (kbus - grr…) et c’est un bazar sans nom dont la doc est totalement éparpillée. Les applis sont celles du gestionnaire de paquets, si j’en sors je suis assez seul au monde (bon, il y a les nouveaux packaging qui changent pas mal la donne).



Le patch tuesday, en entreprise, c’est génial. Implicitement, avec des postes et serveurs en Linux, des PHP et des Wordpress on fait la même chose: revue des mises à jour et passage selon un calendrier.
Un fois par semaine, c’est déjà pas mal, ça met un délai humainement suivable.

votre avatar

Wosgien a dit:


En serveur je n’ai rien à dire, le proxmox redémarre rarement hors coupure de courant - c’est en desktop que c’est très aléatoire, c’est le DE qui plante.


Ce que je t’ai montré, c’est une machine desktop (sur laquelle j’écris ce message).

votre avatar

Wosgien a dit:


Microsoft a tout viré suite aux plaintes et risques liés à l’abus de monopole. Résultat: quand on installe un Windows, c’est quasi nu, à part des applis tierces qui font caution.


« tout » c’est - de mémoire - le navigateur et media player. Il me semble pas qu’il y ait autre chose. Ça fait pas la balle par rapport à une distribution Linux.



Quant à tes problèmes avec ta Debian stable, visiblement c’est plutôt KDE qui est à blâmer. Peut-être devrais-tu envisager de changer de DE, ou de distribution pour une qui intègre mieux KDE que Debian ?

votre avatar

sur une Debian 11 :




adminn@ps3:~$ uptime
14:45:54 up 1049 days, 6:35, 1 user, load average: 0.43, 0.25, 0.17


Oui je sais, ce n’est pas bien.

votre avatar

C’est pas bien, mais c’est beau ! :incline:

votre avatar

« tout à fait d’accord, mais comme Microsoft a AUSSI traité la faille dans la journée »



mmmm… non.



CVE publiée le 12 septembre 2023 : https://nvd.nist.gov/vuln/detail/CVE-2023-4863



Patch Microsoft : 2 octobre 2023 : https://msrc.microsoft.com/blog/2023/10/microsofts-response-to-open-source-vulnerabilities-cve-2023-4863-and-cve-2023-5217/



Après tu peux toujours m’accuser de balancer du fake, mais là ce sont les liens officiels 1) de la faille. 2) de la publication chez Microsoft.

votre avatar

Wosgien a dit:


60j, même sans redémarrer, tu as tout ton linux à mettre à jour suite à la faille libc (qui est exploitée via des extensions PHPUnit dernièrement, donc ne pas la sous-estimer)


La libc ne concerne que tout ce qui est applicatif excluant donc le kernel (et kernel-modules, même si pour ces derniers un redémarrage peut généralement s’éviter).



Donc pas de redémarrage nécessaire, mais l’applicatif qui l’utilise (cad tout, plus ou moins directement) oui et ici à minima ce qui est en frontal réseau.

votre avatar

gg40 a dit:


Oui c’est vrai mais attention au services qui ne sont pas restart lors des MAJ. Du coup tu te retrouves avec des process qui tournent avec de vielles lib. Le paquet “needrestart” est très utile pour éviter ça. Une fois installé il se lance après chaque upgrade.


Excellente remarque !
Et on y pense pas forcément.

votre avatar

shadowfox a dit:


Maintenant, on parle d’un core i5 de 2009.


Ah oui, le mien est un i5-3317U, commercialisé de 2012 à 2019.

votre avatar

gg40 a dit:


ça ressemble à un manque de RAM, du coup -> Swap (ralentissement) -> kernel panic -> crash


En général, quand on a ce type de pb, c’est l’OOM killer qui flingue à tout va (et se gourre parfois de cible, faut bien le dire) pour éviter d’en arriver à la fin que tu décris!



Mais bon Linux a aussi tendance à utiliser la RAM dispo en caches divers et variés. Il y a des réglages côté mémoire virtuelle (testables en live par des écritures sysfs /proc/sys/vm/XXX avant de rendre cela persistant en les ajoutant au /etc/sysctl.conf) dont les valeurs par défaut peuvent parfois être changées selon les usages.



Niveau OOM killer, je trouve personnellement que le système qui détermine quelle tâche tuer fonctionne souvent d’une manière qui va te bloquer un long moment (parfois plusieurs minutes) et je suis simplifie la tâche en le configurant afin qu’il flingue celle qui a fait déborder.



Sur un système sans swap, avoir de l’overcommit peut aussi donner des situations tordues.



L’impact va même au delà de la RAM pour certains paramètres liés au caching qui retombent sur les file-system: On peut favoriser beaucoup plus de merge d’écriture (et économiser les SSD/s’éviter des log2ram plus complexes à mettre en place qu’un réglage existant) en modifiant les dirty_ratio/dirty_expire_centisec par exemple.



L’avantage d’un système “boite-blanche” comparé à une “boite-noire” je dirais.



https://docs.kernel.org/admin-guide/sysctl/vm.html

votre avatar

RedShader a dit:


Heu faut arrêter de raconter n’importe quoi. MS a publié la maj à peu près en même temps que sur d’autres système. Il ne s’est pas passé 19 jours.


Moi je veux bien, mais : Source ?
Un lien sur le site de Microsoft autre que celui que j’ai donné ?

votre avatar

Bah les release notes des maj de Edge.



learn.microsoft.com Microsoft

votre avatar

P’tain on l’a entendu pendant 3 semaines sur ce problème de patch delay sur mastodon et son shaarli, jusqu’ici encore dans les commentaires 1 mois plus tard et puis là hop, plus rien, nada, évaporé.

votre avatar

RedShader a dit:


Déso mais non. Windows est très stable, fonctionne sans problème, facilement gérable via l’AD.


Cela s’est certes amélioré, mais globalement quand j’ai un problème avec un windows je n’arrive pas à m’en sortir: Les logs en premier lieu sont un foutoir sans nom, difficile de trouver ce qui va pas et de le résoudre. Rien qu’une interface graphique plantée et tout devient potentiellement très difficile. Bref, un windows ne se dépanne pas, il se réinstalle. Et même le services IT en entreprise ne tentent jamais bien longtemps la première option: Je ne connais vraiment qu’un secteur ou les utilisateurs acceptent cela et la perte de temps (et productivité au travail) associée comme un passage obligé, avant d’essayer d’autres OS.



Quand a gérer des machines en réseau, leurs utilisateurs/comptes/droits, je dirais que les unices y étaient déjà sous leur forme historique 10 ans avant que Microsoft n’existe!

votre avatar

Il y a rarement des problèmes sur les Windows récent. La principale source de problème c’est soit des driver soit la faute des utilisateurs qui font n’importe quoi.



L’observateur d’évènement permet de trouver l’origine des plantages.




Quand a gérer des machines en réseau, leurs utilisateurs/comptes/droits, je dirais que les unices y étaient déjà sous leur forme historique 10 ans avant que Microsoft n’existe!


Je ne pense pas qu’on pouvait gérer un parc de PC comme avec AD dans les années 80…

votre avatar
votre avatar

1993 - NetWare 4.0 : services d’annuaire Novell Directory Service (NDS)


Donc ce n’est pas les années 80.

votre avatar

Parce qu’il y avait des parcs de PC dans les années 80 ? :transpi:
Sachant de Windows 3 et 3.1 datent de 90 et 92 (le 1.0 et le 2.0 comptent pas vraiment vu la niche que c’était), je ne suis pas sûr qu’on puisse parler de parcs de PC dans les années 80…

votre avatar

Avant Windows, il y avait DOS, mais les PC n’étaient pas forcément en réseau. On ne parlait pas de parc effectivement. Premier IBM PC : 1981

votre avatar

Oh je sais bien, j’ai grandi à cette époque. :transpi:
Mon 1er contact avec tout ce bordel a été avec le BASIC sur un 286.
Quoique non, j’avais touché à du Logo (et du BASIC aussi d’ailleurs, il me semble) sur un TO7 avant ça.



Ça nous rajeunit pas… :eeek2:

votre avatar

(quote:2164371:127.0.0.1)
Effectivement, XP a régné en maitre à partir de fin 2004. En 2003 il était au coude à coude avec win2000



https://www.youtube.com/watch?v=KuCejJniPfQ


Merci :)

votre avatar

RedShader a dit:


Donc ce n’est pas les années 80.


Dans les années 80 on était au DOS!

votre avatar

RedShader a dit:


Déso mais non. Windows est très stable, fonctionne sans problème, facilement gérable via l’AD. Dans la collectivité territoriale où je bosse, il y a un peu plus 3000 PC Windows 10 et jamais eu de problèmes.



Faut arrêter un peu le Windows bashing.


Merci. J’avais commencé une réponse mais j’avais abandonné.
Un peu marre de voir windows bashé alors que des énormesparcs sont gérés avec, le comparer à linux qui est rarement déployé en desktop.



Les Deux os sont bons. Et ce qu’on aime dans windows c’est sa stabilité.
Mettre à jour des serveurs open source en prod, c’est souvent un projet en soi dès qu’ on une infra un peu développée - parce que les pilotes et le support disparaissent, parce que la compil flanche car la source n’est plus compatible avec le compilo, parce que le format du fichier de config a changé, ou un paramètre par défaut, ou l’emplacement, ou parce qu’une nouvelle fonctionnlité a disparu…
Pour info, c’est du vécu.



Alors oui, windows j’ai aussi eu des soucis, mais si on met en proportion du nom re de serveurs, moins. Et la Doc était meilleure sous windows avec le msdn (maintenant c’est moins top)



En pro, on ne cherche pas la dernière nouveauté ou changer tous les deux jours, on cherche la stabilité (la pérennité) - et autant des serveurs de plus de 10 voire 15 ans sous windows j’en ai eu et j’ai pu mettre les pilotes à jour, autant sous linux j’ai souvent eu des ordis qui ont cessé de fonctionner en mettant le noyau à jour.



Et non, je ne suis pas anti linux, mais il n’est pas vraiment prêt pour le desktop, il manque de cohérence . Linux sera orêt pour ça quand windows sera un produit mort sur le desk.



Quand à comparer windows et linux sur serveur… Combien ont réellement essayé windows serveur core pour se débarrasser de la charge gui sur serveur? C’est un très bon produit. Et avec juste ce qui est inclus de base dans un windows, administrer un ou 10 serveurs, êtee solo ou en cluster c’est juste simple.

votre avatar

Je bosse dans une entreprise ou les employés peuvent choisir leur système d’exploitation. On a majoritairement du windows (90%) et pour linux du debian, du ubuntu et une arch linux. Les pc qui reviennent à mon bureau à cause de bug : à minima un poste linux/mois (souvent lié au pilote graphique mais pas que) les postes windows in poste/2 mois environs. Et résoudre le problème est souvent plus rapide sous windows que sous linux. J’adore linux en serveur ou en desktop à la maison. Mais en entreprise le des top c’est pas encore ça…

votre avatar

jlaurencin a dit:


Je bosse dans une entreprise ou les employés peuvent choisir leur système d’exploitation.


En général, dans ce type d’entreprise, les profils qui vont choisir Windows ou Linux ne sont pas vraiment les mêmes non plus.



En résumé, windows est pour la secrétaire, les chef de projets et chefs à plumes et ceux qui font le matériel (outils CAD et chaînes de génération de FPGA restent windows…) avec des droits limités. Tous ceux qui font du logiciel, surtout si le produit tourne sous Linux, sont sous Linux et le plus souvent avec des droits étendus pour installer leurs outils.



Ce qui biaise totalement la comparaison. A mon sens, ils auraient les droits root complets tu le les verrais jamais d’ailleurs, sachant sans doute parfaitement résoudre les pb eux mêmes.



A l’inverse, on a des machines labo Linux utilisée par des dizaines de personnes chez nous qui ont fait toutes les versions de Debian en simple upgrade, certaines Z620 depuis la 6 ou 7… Aucun exemple de machines windows qui ait duré si longtemps, elles sautent parfois une version si très récentes mais jamais deux. De toutes manières elles deviennent des poumons en quelques mois d’usage 247.



Qu’est-ce qu’il ne faut pas lire comme conneries.

votre avatar

Wosgien a dit:



Tu parles d’une faille desktop. Quand Linux aura à se soucier de faire autant de tests sur desktop que Ms, avec autant de retombée en cas de patch qui pose problème, on verra.


C’est tout vu.




J’utilise Linux quotidiennement - debian stable, kde de base, ordi sans fioriture. Impossible de ne pas éteindre régulièrement l’ordi. Impossible de conseiller cela en déploiement au boulot, à part à multiplier par 3-4 le nombre de hotliners.



Windows est stable (dans son comportement). Il fait dinosaure, mais c’est ce que mes utilisateurs attendent


Quelle vaste blague.
J’utilise Linux quotidiennement depuis les années 2000, Windows aussi malheureusement, c’est l’inverse de ce que tu racontes.
Même Windows 10 ça fait pitié de voir comment il faut le redémarrer régulièrement, rien que parce que le ventilateur de mon PC portable pro finit par fonctionner en permanence (on voit des processus qui prennent du CPU et on ne sait pas ce qu’ils font, le nom n’est pas parlant). Ou parfois certains trucs buguent (Edge, Teams ou Excel) et il faut redémarrer.
Quant à mes Linux, je les redémarre rarement.




L’opensource ne protège pas du tout de mauvaises intentions. Et à la vitesse où les liens se sont multiplés entre les softs, bien malin est celui qui se portera garant de tout ce m..dier.


Et toi qui parlais de trolldi, c’est gonflé.




Parles-en avec la cellule de la gendarmerie qui prévoit les déploiements: il faut un paquet de monde et ça prend un temps fou pour déployer sur des postes opensource.


J’aimerais bien voir ça.

votre avatar

oliv5 a dit:


Je ne sais pas comment tu fais pour être obligé de rebooter tous les jours ton desktop linux (debian en plus). [..]
Dans l’ensemble, une distrib desktop grand public est super stable de base de nos jours (l’important ici, c’est le “de base”). Une fois bricolée dans tous les sens, cela peut être moins le cas.



madhatter a dit:


Sur une Debian stable ? Je me demande bien ce que tu peux faire avec pour avoir besoin d’éteindre régulièrement ? À part pour charger une nouvelle version du noyau ou de la libc par exemple, il n’est pas besoin de redémarrer pour appliquer les mises à jour de paquets.



BlackLightning a dit:


Tant que Windows sera incapable de tourner aussi efficace qu’une distro Linux sous Desktop et pire, de faire tourner correctement un super-calculateur du Top500, Windows ne restera qu’un cancer adulé par les sous-développés de grandes écoles de commerces à la noix.



yl a dit:


Sauf MAJ noyau (hors modules), il n’y a pas de besoin d’extinction. Et comme c’est pas si fréquent, on peut avoir des mois d’uptime. Tout particulièrement sur des distro stables comme un roc comme Debian
[..]
Tiens, même le pauvre Raspberry qui gère la baraque est actuellement à pile 60j d’uptime. Le clicodrome de Redmond, toujours peu modulaire, il aurait déjà dû redémarrer au moins 2 mardis.


Bien d’accord avec tous vos commentaires.



Le mec raconte n’importe quoi, Windows plus stable que Linux… Le gros troll.
Fin 2023, j’arrive toujours pas à comprendre le manque de professionnalisme de Microsoft, rien que l’explorateur de fichier, aussi rudimentaire et mal fichu du point de vue ergonomie assez basique.

votre avatar

Sans vouloir m’attaquer à qui que ce soit, ou troller, je tenais à transcrire mon expérience tant avec Windows qu’avec le monde de Linux.



Étant plutôt un « gamer », je suis resté sous Windows depuis très, très longtemps et d’aussi loin que je me souvienne(époque de Windows 3,1 / 3,11), j’ai toujours eu un ressenti assez mitigé avec cet OS, mais bon cela est humain ; nous avons peur du changement ! Je venais de MS-Dos 56,22 et j’avais déjà l’habitude de trifouiller dans l’autoexec.bat et le config.sys pour y grappiller le moindre octet mémoire afin de faire fonctionner mes jeux (la belle époque :D)…mon ordi tournait déjà pas mal dans les années 90, puis vient Windows 95 et à partir de là, je me suis senti privé de liberté, il fallait tout réapprendre et il fallait surtout une machine « de guerre » pour faire fonctionner Doom ou Heretic ou encore Hexen ; pourquoi? parce que ces jeux était programmé d’une certaine façon à utiliser beaucoup de ram ou bien un co-processeur arithmétique, après qques années j’ai vu la tendance s’inverser, tous autour de moi avaient de bonnes bécanes, mais les jeux (et autres programmes) étaient devenus gourmands, non pas à cause du matériel, mais bien plus souvent à cause de mauvaise configuration Windows ou bien de bug (pilotes, logiciels tierces, etc) chez moi tout fonctionnait bien…encore plus tard Windows XP/7/8/8,1 je n’en éffleurait que la surface en pensant que cet OS était rempli de bug de logiciels qui n’ont rien à y faire etc, puis vint Windows 10, ce dernier m’avait ouvert les yeux (et c’est là qu’on va me prendre pour un complotiste ^^ ) OS laissé avec de la pub, candy crush, et autres joyeusetés, pardon mais WTF, ça n’a rien à faire dans un OS professionnel (W10 pro était affublé de toutes ces cochonneries) , et quand j’ai découvert que tout ce « truc » avait pour cerise sur le gâteau de la télémétrie c’est là que ça a fait « TILT ». Microsoft avait fait encore un grand pas en avant dans la course à la puissance (au pognon surtout) en accord avec bien entendu les fabricants pour faire en sorte que les machines soient tellement sollicitées par leur OS, que ça n’avance plus, et cela à été encore plus flagrant durant la période de confinement, en effet 1er patch de janvier 2020 et hop, tout à coup les HDD (mécanique donc) s’affolent sur chaque PC sur lesquels je passe, avec pour solution (par les vendeurs qui se se frottent bien les mains) : « Ah ben, il faut changer de pc ma p’tite dame c’est plus compatible avec windows 11 ! », mais le pire que j’ai entendu : « Vous devez changer d’ordinateur car il est trop vieux pour travailler dessus (il s’agissait d’un pc portable de 2018) » j’ai dépanner cette pauvre personne qui n’y connaissait que dalle après qu’elle m’ait montré le devis que l’escroc de vendeur lui avait donné (devis payant : 50 balles!!!) j’étais sur le cul ! Depuis, cette personne a toujours son ordinateur avec Linux Mint d’installé, elle m’a appelé deux fois, 1 fois pour faire un upgrade et un autre fois pour acheter une imprimante (attention je conseille, je ne suis pas vendeur)… littéralement depuis le confinement Windows à foutu un pacth pour faire fonctionne la télémétrie à mort et bouffer un max de ressources….pour vendre du nouveau matériel …par extension vendre des licences Windows 11… dégueulasse !!



Dans mon histoire je ne parle pas des virus /malwares et autres joyeusetés du genre…ce serait trop long XD



J’ai fais un premier essai sous Linux avec Pop_Os, après en avoir testé plein en VM, je me suis dis que celui là me conviendrait pour faire aussi du gaming, je suis resté pendant 1 an et demi dessus, de souvenance c’était en 2018 et j’hésitais avec Mint à l’époque, malheureusement (probablement manque de skill) je suis revenu à Windows 10 (optimisé par mes soins XD) afin de faire fonctionner mes jeux, j’avais laissé un dual boot mais je n’allais pas souvent sur le système… puis on a beau faire, c’est pas facile de se déshabituer de Windows quand on a été dessus depuis pas mal d’années.



Aout 2019 : je change de PC, j’ai besoin de puissance pour jouer à du triple A, j’installe le pingouin à gauche et à droite je l’utilise sur une ou deux machines à la maison mais toujours pas sur mon principal (bref faites ce que je dis mais pas ce que je fais ^^ ) je garde quand même dans un coin de ma tête, le fait de passer à l’OS libre mais j’attends que ça évolue mieux pour jouer… le temps de la dire, Steam lance son SteamOS avec la steam deck, j’en achète une, je suis conquis ! Direct !
Enfin en juillet 2023, je me décide : je passe sous Nobara linux (merci à glorious eggroll), je caffouille un peu au début (surtout avec mon nvidia) j’essaie Mint avec un kernel Xanmod pour pallier aux soucis de carte graphique (bon c’est pareil je me heurte à un mur) certes, je change de CG fin d’année pour une Radeon et comme j’aime bien la « confortabilité » de Nobara Linux je pense retourner dessus en même temps.



Cette histoire est vraie, c’est ma vie de tech info, très très fortement résumée. Merci d’avoir lu ce pavé, j’espère que cela vous a fait plaisir ;)

votre avatar

yl a dit:


Sauf MAJ noyau (hors modules), il n’y a pas de besoin d’extinction. Et comme c’est pas si fréquent, on peut avoir des mois d’uptime. Tout particulièrement sur des distro stables comme un roc comme Debian, sauf à être sur Sid mais là, “c’est le jeu ma pauvre Lucette”. youtube.com YouTube


On parle d’utilisation bureautique, oui y a des cas où y a pas besoin de redémarrer.
Mais si tu utilises KDE par exemple et qu’il y a une mise a jour de kde-core ou l’un de ses proches (en tout cas, qqch en cours d’utilisation), t’es pas obligé de couper le courant mais tu dois quand même fermer et réouvrir ta session. Pour une utilisation bureautique, ça revient quasiment au même. (C’est le meme principe pour les autres DE)
Dans ce genre de scénario, le redémarrage du PC est juste un abus de langage et la maniere la plus facile d’etre tranquille.

votre avatar

OlivierJ a dit:


Le mec raconte n’importe quoi, Windows plus stable que Linux… Le gros troll. Fin 2023, j’arrive toujours pas à comprendre le manque de professionnalisme de Microsoft, rien que l’explorateur de fichier, aussi rudimentaire et mal fichu du point de vue ergonomie assez basique.


Bo, ben je me débrouille mal alors. Ce matin, lancement d’un jeu (Broforce) - plantage - impossible d’arrêter autrement que par le bouton (sur l’ordi de jeux, un MSI).



Un copain me montre le steam deck: “attends, avant d elance rle second jeu, si je le lance après celui-ci (oxygen not included), le framerate est réduit de moitié”



Le desktop sur Linux a au moins les mêmes problèmes que Windows - parce que la conception du DE a en gros les mêmes idées. E si des DE “légers” peuvent être mieux, à la moindre applis Qt ou GTK qui se lance, toute la machine en dessous s’active.




J’aimerais bien voir ça.


Ben ils ont des conférences très sérieuses, où on peut échanger du bien qu’amène l’opensource (indépendance et conservation de la maîtrise du calendrier), et du taf nécessaire pour undéploiement de certains patchs ou versions de librairies, qui nécessite de tester tous leurs actifs faits en interne - et c’est long.



Et que en gros, comme toute grosse structure, ils refont un “patch tuesday” car sur le bureau on ne déploie quasiment jamais “day-1” à l’aveugle: on le fait par plusieurs temps en laissant au moins des utilisateurs ciblés tester une semaine.
Ms le fait d’ailleurs sur Office 365, et certains presta SAAS ne le font pas et réussissent à casser tous leurs clients d’un coup…



Bref, dire que le patch tuesday est dépassé et ridicule, c’est se masquer la réalité du passage de mises à jour.



(sans compter tous les “power users” et “gamers” qui désactivent les mises à jour car Windows ne sait pas faire et leur a tout cassé une fois il y a 10 ans, donc non)

votre avatar

Ça va se transformer en ZDnet ici ? On va récupérer les linuxiens virulents qui vomissent leur haine de Windows. Certains sont déjà arrivés ici alors on va peut être arrêter. Ça devient pénible cette guerre de clochet. Chaque OS à ses inconvénients et ses forces.

votre avatar

Wosgien a dit:


Ben ils ont des conférences très sérieuses, où on peut échanger du bien qu’amène l’opensource (indépendance et conservation de la maîtrise du calendrier), et du taf nécessaire pour undéploiement de certains patchs ou versions de librairies, qui nécessite de tester tous leurs actifs faits en interne - et c’est long.



Et que en gros, comme toute grosse structure, ils refont un “patch tuesday”…


L’Open source est surtout vu comme un palliatif à l’enfermement propriétaire (ou “customer lock-in”) et absolument pas pour la maîtrise des horloges.



A condition de bien choisir sa distribution, point besoin de copier un mode opératoire ni même de s’emmerder à ce niveau raz des pâquerettes. Les seuls problèmes que l’on peut avoir avec Linux sont liés à des configurations matérielles et/ou logicielles très exotiques et qui peuvent avoir laissé passer des bugs (très) tordus qui ne se manifestent pas pour le cas général (je pense en particulier aux patchs temps-réel) qui tourne sur une variété de charges/applications et matériels/architectures qui déverminent l’affaire à un niveau dont Microsoft ne peut même pas rêver (et je parle pas ici de PC gamer qui a des pb de driver graphique ou de clavier RGB de branleur).

votre avatar

Kiroha a dit:


Ça devient pénible cette guerre de clochet. Chaque OS à ses inconvénients et ses forces.


Faut pas confondre la fée Clochette et la paroisse de Redmond (avec un R et non un T).
:D

votre avatar

yl a dit:


M.D.R



Linux a les mêmes problèmes que windows. Sur un desktop,le son peut partir en sucette parce qu’on branche/débranche le casque à chaque appel, glisser des fenêtres sur des écran de résolution diférentes fait agrandir ou rétrécir jusqu’à ne plus pouvoir lire ou dépasser de l’écran, des applis de base comme les panneaux de contrôle dépassent de l’3cran en 1366x768, il faut cliquer au clavier et à l’aveugle des boutons ok/annuler, des mises à jour font que des logiciels/panneaux ne s’affichent plus tant qu’ on n’a pas effacé les fichiers de notre profil…
Et je ne fait que de la bureautique, un peu de prog, du montage et du jeu.



Et j’aime bien l’environnement linux! Mais il les mêmes dégaut et problèmes que windows, mais plus souvent je trouve.

votre avatar

yl a dit:


En général, dans ce type d’entreprise, les profils qui vont choisir Windows ou Linux ne sont pas vraiment les mêmes non plus.



En résumé, windows est pour la secrétaire, les chef de projets et chefs à plumes et ceux qui font le matériel (outils CAD et chaînes de génération de FPGA restent windows…) avec des droits limités. Tous ceux qui font du logiciel, surtout si le produit tourne sous Linux, sont sous Linux et le plus souvent avec des droits étendus pour installer leurs outils.



Ce qui biaise totalement la comparaison. A mon sens, ils auraient les droits root complets tu le les verrais jamais d’ailleurs, sachant sans doute parfaitement résoudre les pb eux mêmes.



A l’inverse, on a des machines labo Linux utilisée par des dizaines de personnes chez nous qui ont fait toutes les versions de Debian en simple upgrade, certaines Z620 depuis la 6 ou 7… Aucun exemple de machines windows qui ait duré si longtemps, elles sautent parfois une version si très récentes mais jamais deux. De toutes manières elles deviennent des poumons en quelques mois d’usage 247.



Qu’est-ce qu’il ne faut pas lire comme conneries.


Je bosse dans une boîte d’ingénierie informatique.
70 employé
4 administratif effectivement sous Windows
1 technicien devellopeur sous Windows
1 technicien maintenance informatique sous Windows (moi)
64 ingénieur qui font du dev ou du R&D dont seulement 7 sous linux.
Tous le monde est admin de son poste.
Mais tu as raison, mon argumentaire est seulement un exemple, pas une généralité.

votre avatar

yl a dit:


Qu’est-ce qu’il ne faut pas lire comme conneries.


Tout à fait d’accord.



Ton expérience c’est des machines qui ont réussi à passer d’une deb à l’autre.
Mon expérience c’est plusieurs abandons de support sur Linux, pas sur Windows (ou bien plus tard) y compris sur des serveurs en blade. Plusieurs portables devenus totalement instable (OK, leur ACPI n’était pas standard, mais il était supporté avant). Plus récemment, des problèmes avec des SSD et AMD (SSD qui cessent de communiquer en route: c’est plus que gênant - pas dû à Linux en lui-même: c’est le firmware qui déconne ou le BIOS, ou alors passthrough impossible à activer sur carte mère AMD - je suis repassé à Intel) . Actuellement, Debian sur desktop reste un peu problématique avec les mises en veille aussi chez moi (ordi pas vraiment en veille ou ordi qui ne redémarre pas à chaud).



Au final, Linux me donne une confiance limitée dans le support matos - pas du fait de Linux en lui-même actuellement, mais du fait des constructeurs.



Linux reste l’OS de mon serveur perso, et plusieurs initiatives me donnent beaucoup de satisfaction:




  • fwupdate qui centralise les mises à jour firmware et me permet de contourner des restrictions de mises à jour que j’ai sous Windows

  • les distributions de soft type appimage qui permettent de ne pas être root pour installer sans perdre la trace de l’installation (je suis un ancien adepte du “build from source” pour installer pour un utilisateur particulier)



En prod, je ne suis pas prêt de retenter du linux baremetal pour des serveurs critiques. De plus, le support Linux coûte souvent aussi cher sur serveur que les licences Ms Datacenter.



De même, je constate que nos éditeurs qui fournissent des VM tardent énormément à valider de nouveaux Linux - les VM fournies sont souvent en Debian 8 ou 9, et tous les patches ne sont pas passés - et notre contrat de support saute si on les passe nous-même.



Si les patches dans l’opensource sont dispos rapidement, ils le sont aussi chez Ms - le patch tuesday est un “service” de distribution généralisé, et qui a un rythme plutôt bien calibré je trouve pour les pro.



Qu’il faille redémarrer une fois toutes les semaines n’est pas un si grand mal: beaucoup d’applis ne sont pas faites pour ne pas redémarrer actuellement, même sur serveur (les serveurs web notamment ont tous un moyen de “redémarrer” soit en forkant soit brutalement). De plus, avec le “numérique responsable”, éteindre les serveurs dans les périodes calmes devient courant.
Enfin, en cas de HA, un cluster avec une veille active + bascule auto est souvent plus facile à gérer que du “toujours actif”, que ce soit sous Linux ou Windows ou autre.



De mon point de vue, Windows et Linux c’est plus selon disponibilité des applis et intégration à l’environnement - mais aucun n’est réellement meilleur que l’autre



(et Windows a toujours cet avantage: on ne peut pas vraiment agir avec le login d’un autre, alors qu’un fois root sous Linux, on peut usurper l’identité sans trace :) )

votre avatar

Kiroha a dit:


Ça va se transformer en ZDnet ici ? On va récupérer les linuxiens virulents qui vomissent leur haine de Windows. Certains sont déjà arrivés ici alors on va peut être arrêter. Ça devient pénible cette guerre de clochet. Chaque OS à ses inconvénients et ses forces.


J’ignore comment est ZDnet, mais les radicalisés qu’ils soient pro Apple, Linux ou Windows sont là depuis les débuts de pcinpact au moins.

Microsoft fête les 20 ans du « Patch Tuesday »

Fermer