Connexion
Abonnez-vous

Il y a 40 ans, Microsoft annonçait pour la première fois Windows

Il y a 40 ans, Microsoft annonçait pour la première fois Windows

Le 13 novembre 2023 à 06h24

Comme le rappelle Neowin, c’est le 10 novembre 1983 que Microsoft tenait une conférence de presse à New-York durant laquelle l’interface graphique Windows a été annoncée pour la première fois. Elle n’est ensuite arrivée que deux ans plus tard.

Nous avions consacré tout un dossier à l’histoire de Windows, depuis les premières versions de MS-DOS. 

Un autre système d’exploitation fête pour rappel ses 40 ans en cette fin d’année : GNU. C’est en effet le 27 septembre 1983 que Richard Stallman a présenté ce projet.

Le 13 novembre 2023 à 06h24

Commentaires (85)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

:birthday:

votre avatar

Condoléances

votre avatar

Alors certes, c’est tentant de cracher dans la soupe. D’autant plus si on est Linuxien adepte de la théorie du grand remplacement Desktopien imminent.



Mais pour moi, Windows c’est ce qui a fédéré la micro-informatique. Avant Windows, c’était une multitude de plateformes hardware/software propriétaires, et incompatibles entre elles.



Windows a forcé les fabricants de composants a créer et respecter des standards, avec la promesse pour le fabricant et pour l’utilisateur que tout sera reconnu/compatible.



De cette époque des royaumes propriétaires, seul Apple a survécu… et encore, Apple a fait énooormémemnt de concessions aux standards du monde PC.



Donc merci Microsoft.

votre avatar

Pas faux en un sens.
Mais on peut voir aussi l’autre côté de la médaille :




  • aucun doute que quelqu’un d’autre l’aurait fait à leur place si MS n’avait pas existé

  • ce qu’ils ont fait, ils l’ont assez mal fait au final, i.e. le(s) qqun d’autre(s) plus haut aurai(en)t eu une chance de faire mieux (plus ouvert, moins bordélique, etc.)



Mais on ne saura jamais du coup.
Moi je retiens donc que la fin ne justifie pas les moyens, et que dans le cas de MS les moyens sont assez déplaisants.

votre avatar

Avant de fédérer, c’est avant tout un couteau planté dans le dos d’IBM et d’OS/2.
Et l’écosystème matériel était déjà bien unifié à l’époque du DOS. Ce qui l’a unifié, c’est le bus ISA ouvert. Si tu parles du plug&play, ce qui l’a rendu possible, c’est le bus PCI ; là encore, pas de Microsoft là-dedans, ils ne sont pas membres du PCI-SIG, et l’impulsion est venue d’Intel.
Bref.

votre avatar

Tu m’évites de corriger.
En fait, c’est plus l’IBM PC qui a généré des compatibles et l’existence de MSDOS qui a permis cette éclosion de clones. Windows n’est venu que plus tard alors que le standard était établi.

votre avatar

C’est plus MS-DOS que Windows. Et c’est comme dit plus haut le fait que MS a eu l’idée de garder leur droit sur DOS lors du développement de l’IBM PC et de vendre ces licences hors IBM-PC qui a permis la création de clone matériel.

votre avatar

Trooppper a dit:


aucun doute que quelqu’un d’autre l’aurait fait à leur place si MS n’avait pas existé


Pas si certain. Pour moi, les gros fabricants de HARDWARE (ceux qui ont les moyens d’imposer un standard hw/sw) n’ont aucun intérêt économique à le faire: c’est se créer de la concurrence pour rien.



Seuls des gros fabricants de SOFTWARE ont un intérêt dans la standardisation hw/sw.



Cf. la standardisation poussée Microsoft/Google versus les trucs proprio de Apple.
Cf. “Microsoft Windows” qui fait du logiciel vs “Microsoft XBox” qui fait du hardware.




ce qu’ils ont fait, ils l’ont assez mal fait au final, i.e. le(s) qqun d’autre(s) plus haut aurai(en)t eu une chance de faire mieux (plus ouvert, moins bordélique, etc.)
Moi je retiens donc que la fin ne justifie pas les moyens, et que dans le cas de MS les moyens sont assez déplaisants.


Je reconnais seulement leur apport à la standardisation de la micro-informatique.
Ce n’est nullement une justification à tous les abus qu’ils ont fait et continuent à faire.




(quote:2164741:alex.d.)
Avant de fédérer, c’est avant tout un couteau planté dans le dos d’IBM et d’OS/2. Et l’écosystème matériel était déjà bien unifié à l’époque du DOS. Ce qui l’a unifié, c’est le bus ISA ouvert. Si tu parles du plug&play, ce qui l’a rendu possible, c’est le bus PCI ; là encore, pas de Microsoft là-dedans, ils ne sont pas membres du PCI-SIG, et l’impulsion est venue d’Intel. Bref.


Comme dit ci-avant, je reconnais leur apport à la standardisation de la micro-informatique.
Sous-entendu “pour le grand public”… donc d’un point de vue utilisation quotidienne au travers de windows.



Que ca soit hardwarement compatible était un prérequis, mais pas une garantie que ca soit logiciellement transparent.

votre avatar

(quote:2164750:127.0.0.1)
Comme dit ci-avant, je reconnais leur apport à la standardisation de la micro-informatique. Sous-entendu “pour le grand public”… donc d’un point de vue utilisation quotidienne au travers de windows.


Ils ont sans doute contribué à la diffusion de la micro-informatique pour le grand public. Mais qu’ils aient aidé à la standardisation, laisse-moi rire.

votre avatar

(reply:2164741:alex.d.) …Et ne pas oublier qu’avant de sortir son interface graphique, un jeune homme très sympathique du nom de Bill Gates a passé énormément de temps dans un certain garage, faisant ami-ami avec les deux Steve (Jobs et Wozniak), posant “d’innocentes” questions, je suis persuadé qu’il a même trinqué avec eux, les félicitant, flattant leur ego…


…Pour au final leur planter un vrai couteau dans le dos en sortant Windows, surtout la version 3, puis 3.11 (for Workgroup, orienté vers les entreprises), très inspirée par les innovations de la Pomme, qui démarrera la domination écrasante de Microsoft (et du PC) sur le reste du monde…



…effectivement, comme tu le souligne, au détriment d’IBM qui effectivement a finalement été obligé d’abandonner totalement la micro-informatique grand public pour se consacrer exclusivement aux grands comptes et au big business.



On pourrait dire que c’est le principe même de ces grands OS privateurs : pour dominer leur marché, ils sont (se sentent) obligés d’écraser tous ceux qui seraient un obstacle à leur domination. On pourrait dire que Windows comme Mac ont fait au passage un nombre certain de victimes, concurrents potentiels que l’histoire n’a pas retenu et qui ont sombré dans l’oubli.



AMHA mieux que tout autre, Apple a réussi à enfermer ses utilisateurs dans un système ultra-fermé et compatible avec rien (même pas avec lui-même, cf les différentes évolutions de l’OS qui rendent les programmes peu à peu incompatibles) dont il est impossible de sortir.



Avec son Store et ses services en ligne, Mikosoft essaie de suivre question enfermement, mais heureusement ils ont toujours été obligés de préserver une certaine compatibilité ascendante avec les précédentes versions, et une certaine ouverture vis-à-vis des développeurs, ce qui fait qu’au final, Win10 reste mon OS préféré, car il est compatible avec l’ancien comme avec le nouveau.



(…Pour combien de temps encore ? Je l’ignore, mais en attendant, cette compatibilité avec les vieux programmes est un avantage indéniable, et pas que pour moi…)



(Linux est mon deuxième OS préféré, qui pourrait devenir le premier si le développement de certains drivers finissait par aboutir à quelque chose, mais grâce à @Refuznik j’ai appris que des développeurs travaillent sérieusement là-dessus, ce qui est une excellente nouvelle ! :yes: :bravo: )

votre avatar

(quote:2164762:alex.d.)
Ils ont sans doute contribué à la diffusion de la micro-informatique pour le grand public. Mais qu’ils aient aidé à la standardisation, laisse-moi rire.


Effectivement. J’aurais dû être plus précis et dire que Ms a poussé à l’adoption d’un standard plutôt qu’un autre lorsque plusieurs étaient en compétition (xkcd).



=> création d’un standard “de fait”.

votre avatar

«Il y a 40 ans, Microsoft annonçait Windows»… et Bill disait aussi qu’un utilisateur n’aurait jamais besoin de plus de 640 kO de RAM ! On en est où aujourd’hui, il me semble qu’on est en approche des 64 Giga pour l’instant il commence a y avoir de nombreuses offres avec 32 GO…
Une nécessité pour réduire les couts de développement le temps où l’on cherchait l’octet de trop en assembleur est révolu tout en Java, C ou autre la génération de quantité de code à outrance (il en faut dix ou quinze fois plus qu’à l’époque pour une même fonction) alors il faut des bécanes plus puissantes et rapides pour arriver aux même résultat. Ça fait marcher le commerce (Nouvelle version => nouvelle machine).
il y a 40 ans, avec d’autres machines sans Windaube avec 1MO de RAM on travaillait à une trentaine… Une trentaines d”écrans tristes fond noir 80 colonnes 24 lignes de caractères verts. C’est bien mieux aujourd’hui ON a une machine perso avec 16GO de mémoire avec plein de couleurs un camembert joli qu’on regarde à peine… et dans la prochaine version chaque caractère aura sa couleur paramétrée par la musique de Skyrock.
Je me suis mis à la mode j’ai un engin avec 32 GO de RAM 2 SSD de 4 To avec ça, dans la même demie-heure je peux relancer 5 fois la même compilation. C’est sympa ! À l’époque j’étais obligé de réfléchir des heures sur mon code (en assembleur) pour faire lancer la compil dans les Jobs de nuit..

votre avatar

C’est aussi les 40 ans du langage ABAP de SAP cette année ;) :
https://news.sap.com/2023/10/celebrating-abap-programming-language-turns-40/



Je sais pas si une brève est déjà passée sur le sujet…. :)

votre avatar

tazvld a dit:


C’est plus MS-DOS que Windows. Et c’est comme dit plus haut le fait que MS a eu l’idée de garder leur droit sur DOS lors du développement de l’IBM PC et de vendre ces licences hors IBM-PC qui a permis la création de clone matériel.


IBM avait publié les specs du BIOS. Techniquement, l’IBM-PC était assez ouvert.




(quote:2164750:127.0.0.1)
Pas si certain. Pour moi, les gros fabricants de HARDWARE (ceux qui ont les moyens d’imposer un standard hw/sw) n’ont aucun intérêt économique à le faire: c’est se créer de la concurrence pour rien.
Seuls des gros fabricants de SOFTWARE ont un intérêt dans la standardisation hw/sw.


Exactement. C’est ce qui a tué les Amiga, Atari ST et autres. Dans les années 80, même les Amstrad CPC étaient utilisés dans le monde pro.



Ce qui a propulsé Ms, c’est les clones de PC à bas coût. Et ce qui a permis que les clones existent, c’est que le soft n’était pas maîtrisé par le constructeur principal.
IBM a franchement perdu avec l’IBM PC (notamment dès que des concurrents comme Compaq sont apparus)



Pour en revenir à Windows, le 1 et le 2 sont anecdotiques. Ils étaient à peu près au niveau de GEM.



Le 3 a accompagné la percée de l’informatique dans les entreprises. Le 3.1 a tué les concurrents qui avançaient sur le réseau d’entreprise comme Novell

votre avatar

(quote:2164765:DantonQ-Robespierre)
…Et ne pas oublier qu’avant de sortir son interface graphique, un jeune homme très sympathique du nom de Bill Gates a passé énormément de temps dans un certain garage, faisant ami-ami avec les deux Steve (Jobs et Wozniak), posant “d’innocentes” questions, je suis persuadé qu’il a même trinqué avec eux, les félicitant, flattant leur ego…
…Pour au final leur planter un vrai couteau dans le dos en sortant Windows, surtout la version 3, puis 3.11 (for Workgroup, orienté vers les entreprises), très inspirée par les innovations de la Pomme, qui démarrera la domination écrasante de Microsoft (et du PC) sur le reste du monde…


C’est une version un peu romancée ?



De ce que j’ai compris, les Steve ont vu l’idée de l’interface en visitant le parc scientifique de Xerox et ont obtenu les droits pour la mettre en place dans les trucs Apple.



Apple avait besoin d’apps (notamment office de mémoire) et Microsoft a eu des licences d’Apple pour mettre en place une interface visuelle.



Je crois qu’ils en parlent ici (je n’ai pas trouvé en Français, mais je n’ai pas beaucoup cherché)

votre avatar

C’est assez proche de ce qui est décrit en français ici.
(LIDL, non pas la chaîne de magasins !)

votre avatar

Lien intéressant du lundi ?



Merci, mais je trouve ça beaucoup trop basé sur 2 personnalités. (bon vu que le titre c’est Gates vs Jobs ça peut se comprendre), mais ce sont bien 2 entreprises.



Mais quand je lis tout ça je me demande vraiment si il ne faudrait pas revoir toute l’histoire de Microsoft via “office” (Word, …). Par ce que ça semble être vraiment le point faible des concurrents de l’époque.




Gates montre les dents : il menace d’arrêter le développement de Word et d’Excel, deux logiciels essentiels pour imposer le Mac auprès des entreprises, s’il n’obtient pas le droit d’incorporer certains éléments de l’interface du Macintosh dans Windows. Acculés, Jobs et Sculley concèdent, bon gré mal gré, à Gates un droit d’utilisation de divers aspects du Mac.


votre avatar

Mine de rien, depuis 3.11 en douce sur l’ordinateur du travail de mon père à aujourd’hui, c’est l’OS qui m’accompagne depuis le plus longtemps. Des hauts, des bas et des critiques certes, mais c’est bien celui-là :birthday:

votre avatar

Quelle aventure les versions de windows, pour une fois, je suis content d’être assez vieux pour avoir vécu sans windows puis avoir découvert comment ça nous a changé le PC !



Si Microsoft n’a pas vraiment poussé à la standardisation, et ils auraient pu.
Surement en limitant les périphériques reconnus quand ils devaient absolument utiliser un obscur driver (sans pour autant être capable de fonctionner avec un mode générique alors que c’est un périphérique commun).
Je salue le travail pour faire fonctionner le plus possible de matos historique à la sortie de windows XP, c’est vraiment le moment où j’ai senti une réduction des galères de drivers, plus de matos reconnu directement… L’internet haut débit et la recherche de drivers automatique sur le net a surement beaucoup aidé aussi !
Mais étant le dernier maillon de la chaine, celui visible à l’utilisateur, la faute a toujours été jetée sur Windows, alors que bien souvent, l’écran bleu, son origine était un driver tiers merdique, ou du matos merdique (mon lot de matos des années 2000 a été affreux en terme de qualité).

votre avatar

JeanM64 a dit:


et Bill disait aussi qu’un utilisateur n’aurait jamais besoin de plus de 640 kO de RAM !


Non. Ceci a déjà été débunké un nombre incalculable de fois. Il a dit quelque chose du genre “puisque la limite matérielle [de l’IBM PC] est de 640K, il faudra bien que l’utilisateur s’en contente”.

votre avatar

(reply:2164785:33A20158-2813-4F0D-9D4A-FD05E2C42E48)
Non. Ceci a déjà été débunké un nombre incalculable de fois. Il a dit quelque chose du genre “puisque la limite matérielle [de l’IBM PC] est de 640K, il faudra bien que l’utilisateur s’en contente”.


De mon coté, j’ai l’explication suivante:



La limite théorique de l’archi PC 8086 c’était 640K adressable (1024k total - 384k reservé).
Fixer la limite du DOS à 640K permettrait donc de gérer tous les modèles de PC.
=> Cette limite devait donc être suffisante pour tout le monde.

votre avatar

Hmmmwoui on comprend à-peu-près la même chose mais on le dit de manière différente.



Ceci dit, dans mon souvenir, MS-DOS lui-même n’était pas limité à 640K, il pouvait adresser l’intégralité du méga… La seule chose qu’il imposait c’était que la mémoire soit d’un seul tenant (limitation qui a été ensuite levée par HIMEM.SYS) Il demandait juste au BIOS combien il y avait de mémoire, et c’est le BIOS qui disait 640K. En tweakant un peu (sur les machines qui avaient de l’EMS) on pouvait ajouter 64K pour passer à 704 et MS-DOS était content.

votre avatar

(reply:2164775:misocard) A ma connaissance, dans mon message je n’ai pas nié le fait que l’achat d’une licence d’exploitation du résultat d’une recherche poussée au laboratoire de Rank Xerox a permis à Apple de développer son matos et ses OS… en fait je n’en parle pas.


Ma source est un documentaire d’Arte (en fait, un doc Américain) sur les débuts d’Apple, et en particulier l’interview d’un employé qui était là quasiment depuis le début, ce sont ses propres mots, après chacun en penseras ce qu’il veux, le fait est que beaucoup de ceux qui travaillaient à l’époque avec la firme à la pomme se sont sentis trahis lorsque Bill Gates a sorti Windows.

votre avatar

JeanM64 a dit:


Windaube


Dit-il en utilisant Edge sur W10 ou W11…

votre avatar

Du coup, je peux le dire … :D
(firefox / linux 6.6.1)

votre avatar

Pa vraiment juste un Firefox sous un Linux… Libéré de M$ depuis la retraite…

votre avatar

(reply:2164791:DantonQ-Robespierre)


C’était surtout la partie sur le garage à cette époque on avait déjà 2 entreprises bien cotées




Apple entre en Bourse en décembre 1980 et Steve Jobs, crédité d’une fortune de 165 millions de dollars, devient le plus jeune millionnaire américain.


Le Mac, c’est 1984, la première version de windows est annoncée en 1983 (sortie 1985) et le procès c’est pour windows 2 en 1987.



Et ce n’était pas d’innocentes questions, il y avait un accord entre les 2 entreprises (même si forcé par Microsoft)



Et vu l’histoire, je doute qu’ils aient été amis.

votre avatar

Oui, enfin l’histoire Office sur mac c’est 1997.

votre avatar

misocard a dit:


C’est une version un peu romancée ?



De ce que j’ai compris, les Steve ont vu l’idée de l’interface en visitant le parc scientifique de Xerox et ont obtenu les droits pour la mettre en place dans les trucs Apple.



Apple avait besoin d’apps (notamment office de mémoire) et Microsoft a eu des licences d’Apple pour mettre en place une interface visuelle.



Je crois qu’ils en parlent ici (je n’ai pas trouvé en Français, mais je n’ai pas beaucoup cherché)


tu peux en trouver une partie dans les docus “les cinglés de l’informatique” sur youtube

votre avatar

Merci, mais j’ai trouvé une version qui me semble proche de ce que je sais ici




  • Ingénieurs de chez Xerox qui ont approché Apple pour l’interface graphique.

  • Jobs est convaincu de visiter le parc scientifique de xerox et voit le potentiel

  • Accord entre Xérox et Apple (pour pouvoir sortir Lisa et Macintosh dans les années qui suivent)

  • Gates (Microsoft …) a un prototype du Lisa pour pouvoir développer Word et Multiplan (excel)

  • A l’aide d’ingénieurs de chez Xerox (embauchés en 1980) Microsoft crée l’interface graphique pour windows 1



Et je vais citer anecdote de l’article.




Cet épisode a donné lieu à un échange célèbre entre les deux hommes, Jobs accusant Gates d’avoir agi comme « un voleur qui entre chez vous pour voler le téléviseur. » Gates a alors répondu cette célèbre phrase : « Je pense que c’est plus comme; nous avons tous les deux ce voisin riche nommé Xerox et que je suis entré dans sa maison pour voler le téléviseur et découvrir que vous l’avez déjà volé. »


votre avatar

Nioniotte a dit:


C’est aussi les 40 ans du langage ABAP de SAP cette année ;) : https://news.sap.com/2023/10/celebrating-abap-programming-language-turns-40/



Je sais pas si une brève est déjà passée sur le sujet…. :)


Je viens de m’y mettre ! C’est disons, particulier :mdr: :rtfm:

votre avatar

(quote:2164793:33A20158-2813-4F0D-9D4A-FD05E2C42E48)
Ceci dit, dans mon souvenir, MS-DOS lui-même n’était pas limité à 640K, il pouvait adresser l’intégralité du méga… La seule chose qu’il imposait c’était que la mémoire soit d’un seul tenant (limitation qui a été ensuite levée par HIMEM.SYS) Il demandait juste au BIOS combien il y avait de mémoire, et c’est le BIOS qui disait 640K. En tweakant un peu (sur les machines qui avaient de l’EMS) on pouvait ajouter 64K pour passer à 704 et MS-DOS était content.


Exact. Physiquement on peut adresser la totalité des 1024K.



La limitation d’adressage à 640K est une limitation de l’architecture 8086 = une limitation imposée par la définition du standard imaginé par IBM.



Le DOS a pris quelques libertés avec le standard et a eu l’idée d’accéder à la “High Memory Area” (HMA) = le dernier segment de la plage d’adresse, situé après la zone de mémoire conventionnelle et après la zone de mémoire réservée.



HIMEM.sys permettait au DOS de déplacer des drivers vers la HMA, libérant ainsi de la place dans la précieuse zone de mémoire conventionnelle (640K).



pour les nerds: https://www.xtof.info/the-640k-memory-limit-of-ms-dos.html

votre avatar

(quote:2164793:33A20158-2813-4F0D-9D4A-FD05E2C42E48)
Hmmmwoui on comprend à-peu-près la même chose mais on le dit de manière différente.



Ceci dit, dans mon souvenir, MS-DOS lui-même n’était pas limité à 640K, il pouvait adresser l’intégralité du méga… La seule chose qu’il imposait c’était que la mémoire soit d’un seul tenant (limitation qui a été ensuite levée par HIMEM.SYS) Il demandait juste au BIOS combien il y avait de mémoire, et c’est le BIOS qui disait 640K. En tweakant un peu (sur les machines qui avaient de l’EMS) on pouvait ajouter 64K pour passer à 704 et MS-DOS était content.


MS DOS était de base limité à 640ko, et le reste était à activer en mémoire paginée :chinois:




TNZfr a dit:


Seulement si tu argumentes (avec des arguments valides, bien entendu) :D
Mon commentaire était surtout moqueur face à ce genre de troll débile, qui est sorti 99% du temps par des gens qui sont justement sous Windows (si pour eux c’est de la daube, pourquoi y rester? Ce ne sont pas les choix qui manquent, entre les Linux et les BSD), et très souvent en plus depuis IE/Edge. Et qui bien sûr, n’argumentent JAMAIS pour expliquer en quoi c’est une daube.

votre avatar

Ben j’ai mis mes arguments ! :D
Firefox 120b9 + KDE Neon + Mesa 23.2.1 + Linux 6.6.1 (et encore, j’ai testé le 6.7-rc1 ce matin).

votre avatar

Il faut bien dire que Windows est un vrai système d’exploitation seulement depuis Windows 7 en 2009 (ou Windows 2000 pour les pros en 2000) après le «choc commercial» du multi-tâche avec Windows 95 (avec ses très connus messages d’erreur qui s’affichaient de façon impromptue).



Je sais de quoi je parle : j’ai utilisé un iMac pour la 1ère fois seulement en 2005 dans une agence france telecom à l’époque Wanadoo et j’utilise couramment du Windows depuis l’époque de Windows 3.1. J’ai quand même une petite nostalgie du Windows XP 😢

votre avatar

Wosgien a dit:


Exactement. C’est ce qui a tué les Amiga, Atari ST et autres. Dans les années 80, même les Amstrad CPC PC-1512 étaient utilisés dans le monde pro.


Les PC-1512 était des compatible PC pas chers, avec MS-DOS et une surcouche graphique GEM concurrente de Windows.

votre avatar

(reply:2164827:consommateurnumérique)


En quoi les Windows d’avant Windows 7 étaient-ils de faux systèmes d’exploitation ?



J’attends avec gourmandise la réponse de quelqu’un qui sait de quoi il parle, surtout pour les raisons exposées.

votre avatar

Je laisse “consomateurnumérique” apporter sa reponse, mais je pense que c’était à comprendre que windows 3.(0-1-11) était une surcouche graphique à MS- (ou PC)-DOS.
De mémoire, c’est à partir de NT qui Windows était devenu un “S.E.” à part entière.



:-)

votre avatar

Entre les Windows 3 et Windows 7, il y a eu quelques versions :
95, 98, Me, XP
et
NT 3 puis 4, 2000, Vista

votre avatar

J’aurais dû mettre XP entre 2000 et Vista
Wosgien a rappelé les héritages des noyaux.

votre avatar

Quand je dis “vrai système d’exploitation”, je veux dire que Windows s’appuyait sur MS-DOS, un système très mal fichu et surtout pas prévu pour le grand public.



Extraits L’histoire de Windows : l’attente fut longue avant Windows XP :




  • « Windows 95, apparu en août 1995, est pour beaucoup le début de l’aventure Windows. Pensé comme plus accessible, […] Ce n’est pas encore tout à fait un système d’exploitation à part entière, MS-DOS 7.0 étant encore intégré, mais il peut quand même accéder directement au matériel. »

  • « C’est en septembre 2000 qu’est commercialisé Windows Millenium Edition, ou ME. Il n’est plus mentionné aujourd’hui sans provoquer des rires, tant le système était instable. Et pour cause : il a été développé à la va-vite pour attendre la réalisation du vieux projet Cairo, intégré dans le projet Whistler (qui deviendra Windows XP).
    Manquant singulièrement de fiabilité, c’est le dernier système de Microsoft à être basé sur MS-DOS, tout en essayant de le cacher. Pourtant, il a introduit plusieurs nouveautés qui ont persisté, »

votre avatar

Les changement à la mano dans autoexec.bat et dans config.sys que de souvenir….

votre avatar

(quote:2164830:Jonathan Livingston)
Les PC-1512 était des compatible PC pas chers, avec MS-DOS et une surcouche graphique GEM concurrente de Windows.


Non, je maintiens: les CPC permettaient de faire du traitement de texte et de la mise en page. J’ai récupéré 2 Atari ST qui étaient utilisés en pro pour de l’illustration de publicité.
Ces ordis on les voit surtout comme des machines de jeu, mais elles existaient aussi pour travailler.



Le PC1512 était mon 1er PC perso :) - j’ai appris le tableur sur calcomat…

votre avatar

Amiga et Atari ST étaient clairement utilisés dans le domaine pro, notamment par des graphistes pour le premier et des musiciens pour le second. Mais côté Amstrad, tu dois confondre avec le PCW (Z80, CP/M et disquettes 3”, comme les CPC effectivement) qui était bien à destination des pros mais quasiment limité au traitement de texte.
Mais le CPC, j’ai toujours le mien, et je te garantie que ce n’était pas utilisable professionnellement, en tout cas pas plus qu’un Oric ou un ZX Spectrum.

votre avatar

(quote:2164827:consommateurnumérique)
Il faut bien dire que Windows est un vrai système d’exploitation seulement depuis Windows 7 en 2009 (ou Windows 2000 pour les pros en 2000)


Windows XP était sur le noyau de 2000 et était un donc “vrai” SE. LE DOS était totalement virtualisé.



Ceci dit, Windows 95 était aussi un SE, dans le sens ou si le DOS démarrait avant Windows 95, Windows 95 changeait de mode et passait en mode 38632 bits.
Windows 95 ne se basait pas sur le DOS ou sur le BIOS pour accéder aux disque si le pilote disait le contraire. Il n’était pas toujours basé sur MSCDEX pour les CDROM. Il activait l’USB (enfin, les révisions suivantes) -> c’est bien un SE.



Un autre SE méconnu: Quake 1 :).



Ceci dit, si on lançait EMM386 sous DOS pour simuler de l’EMS, le DOS était dans une espèce de VM pour détecter les accès à l’espace d’échange de l’EMS. Donc emm386 était un SE???

votre avatar

Wosgien a dit:



Ceci dit, Windows 95 était aussi un SE, dans le sens ou si le DOS démarrait avant Windows 95, Windows 95 changeait de mode et passait en mode 38632 bits. Windows 95 ne se basait pas sur le DOS ou sur le BIOS pour accéder aux disque si le pilote disait le contraire. Il n’était pas toujours basé sur MSCDEX pour les CDROM. Il activait l’USB (enfin, les révisions suivantes) -> c’est bien un SE.


Tout à fait. Le DOS avait juste le rôle de bootloader. Autrement dit pour les Linuxiens : DOS = le GRUB de Microsoft ^^

votre avatar

Wosgien a dit:


Ceci dit, si on lançait EMM386 sous DOS pour simuler de l’EMS, le DOS était dans une espèce de VM pour détecter les accès à l’espace d’échange de l’EMS. Donc emm386 était un SE???


Ca colle plutôt à la définition d’un hyperviseur…

votre avatar

RuMaRoCO a dit:


Je laisse “consomateurnumérique” apporter sa reponse, mais je pense que c’était à comprendre que windows 3.(0-1-11) était une surcouche graphique à MS- (ou PC)-DOS.
De mémoire, c’est à partir de NT qui Windows était devenu un “S.E.” à part entière.


Oui. Et en fait, on a eu :




  • Windows 1 à 3.11 inclus (voire 3.2 pour les Chinois) : GUI pour MS-DOS (le vrai OS, même si Windows était parvenu à disposer de ses propres pilotes matériels et gestion de la RAM). À noter qu’en mode 386 étendu, Windows était démarré dans une machine virtuelle 32 bits, mais fonctionnait toujours en mode 16 bits (voir le billet de Raymond Chen à ce sujet)

  • Windows 95-98-Me : « semi-OS » (certains disaient que c’était « une GUI qui se prend pour un OS ») avec une GUI fonctionnant en mode 32 bits, lancée depuis MS-DOS (7 pour W95 RTM, 7.1 pour W95 OSR 2.x et W98, 8 pour WinMe), ce dernier n’étant plus qu’un lanceur pour Windows (surtout avec WinMe, avec lequel il était impossible de ne pas lancer Windows au (re)démarrage). À noter que Windows Me apportait la prise en charge des archives ZIP dans l’Explorateur, la Restauration système et la mise en veille prolongée (repris ensuite dans XP).



Et on a eu, à partir de 1993, la branche d’OS Windows NT (un nom d’un seul tenant : partout dans Windows NT 3.x et 4.0, par exemple, c’était crédité « Windows NT® » et non « Windows® NT », comme si « Windows » ≠ « Windows NT », comme « planète » ≠ « planète naine ») :




  • Windows NT 3.1-3.5-3.51 : les prémices, avec ce que Microsoft avait récupéré du code d’OS/2, l’OS qu’il avait co-conçu avec IBM jusqu’en 1991, mais avec la GUI de Windows 3.x (IBM proposa d’ailleurs un OS/2 2.0 32 bits avec une GUI proche de celle du Windows 95 à venir, ainsi qu’une compatibilité logicielle DOS et Windows 3.0 en 1992, mais pas avec Windows 3.1 sorti à ce moment-là et qui lui vola totalement la vedette…). Ironie de l’histoire : la GUI de Windows 3.x était elle-même une reprise directe de celle d’OS/2 1.2 et 1.3

  • Windows NT 4.0 : on prend et adopte la GUI de Windows 95 sorti un an plus tôt, mais pas le Plug & Play.

  • Windows 2000 : avec une mention « Technologie NT » pour faire comprendre que c’était pas la suite de Windows 98, mais celle de Windows NT 4 ! Grosses améliorations (Plug & Play enfin là, mais aussi et surtout DirectX 7, HAL, quotas de disque, profils itinérants, consoles MMC…), au point que certains voulaient remplacer leur W98 plantogène par lui. Problème : les pilotes n’étaient pas compatibles et il restait réservé au monde professionnel, donc tant pis pour les gamers

  • Windows XP : le premier Windows NT pour tout le monde, décliné en éditions familiale et professionnelle (le même OS, mais avec des fonctions activées ou non selon l’édition). Certains ont dit que c’était « un Windows 2000 auquel on aurait accroché les wagons de Windows Me ».



Et la suite, on la connaît…

votre avatar

(reply:2164871:Jonathan Livingston)
Tu avais aussi un tableur je crois.


votre avatar

Windows XP était très abouti, mais ce n’est qu’à partir de Windows 7 que Microsoft tient la dragée haute à son principal concurrent sur le marché de l’informatique de bureau.



Je passe les déboires de Windows 8 avec son interface pour écrans tactiles : un écart vers le mobile que Mozilla, Ubuntu et d’autres ont aussi connu à la même époque.

votre avatar

fred42 a dit:


En quoi les Windows d’avant Windows 7 étaient-ils de faux systèmes d’exploitation ?



J’attends avec gourmandise la réponse de quelqu’un qui sait de quoi il parle, surtout pour les raisons exposées.


Je pense qu’il veut dire que Win7/2k8 sont les premières versions avec le refactor de l’architecture en niveaux (avec MinWin en niveau 1). Ca fait plus propre/sérieux pour un OS moderne, comparé à XP qui expose 10000 points d’entrée de DLL à n’importe quel process qui tourne.

votre avatar

(reply:2164886:consommateurnumérique)


OK. Comme je le pensais, tu n’as aucune connaissance technique sur ce qu’est un système d’exploitation mais tu te permets des affirmations sur le sujet.



Effectivement, les premiers Windows étaient une surcouche graphique de MSDOS. Ce n’étaient pas des systèmes d’exploitation, DOS signifiant Disk Operating System : il ne gérait donc pas tout le système.
Mais comme je l’ai dit (et d’autres aussi) entre ces windows et Windows 7, il y a bien eu de vrais systèmes d’exploitation. Ils n’étaient peut-être pas très bons ou très fiables, mais ils en étaient de vrais (ce que tu réfutais).



Ça m’étonnerait qu’il ait appris ceci en “agence France Telecom” ou je vais réviser mon jugement sur le niveau de recrutement de ces agences.

votre avatar

Je n’ai pas la prétention d’en savoir plus que toi. Quand je dis «je sais de quoi je parle», je fais allusion dans la suite de ma phrase à mon expérience de Windows que je pratique à titre perso et pro (comme simple utilisateur) depuis Windows 3.1. Il se trouve que j’ai “seulement” appris quelques commandes MS-DOS et à défragmenter et supprimer des fichiers temporaires sur Windows (ce qui est une spécificité, une feature, de Windows). Excuse-moi de dire ce que je pense de Windows de par mon expérience personnelle et à partir de ce que j’ai assimilé de différents articles dont l’article de Nextinpact dont j’ai cité 2 extraits. Je n’aurais pas dû.



Merci des précisions, mais je ne crois pas avoir dit le contraire. Excuse-moi si j’ai laissé penser le contraire. En tout cas, toute précision est utile.

votre avatar

(reply:2164886:consommateurnumérique)


Nope. Comme je le disais dans un autre commentaire, le DOS, au moins à partir de Windows 98 (et peut être 95 mais là, je n’ai pas connu), n’était que le “chargeur” de Windows, tout comme le ferait un grub pour linux aujourd’hui.



La méprise réside dans le fait que le DOS a existé avant Windows, que le DOS a été pendant longtemps l’OS des PC avant Windows, que Windows 3.1 était bien une surcouche graphique au DOS (mais nécessitait obligatoirement le DOS pour fonctionner d’un point de vue matériel).



Sous Windows 98 (et peut être avant, mais là, je ne sais pas), Windows n’avait plus besoin du DOS une fois lancé. Toute la partie hardware, que ce soit pour l’accès aux disques, au lecteur CD-ROM, etc. était gérée directement par Windows.

votre avatar

(quote:2164867:Trit’)




  • Windows 2000 … Problème : les pilotes n’étaient pas compatibles et il restait réservé au monde professionnel, donc tant pis pour les _gamers_…



Comment ça pas compatible pour les joueurs ? Toutes les cartes graphiques et sons étaient très bien supportés tout comme tous les périph. que j’avais.


votre avatar

(quote:2164888:127.0.0.1)
Je pense qu’il veut dire que Win7/2k8 sont les premières versions avec le refactor de l’architecture en niveaux (avec MinWin en niveau 1). Ca fait plus propre/sérieux pour un OS moderne, comparé à XP qui expose 10000 points d’entrée de DLL à n’importe quel process qui tourne.


Il me semble que ça faisait partie des nouveautées introduites par Windows Vista (?)



Ceci dit il faut les chercher les fans de Vista… :D

votre avatar

(quote:2164871:Jonathan Livingston)
Mais côté Amstrad, tu dois confondre avec le PCW (Z80, CP/M et disquettes 3”, comme les CPC effectivement) qui était bien à destination des pros mais quasiment limité au traitement de texte


Non, je confirme, le cpc a été utilisé en pro…. Ça fait bizarre! Il a même été vendu dans un système pour imprimerie.




(quote:2164888:127.0.0.1)
. Ca fait plus propre/sérieux pour un OS moderne, comparé à XP qui expose 10000 points d’entrée de DLL à n’importe quel process qui tourne.


Ça ne change rien pour les process dès qu’il sont un peu haut (services et users). Les bibliothèques windows ont une tendance à tout activer… Microsoft a un mal de chien à séparer les technos et les éteindre.



Après oui le kernel de Vista a pavé la voie (car les gros changements pour les process, la sécurité, le modèle de pilotes, le scheduler, la gestion des disques et de la ram, c’est vista !)



Ceci dit, Windows XP, maintenant il paraîtrait tout riquiqui et léger si ça se trouve😁

votre avatar

(quote:2164918:consommateurnumérique)
. Il se trouve que j’ai “seulement” appris quelques commandes MS-DOS et à défragmenter et supprimer des fichiers temporaires sur Windows (ce qui est une spécificité, une feature, de Windows).


Non, c’est prévu dans à peu près tout fs (linux, bsd, openvms). Bon, sur le système fat c’était vite utile, sur le NTFS malheureusement le deragmznteur de windows faisait qu’on avait encore plus besoin du défragmenteur..



La spécificité de windows, c’est de l’avoir animé en couleurs 😁




fdorin a dit:


Nope. Comme je le disais dans un autre commentaire


Le roblème c’est que win32 n’isolait pas bien les processus dos et les laissait accéder directement ou presque au matériel.
Ça donnait l’impression que dos avait la main sur windows (il pouvait le planter)

votre avatar

Wosgien a dit:



Le roblème c’est que win32 n’isolait pas bien les processus dos et les laissait accéder directement ou presque au matériel. Ça donnait l’impression que dos avait la main sur windows (il pouvait le planter)


En même temps, il ne pouvait que difficilement faire autrement. Beaucoup de programmes DOS venait avec leur propre “drivers” (les jeux pour accéder à la carte son par exemple, l’accès aux ports série/parallèle) et donc c’était soit il coupe tout, mais la plupart des programmes ne fonctionnaient plus, soit c’était “openbar”.



Il n’y avait tellement pas de protection qu’il était possible de faire planter totalement Windows 98 avec un programme .COM de… 3 octets ! Redémarrage obligatoire. Pour les curieux qui connaissent l’assembleur :



   cli
loop:
jmp loop
votre avatar

« Cas dans lesquels survient la fragmentation



Dans les systèmes Unix, la fragmentation fait suite à un espace disque trop faible.



Pour Microsoft Windows, la fragmentation trouve sa source dans les multiples suppressions, modifications, copies de fichiers sur le disque dur, qui favorisent l’apparition de zones de clusters libres, et par conséquent la fragmentation. Elle est donc fréquente sur les Systemes Windows car il est courant pour un utilisateur de manipuler des fichiers. »



fr.wikipedia.org Wikipedia

votre avatar

(reply:2164949:consommateurnumérique)


C’est pas possible, c’est un linuxien qui a écrit la page Wikipédia tellement c’est à côté de la plaque :mdr2:



Désolé de te le dire, mais c’est un ramassis de bêtises. C’était vrai à l’époque de FAT12, FAT16 et FAT32, mais cela ne l’était plus déjà avec NTFS ni même exFAT.



exFAT utilise un free-space bitmap pour rechercher des allocations. Tout comme Ext2/3/4, je crois.
NTFS, comme BTRFS utilise un arbre binaire.



Alors non, ce n’est pas que Microsoft était nul dans la réalisation des systèmes de fichiers pour FAT. Vient d’une époque lointaine (les prémices remontent à 1977 !) bien avant la première version du DOS. FAT à l’avantage d’être très simple d’implémentation mais souffre d’un gros défaut : il n’y a pas de listes des secteurs libres. Il faut donc “scanner” le disque à la recherche de places. C’est ce qui explique le comportement vis-à-vis de la fragmentation : ne disposant pas de “carte” des clusters libres, on prend un cluster dès qu’il est disponible.



Ce n’est qu’à partir de FAT32 que la liste des clusters disponible a été ajoutée. Et encore, il ne s’agissait que d’une liste chainée. Donc ici encore, impossible de savoir à l’avance si des clusters contigus sont disponibles pour enregistrer les données.

votre avatar

Oui et ? … tu viens de redire la même chose. :fumer:

votre avatar

TNZfr a dit:


Ben j’ai mis mes arguments ! :D Firefox 120b9 + KDE Neon + Mesa 23.2.1 + Linux 6.6.1 (et encore, j’ai testé le 6.7-rc1 ce matin).


En quoi ca explique que Windows = daube? :keskidit:

votre avatar

Paskeu, je ne l’utilise pas et que la config présentée est meilleure :p

votre avatar

JeanM64 a dit:


Pa vraiment juste un Firefox sous un Linux… Libéré de M$ depuis la retraite…


Mais avec toujours la mentalité troll d’un ado.

votre avatar

(reply:2164949:consommateurnumérique)


J’apprends avec joie et délectation que les utilisateurs de UNIX / BSD / OpenVMS ne manipulaient pas les fichiers.



La différence entre un système de fichiers FAT et un (mettons) EXT est la façon dont les nouveaux fichiers sont créés. En FAT un nouveau fichier est créé dans le premier bloc libre trouvé. En EXT, le fichier est (grosso modo) créé au milieu dy plus grand espace libre disponible. Il en résulte que quand on agrandit les fichiers, sous FAT ben le bloc qui suit le dernier bloc du fichier est presque systématiquement déjà attribué à un autre fichier, tandis que sous EXT il reste de nombreux blocs libres contigus.



FAT est un système pensé pour les disquettes, EXT est un système pensé pour les disques durs.

votre avatar

Un bonne question serait de demander combien ici ont tenté ou réussi une migration de quelques milliers de postes clients Windows vers Linux et inversement.
En 2012 il y a eu un Inpactien ici qui avait essayer d’expliquer qu’étant en charge de la mise en oeuvre de postes Linux a l’assemblée Nationale , pourquoi il avait du abandonner le projet ( et la on ne parlait que de centaines de postes)
Il s’était fait incendier par beaucoup et ce qui m’avait choqué à l’époque c’était que la plupart des critiques venaient de gens n’ayant géré que quelques postes de travail, pas des centaines ou des milliers.
On lui ressortait la ville de Munich systématiquement ainsi que la Gendarmerie Nationale ( ne me tirez pas dessus , mais comme par hasard des projets menés avec l’argent du contribuable )
Pour Munich on en parle un peu moins aujourd’hui( mais le contribuable paye toujours :D



Mais arréttez de vous battre à chaque fois que le sujet est invoqué .

votre avatar

JoePike a dit:


On lui ressortait la ville de Munich systématiquement


La ville de Munich abandonne officiellement Linux pour Windows (2017)



PS. J’ai une tour sous W10 et un portable sous Mint. Je suis neutre !

votre avatar

Moi aussi je suis neutre vu que je suis un mec Mainframe z/OS qui bossait dans ce métier bien avant que Microsoft ou Linux existe.

Et pour Munich j’étais un peu au courant d’ou ma petite vanne sur le “on en parle un peu moins”
:D

votre avatar

TNZfr a dit:


Paskeu, je ne l’utilise pas et que la config présentée est meilleure :p


Ou pas.
(Moi aussi je suis capable d’argumenter de manière implacable)

votre avatar

Tu dis ça parce que tu es en colère … c’est pas grave, ça arrive à tout le monde.

votre avatar

TNZfr a dit:


Tu dis ça parce que tu es en colère … c’est pas grave, ça arrive à tout le monde.


Non, je suis réaliste.
La preuve : ton Linux fonctionne difficilement quand il faut gérer des domaines (c’est pour ca qu’il y a quasi-exclusivement des PC Windows, et un peu de Mac).

votre avatar

La gestion de domaine servait surtout aux entreprises qui disposaient de poste fixe sur lesquels il pouvait y a voir plusieurs utilisateurs (pour retrouver le confort d’utilisation des terminaux de mainframe). Aujourd’hui, les DSI sont plutôt sur une logique de PC portable qui ne voit passer qu’un seul utilisateur durant toute son utilisation (y’a toujours les exceptions).



Quant à la gestion de domaine, MS utilise des briques issues du logiciel libre : DHCP, DNS, Kerberos, LDAP, etc … et les a agencées à sa sauce en respectant peu ou prou les standards (m’enfin, faut pas renier sa nature) en y ajoutant des lests propriétaires : Windows Update et gestion de licences entre autres. Bref, ils ont verrouillé le truc en mode solution propriétaire monolithique … et tous les clients n’avaient pas beaucoup d’autres choix à l’époque.



Bref, toujours est il qu’il est possible de faire de la gestion domaine avec les briques GNU et encore, il faut se poser la question à quoi cela peut il encore servir aujourd’hui quand la plupart des outils d’exploitation disposent d’interface web et que les utilisateurs n’utilisent qu’un seul PC. Les accès aux environnements serveur me diras tu ? Pourquoi se pourrir la vie avec des mots de passe et leur obligation de complexité / rotation régulière … alors qu’une gestion par clé SSH permet de gérer finement les accès en lieu et place d’une liste de droits LDAP longue comme un jour sans pain.



Si tu as eu de mauvaises expériences avec la gestion de domaine sous GNU/Linux, soit tu es tombé sur un gars qui ne maitrisait pas suffisamment les aspects de la gestion de domaine, soit tu es tombé sur un contrôleur MS paramétré à la truelle par des exploitants sortis de formation Next / Next / Next / Ok.

votre avatar

refuznik a dit:


Comment ça pas compatible pour les joueurs ? Toutes les cartes graphiques et sons étaient très bien supportés tout comme tous les périph. que j’avais.


Quand Windows XP est sorti (et qui, lui, était donc destiné aussi aux particuliers et gamers, contrairement à Windows 2000 qui avait certes été un premier pas du monde Windows NT vers eux avec DirectX 7 et PnP, mais n’était destiné qu’aux entreprises), il y avait encore des encarts dans les magazines mettant en garde sur la disponibilité de pilotes, ceux-ci étant à l’époque bien plus nombreux pour les Windows 9x que pour le tout nouvel OS issu de la branche cousine. Que, dans la pratique, il n’y ait pas eu de problème parce que les constructeurs ont su anticiper la chose (contrairement à ce qui s’est passé avec Vista où ils ont tous débarqué de la Lune quand il est sorti, surtout Creative…), n’empêche pas le fait que, sur le moment, c’était pas forcément gagné d’avance.

votre avatar

TNZfr a dit:



Quant à la gestion de domaine, MS utilise des briques issues du logiciel libre : DHCP, DNS, Kerberos, LDAP, etc …


Non. Il y a confusion entre les standards (comme le DNS) et leur implémentation (comme bind par exemple).



Là, tu es en train de réécrire l’histoire… A croire qu’il est difficile de rester factuel sur des news Windows/Microsoft…

votre avatar

Wouais, pas DNS, mais gestion DNS au travers de bind9 (t’aurais pu précisé, ceci dit).



M’enfin, DNS parle au plus grand nombre quand bind9 ne parle qu’aux personnes qui ont eu à monter un serveur DNS et à jongler avec les fondamentaux IP.

votre avatar

TNZfr a dit:


Wouais, pas DNS, mais gestion DNS au travers de bind9 (t’aurais pu précisé, ceci dit).


Préciser quoi ? Tu dis un truc factuellement faux.



Et j’ai l’impression que tu sous-entends que Microsoft utilisait bind9 comme gestionnaire DNS pour la gestion de domaine dans AD. J’espère que j’ai mal compris.

votre avatar

Je confirme tu as mal compris.
De plus, MS propose de la gestion DNS dans l’AD ou depuis un serveur « externe » au solutions MS (un bind9 par ex). Mais dans tous les cas, la gestion du serveur DNS est piloté par l’AD (dans l’approche MS).

votre avatar

TNZfr a dit:


Je confirme tu as mal compris.


Dans un sens, ça me rassure.



Du coup, je ne comprends pas ce que tu voulais dire par




Quant à la gestion de domaine, MS utilise des briques issues du logiciel libre : DHCP, DNS, Kerberos, LDAP, etc …



De plus, MS propose de la gestion DNS dans l’AD ou depuis un serveur « externe » au solutions MS (un bind9 par ex).


Oui et ? Microsoft propose une interopérabilité avec des outils tiers. On ne va quand même pas leur reprocher !




Mais dans tous les cas, la gestion du serveur DNS est piloté par l’AD (dans l’approche MS).


Nope. Il est tout à fait possible de venir greffer un AD sur un DNS existant, et de gérer le DNS par un autre moyen.

votre avatar

D’toute manière, il y a plein de façons de gérer un DNS et les clients utilisent l’AD par rapport à leur niveau de maîtrise / connaissance de leur SI.

votre avatar

TNZfr a dit:


La gestion de domaine servait surtout aux entreprises qui disposaient de poste fixe sur lesquels il pouvait y a voir plusieurs utilisateurs (pour retrouver le confort d’utilisation des terminaux de mainframe). Aujourd’hui, les DSI sont plutôt sur une logique de PC portable qui ne voit passer qu’un seul utilisateur durant toute son utilisation (y’a toujours les exceptions).



Quant à la gestion de domaine, MS utilise des briques issues du logiciel libre : DHCP, DNS, Kerberos, LDAP, etc … et les a agencées à sa sauce en respectant peu ou prou les standards (m’enfin, faut pas renier sa nature) en y ajoutant des lests propriétaires : Windows Update et gestion de licences entre autres. Bref, ils ont verrouillé le truc en mode solution propriétaire monolithique … et tous les clients n’avaient pas beaucoup d’autres choix à l’époque.


Ca fait des années qu’on n’utilise plus WU à mon taf (mais un truc bien plus pourri, qui ne t’avertit JAMAIS quand il y a une MAJ ou une mise à niveau. Ou alors, quand c’est un truc qui va te bloquer pendant 2h, qui t’avertit 2 jours avant que ca faisait 3 mois que c’était en attente et que du coup ca va s’installer même si ca t’emmerde à ce moment…).



Et à choisir entre un truc simplifié comme WU et une gestion à mettre en place à partir de 0 sur Linux pour faire des MAJ, comment dire…

votre avatar

La bonne question est : comment fonctionnent les mises à jour sur les poste de travail Linux ?



Pour être en cours d’exercice sur un grand compte, la solution mise en place consiste à utiliser « unattended-upgrades » initialement prévu pour les serveurs. Sur des distros Debian-based, c’est juste redoutable. Ce sont les postes de travail qui gèrent eux-mêmes les mises à jour, et pas besoin de planifier les déploiements de manière centralisée par tranches de parc étalé sur un trimestre.

votre avatar

TNZfr a dit:


La bonne question est : comment fonctionnent les mises à jour sur les poste de travail Linux ?



Pour être en cours d’exercice sur un grand compte, la solution mise en place consiste à utiliser « unattended-upgrades » initialement prévu pour les serveurs. Sur des distros Debian-based, c’est juste redoutable. Ce sont les postes de travail qui gèrent eux-mêmes les mises à jour, et pas besoin de planifier les déploiements de manière centralisée par tranches de parc étalé sur un trimestre.


Ce que ne veulent justement pas les DSI, qui cherchent à contrôler au maximum les MAJ système.

votre avatar

+1000
:chinois:

votre avatar

Justement, le conservatisme sur le contrôle des MAJ système est un point important sur lequel les pirates se reposent : les MAJ ne se font pas en temps et en heure. Les postes de travail ratent systématiquement les fenêtres Windows Update.
A vouloir tout contrôler, au final, ils ne maîtrisent rien.



D’autant plus qu’aujourd’hui avec les clouds et les interconnexions multiples entre les réseaux privés, il est primordial de disposer d’un poste de travail à jour où le mécanisme s’exécute quotidiennement et non quand un manager y aura pensé parce que cela fait partie de ses objectifs annuels. Quelque part, il n’y a plus de choix, il faut conserver son outil de travail dans un état de conformité élevé vis à vis des mises jour et ce de manière quotidienne.



C’est un sujet que j’aborde régulièrement dans les réunions de sécurité. Même si la simplicité et la robustesse de la solution saute aux yeux de tous, il y a toujours les exploitants pour freiner des 4 fers … la sempiternelle peur du changement.

Il y a 40 ans, Microsoft annonçait pour la première fois Windows

Fermer