Il y a 40 ans, Microsoft annonçait pour la première fois Windows
Le 13 novembre 2023 à 06h24
1 min
Logiciel
Logiciel
Comme le rappelle Neowin, c’est le 10 novembre 1983 que Microsoft tenait une conférence de presse à New-York durant laquelle l’interface graphique Windows a été annoncée pour la première fois. Elle n’est ensuite arrivée que deux ans plus tard.
Nous avions consacré tout un dossier à l’histoire de Windows, depuis les premières versions de MS-DOS.
- L'histoire de Windows : de MS-DOS à NT 3.x
- L'histoire de Windows : l'attente fut longue avant Windows XP
- L'histoire de Windows : de Vista à 8.x, de nombreuses erreurs
- L'histoire de Windows (10)
Un autre système d’exploitation fête pour rappel ses 40 ans en cette fin d’année : GNU. C’est en effet le 27 septembre 1983 que Richard Stallman a présenté ce projet.
Le 13 novembre 2023 à 06h24
Commentaires (85)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 13/11/2023 à 06h41
Le 13/11/2023 à 07h14
Condoléances
Le 13/11/2023 à 07h47
Alors certes, c’est tentant de cracher dans la soupe. D’autant plus si on est Linuxien adepte de la théorie du grand remplacement Desktopien imminent.
Mais pour moi, Windows c’est ce qui a fédéré la micro-informatique. Avant Windows, c’était une multitude de plateformes hardware/software propriétaires, et incompatibles entre elles.
Windows a forcé les fabricants de composants a créer et respecter des standards, avec la promesse pour le fabricant et pour l’utilisateur que tout sera reconnu/compatible.
De cette époque des royaumes propriétaires, seul Apple a survécu… et encore, Apple a fait énooormémemnt de concessions aux standards du monde PC.
Donc merci Microsoft.
Le 13/11/2023 à 08h17
Pas faux en un sens.
Mais on peut voir aussi l’autre côté de la médaille :
Mais on ne saura jamais du coup.
Moi je retiens donc que la fin ne justifie pas les moyens, et que dans le cas de MS les moyens sont assez déplaisants.
Le 13/11/2023 à 08h22
Avant de fédérer, c’est avant tout un couteau planté dans le dos d’IBM et d’OS/2.
Et l’écosystème matériel était déjà bien unifié à l’époque du DOS. Ce qui l’a unifié, c’est le bus ISA ouvert. Si tu parles du plug&play, ce qui l’a rendu possible, c’est le bus PCI ; là encore, pas de Microsoft là-dedans, ils ne sont pas membres du PCI-SIG, et l’impulsion est venue d’Intel.
Bref.
Le 13/11/2023 à 08h43
Tu m’évites de corriger.
En fait, c’est plus l’IBM PC qui a généré des compatibles et l’existence de MSDOS qui a permis cette éclosion de clones. Windows n’est venu que plus tard alors que le standard était établi.
Le 13/11/2023 à 09h19
C’est plus MS-DOS que Windows. Et c’est comme dit plus haut le fait que MS a eu l’idée de garder leur droit sur DOS lors du développement de l’IBM PC et de vendre ces licences hors IBM-PC qui a permis la création de clone matériel.
Le 13/11/2023 à 08h48
Pas si certain. Pour moi, les gros fabricants de HARDWARE (ceux qui ont les moyens d’imposer un standard hw/sw) n’ont aucun intérêt économique à le faire: c’est se créer de la concurrence pour rien.
Seuls des gros fabricants de SOFTWARE ont un intérêt dans la standardisation hw/sw.
Cf. la standardisation poussée Microsoft/Google versus les trucs proprio de Apple.
Cf. “Microsoft Windows” qui fait du logiciel vs “Microsoft XBox” qui fait du hardware.
Je reconnais seulement leur apport à la standardisation de la micro-informatique.
Ce n’est nullement une justification à tous les abus qu’ils ont fait et continuent à faire.
Comme dit ci-avant, je reconnais leur apport à la standardisation de la micro-informatique.
Sous-entendu “pour le grand public”… donc d’un point de vue utilisation quotidienne au travers de windows.
Que ca soit
hardwarement compatible
était un prérequis, mais pas une garantie que ca soit logiciellement transparent.Le 13/11/2023 à 09h11
Ils ont sans doute contribué à la diffusion de la micro-informatique pour le grand public. Mais qu’ils aient aidé à la standardisation, laisse-moi rire.
Le 13/11/2023 à 09h14
…Pour au final leur planter un vrai couteau dans le dos en sortant Windows, surtout la version 3, puis 3.11 (for Workgroup, orienté vers les entreprises), très inspirée par les innovations de la Pomme, qui démarrera la domination écrasante de Microsoft (et du PC) sur le reste du monde…
…effectivement, comme tu le souligne, au détriment d’IBM qui effectivement a finalement été obligé d’abandonner totalement la micro-informatique grand public pour se consacrer exclusivement aux grands comptes et au big business.
On pourrait dire que c’est le principe même de ces grands OS privateurs : pour dominer leur marché, ils sont (se sentent) obligés d’écraser tous ceux qui seraient un obstacle à leur domination. On pourrait dire que Windows comme Mac ont fait au passage un nombre certain de victimes, concurrents potentiels que l’histoire n’a pas retenu et qui ont sombré dans l’oubli.
AMHA mieux que tout autre, Apple a réussi à enfermer ses utilisateurs dans un système ultra-fermé et compatible avec rien (même pas avec lui-même, cf les différentes évolutions de l’OS qui rendent les programmes peu à peu incompatibles) dont il est impossible de sortir.
Avec son Store et ses services en ligne, Mikosoft essaie de suivre question enfermement, mais heureusement ils ont toujours été obligés de préserver une certaine compatibilité ascendante avec les précédentes versions, et une certaine ouverture vis-à-vis des développeurs, ce qui fait qu’au final, Win10 reste mon OS préféré, car il est compatible avec l’ancien comme avec le nouveau.
(…Pour combien de temps encore ? Je l’ignore, mais en attendant, cette compatibilité avec les vieux programmes est un avantage indéniable, et pas que pour moi…)
(Linux est mon deuxième OS préféré, qui pourrait devenir le premier si le développement de certains drivers finissait par aboutir à quelque chose, mais grâce à @Refuznik j’ai appris que des développeurs travaillent sérieusement là-dessus, ce qui est une excellente nouvelle ! )
Le 13/11/2023 à 09h21
Effectivement. J’aurais dû être plus précis et dire que Ms a poussé à l’adoption d’un standard plutôt qu’un autre lorsque plusieurs étaient en compétition (xkcd).
=> création d’un standard “de fait”.
Le 13/11/2023 à 09h27
«Il y a 40 ans, Microsoft annonçait Windows»… et Bill disait aussi qu’un utilisateur n’aurait jamais besoin de plus de 640 kO de RAM ! On en est où aujourd’hui, il me semble qu’on est en approche des 64 Giga pour l’instant il commence a y avoir de nombreuses offres avec 32 GO…
Une nécessité pour réduire les couts de développement le temps où l’on cherchait l’octet de trop en assembleur est révolu tout en Java, C ou autre la génération de quantité de code à outrance (il en faut dix ou quinze fois plus qu’à l’époque pour une même fonction) alors il faut des bécanes plus puissantes et rapides pour arriver aux même résultat. Ça fait marcher le commerce (Nouvelle version => nouvelle machine).
il y a 40 ans, avec d’autres machines sans Windaube avec 1MO de RAM on travaillait à une trentaine… Une trentaines d”écrans tristes fond noir 80 colonnes 24 lignes de caractères verts. C’est bien mieux aujourd’hui ON a une machine perso avec 16GO de mémoire avec plein de couleurs un camembert joli qu’on regarde à peine… et dans la prochaine version chaque caractère aura sa couleur paramétrée par la musique de Skyrock.
Je me suis mis à la mode j’ai un engin avec 32 GO de RAM 2 SSD de 4 To avec ça, dans la même demie-heure je peux relancer 5 fois la même compilation. C’est sympa ! À l’époque j’étais obligé de réfléchir des heures sur mon code (en assembleur) pour faire lancer la compil dans les Jobs de nuit..
Le 13/11/2023 à 09h27
C’est aussi les 40 ans du langage ABAP de SAP cette année ;) :
https://news.sap.com/2023/10/celebrating-abap-programming-language-turns-40/
Je sais pas si une brève est déjà passée sur le sujet…. :)
Le 13/11/2023 à 09h29
IBM avait publié les specs du BIOS. Techniquement, l’IBM-PC était assez ouvert.
Exactement. C’est ce qui a tué les Amiga, Atari ST et autres. Dans les années 80, même les Amstrad CPC étaient utilisés dans le monde pro.
Ce qui a propulsé Ms, c’est les clones de PC à bas coût. Et ce qui a permis que les clones existent, c’est que le soft n’était pas maîtrisé par le constructeur principal.
IBM a franchement perdu avec l’IBM PC (notamment dès que des concurrents comme Compaq sont apparus)
Pour en revenir à Windows, le 1 et le 2 sont anecdotiques. Ils étaient à peu près au niveau de GEM.
Le 3 a accompagné la percée de l’informatique dans les entreprises. Le 3.1 a tué les concurrents qui avançaient sur le réseau d’entreprise comme Novell
Le 13/11/2023 à 09h32
C’est une version un peu romancée ?
De ce que j’ai compris, les Steve ont vu l’idée de l’interface en visitant le parc scientifique de Xerox et ont obtenu les droits pour la mettre en place dans les trucs Apple.
Apple avait besoin d’apps (notamment office de mémoire) et Microsoft a eu des licences d’Apple pour mettre en place une interface visuelle.
Je crois qu’ils en parlent ici (je n’ai pas trouvé en Français, mais je n’ai pas beaucoup cherché)
Le 13/11/2023 à 09h38
C’est assez proche de ce qui est décrit en français ici.
(LIDL, non pas la chaîne de magasins !)
Le 13/11/2023 à 10h57
Lien intéressant du lundi ?
Merci, mais je trouve ça beaucoup trop basé sur 2 personnalités. (bon vu que le titre c’est Gates vs Jobs ça peut se comprendre), mais ce sont bien 2 entreprises.
Mais quand je lis tout ça je me demande vraiment si il ne faudrait pas revoir toute l’histoire de Microsoft via “office” (Word, …). Par ce que ça semble être vraiment le point faible des concurrents de l’époque.
Le 13/11/2023 à 09h48
Mine de rien, depuis 3.11 en douce sur l’ordinateur du travail de mon père à aujourd’hui, c’est l’OS qui m’accompagne depuis le plus longtemps. Des hauts, des bas et des critiques certes, mais c’est bien celui-là
Le 13/11/2023 à 09h55
Quelle aventure les versions de windows, pour une fois, je suis content d’être assez vieux pour avoir vécu sans windows puis avoir découvert comment ça nous a changé le PC !
Si Microsoft n’a pas vraiment poussé à la standardisation, et ils auraient pu.
Surement en limitant les périphériques reconnus quand ils devaient absolument utiliser un obscur driver (sans pour autant être capable de fonctionner avec un mode générique alors que c’est un périphérique commun).
Je salue le travail pour faire fonctionner le plus possible de matos historique à la sortie de windows XP, c’est vraiment le moment où j’ai senti une réduction des galères de drivers, plus de matos reconnu directement… L’internet haut débit et la recherche de drivers automatique sur le net a surement beaucoup aidé aussi !
Mais étant le dernier maillon de la chaine, celui visible à l’utilisateur, la faute a toujours été jetée sur Windows, alors que bien souvent, l’écran bleu, son origine était un driver tiers merdique, ou du matos merdique (mon lot de matos des années 2000 a été affreux en terme de qualité).
Le 13/11/2023 à 10h00
Non. Ceci a déjà été débunké un nombre incalculable de fois. Il a dit quelque chose du genre “puisque la limite matérielle [de l’IBM PC] est de 640K, il faudra bien que l’utilisateur s’en contente”.
Le 13/11/2023 à 10h22
De mon coté, j’ai l’explication suivante:
La limite théorique de l’archi PC 8086 c’était 640K adressable (1024k total - 384k reservé).
Fixer la limite du DOS à 640K permettrait donc de gérer tous les modèles de PC.
=> Cette limite devait donc être suffisante pour tout le monde.
Le 13/11/2023 à 10h48
Hmmmwoui on comprend à-peu-près la même chose mais on le dit de manière différente.
Ceci dit, dans mon souvenir, MS-DOS lui-même n’était pas limité à 640K, il pouvait adresser l’intégralité du méga… La seule chose qu’il imposait c’était que la mémoire soit d’un seul tenant (limitation qui a été ensuite levée par HIMEM.SYS) Il demandait juste au BIOS combien il y avait de mémoire, et c’est le BIOS qui disait 640K. En tweakant un peu (sur les machines qui avaient de l’EMS) on pouvait ajouter 64K pour passer à 704 et MS-DOS était content.
Le 13/11/2023 à 10h39
Ma source est un documentaire d’Arte (en fait, un doc Américain) sur les débuts d’Apple, et en particulier l’interview d’un employé qui était là quasiment depuis le début, ce sont ses propres mots, après chacun en penseras ce qu’il veux, le fait est que beaucoup de ceux qui travaillaient à l’époque avec la firme à la pomme se sont sentis trahis lorsque Bill Gates a sorti Windows.
Le 13/11/2023 à 10h46
Dit-il en utilisant Edge sur W10 ou W11…
Le 13/11/2023 à 11h18
Du coup, je peux le dire …
(firefox / linux 6.6.1)
Le 13/11/2023 à 16h30
Pa vraiment juste un Firefox sous un Linux… Libéré de M$ depuis la retraite…
Le 13/11/2023 à 11h04
C’était surtout la partie sur le garage à cette époque on avait déjà 2 entreprises bien cotées
Le Mac, c’est 1984, la première version de windows est annoncée en 1983 (sortie 1985) et le procès c’est pour windows 2 en 1987.
Et ce n’était pas d’innocentes questions, il y avait un accord entre les 2 entreprises (même si forcé par Microsoft)
Et vu l’histoire, je doute qu’ils aient été amis.
Le 13/11/2023 à 11h15
Oui, enfin l’histoire Office sur mac c’est 1997.
Le 13/11/2023 à 11h22
tu peux en trouver une partie dans les docus “les cinglés de l’informatique” sur youtube
Le 13/11/2023 à 11h35
Merci, mais j’ai trouvé une version qui me semble proche de ce que je sais ici
Et je vais citer anecdote de l’article.
Le 13/11/2023 à 11h33
Je viens de m’y mettre ! C’est disons, particulier
Le 13/11/2023 à 12h44
Exact. Physiquement on peut adresser la totalité des 1024K.
La limitation d’adressage à 640K est une limitation de l’architecture 8086 = une limitation imposée par la définition du standard imaginé par IBM.
Le DOS a pris quelques libertés avec le standard et a eu l’idée d’accéder à la “High Memory Area” (HMA) = le dernier segment de la plage d’adresse, situé après la zone de mémoire conventionnelle et après la zone de mémoire réservée.
HIMEM.sys permettait au DOS de déplacer des drivers vers la HMA, libérant ainsi de la place dans la précieuse zone de mémoire conventionnelle (640K).
pour les nerds: https://www.xtof.info/the-640k-memory-limit-of-ms-dos.html
Le 13/11/2023 à 14h05
MS DOS était de base limité à 640ko, et le reste était à activer en mémoire paginée
Seulement si tu argumentes (avec des arguments valides, bien entendu)
Mon commentaire était surtout moqueur face à ce genre de troll débile, qui est sorti 99% du temps par des gens qui sont justement sous Windows (si pour eux c’est de la daube, pourquoi y rester? Ce ne sont pas les choix qui manquent, entre les Linux et les BSD), et très souvent en plus depuis IE/Edge. Et qui bien sûr, n’argumentent JAMAIS pour expliquer en quoi c’est une daube.
Le 13/11/2023 à 22h36
Ben j’ai mis mes arguments !
Firefox 120b9 + KDE Neon + Mesa 23.2.1 + Linux 6.6.1 (et encore, j’ai testé le 6.7-rc1 ce matin).
Le 13/11/2023 à 14h42
Il faut bien dire que Windows est un vrai système d’exploitation seulement depuis Windows 7 en 2009 (ou Windows 2000 pour les pros en 2000) après le «choc commercial» du multi-tâche avec Windows 95 (avec ses très connus messages d’erreur qui s’affichaient de façon impromptue).
Je sais de quoi je parle : j’ai utilisé un iMac pour la 1ère fois seulement en 2005 dans une agence france telecom à l’époque Wanadoo et j’utilise couramment du Windows depuis l’époque de Windows 3.1. J’ai quand même une petite nostalgie du Windows XP 😢
Le 13/11/2023 à 14h53
Les PC-1512 était des compatible PC pas chers, avec MS-DOS et une surcouche graphique GEM concurrente de Windows.
Le 13/11/2023 à 15h05
En quoi les Windows d’avant Windows 7 étaient-ils de faux systèmes d’exploitation ?
J’attends avec gourmandise la réponse de quelqu’un qui sait de quoi il parle, surtout pour les raisons exposées.
Le 13/11/2023 à 15h57
Je laisse “consomateurnumérique” apporter sa reponse, mais je pense que c’était à comprendre que windows 3.(0-1-11) était une surcouche graphique à MS- (ou PC)-DOS.
De mémoire, c’est à partir de NT qui Windows était devenu un “S.E.” à part entière.
:-)
Le 13/11/2023 à 16h17
Entre les Windows 3 et Windows 7, il y a eu quelques versions :
95, 98, Me, XP
et
NT 3 puis 4, 2000, Vista
Le 13/11/2023 à 16h30
J’aurais dû mettre XP entre 2000 et Vista
Wosgien a rappelé les héritages des noyaux.
Le 13/11/2023 à 18h28
Quand je dis “vrai système d’exploitation”, je veux dire que Windows s’appuyait sur MS-DOS, un système très mal fichu et surtout pas prévu pour le grand public.
Extraits L’histoire de Windows : l’attente fut longue avant Windows XP :
Manquant singulièrement de fiabilité, c’est le dernier système de Microsoft à être basé sur MS-DOS, tout en essayant de le cacher. Pourtant, il a introduit plusieurs nouveautés qui ont persisté, »
Le 13/11/2023 à 15h49
Les changement à la mano dans autoexec.bat et dans config.sys que de souvenir….
Le 13/11/2023 à 16h16
Non, je maintiens: les CPC permettaient de faire du traitement de texte et de la mise en page. J’ai récupéré 2 Atari ST qui étaient utilisés en pro pour de l’illustration de publicité.
Ces ordis on les voit surtout comme des machines de jeu, mais elles existaient aussi pour travailler.
Le PC1512 était mon 1er PC perso :) - j’ai appris le tableur sur calcomat…
Le 13/11/2023 à 16h53
Amiga et Atari ST étaient clairement utilisés dans le domaine pro, notamment par des graphistes pour le premier et des musiciens pour le second. Mais côté Amstrad, tu dois confondre avec le PCW (Z80, CP/M et disquettes 3”, comme les CPC effectivement) qui était bien à destination des pros mais quasiment limité au traitement de texte.
Mais le CPC, j’ai toujours le mien, et je te garantie que ce n’était pas utilisable professionnellement, en tout cas pas plus qu’un Oric ou un ZX Spectrum.
Le 13/11/2023 à 16h22
Windows XP était sur le noyau de 2000 et était un donc “vrai” SE. LE DOS était totalement virtualisé.
Ceci dit, Windows 95 était aussi un SE, dans le sens ou si le DOS démarrait avant Windows 95, Windows 95 changeait de mode et passait en mode 386⁄32 bits.
Windows 95 ne se basait pas sur le DOS ou sur le BIOS pour accéder aux disque si le pilote disait le contraire. Il n’était pas toujours basé sur MSCDEX pour les CDROM. Il activait l’USB (enfin, les révisions suivantes) -> c’est bien un SE.
Un autre SE méconnu: Quake 1 :).
Ceci dit, si on lançait EMM386 sous DOS pour simuler de l’EMS, le DOS était dans une espèce de VM pour détecter les accès à l’espace d’échange de l’EMS. Donc emm386 était un SE???
Le 13/11/2023 à 16h27
Tout à fait. Le DOS avait juste le rôle de bootloader. Autrement dit pour les Linuxiens : DOS = le GRUB de Microsoft ^^
Le 13/11/2023 à 16h30
Ca colle plutôt à la définition d’un hyperviseur…
Le 13/11/2023 à 16h43
Oui. Et en fait, on a eu :
Et on a eu, à partir de 1993, la branche d’OS Windows NT (un nom d’un seul tenant : partout dans Windows NT 3.x et 4.0, par exemple, c’était crédité « Windows NT® » et non « Windows® NT », comme si « Windows » ≠ « Windows NT », comme « planète » ≠ « planète naine ») :
Et la suite, on la connaît…
Le 13/11/2023 à 17h23
Le 13/11/2023 à 18h39
Windows XP était très abouti, mais ce n’est qu’à partir de Windows 7 que Microsoft tient la dragée haute à son principal concurrent sur le marché de l’informatique de bureau.
Je passe les déboires de Windows 8 avec son interface pour écrans tactiles : un écart vers le mobile que Mozilla, Ubuntu et d’autres ont aussi connu à la même époque.
Le 13/11/2023 à 18h43
Je pense qu’il veut dire que Win7/2k8 sont les premières versions avec le refactor de l’architecture en niveaux (avec MinWin en niveau 1). Ca fait plus propre/sérieux pour un OS moderne, comparé à XP qui expose 10000 points d’entrée de DLL à n’importe quel process qui tourne.
Le 13/11/2023 à 19h01
OK. Comme je le pensais, tu n’as aucune connaissance technique sur ce qu’est un système d’exploitation mais tu te permets des affirmations sur le sujet.
Effectivement, les premiers Windows étaient une surcouche graphique de MSDOS. Ce n’étaient pas des systèmes d’exploitation, DOS signifiant Disk Operating System : il ne gérait donc pas tout le système.
Mais comme je l’ai dit (et d’autres aussi) entre ces windows et Windows 7, il y a bien eu de vrais systèmes d’exploitation. Ils n’étaient peut-être pas très bons ou très fiables, mais ils en étaient de vrais (ce que tu réfutais).
Ça m’étonnerait qu’il ait appris ceci en “agence France Telecom” ou je vais réviser mon jugement sur le niveau de recrutement de ces agences.
Le 13/11/2023 à 20h44
Je n’ai pas la prétention d’en savoir plus que toi. Quand je dis «je sais de quoi je parle», je fais allusion dans la suite de ma phrase à mon expérience de Windows que je pratique à titre perso et pro (comme simple utilisateur) depuis Windows 3.1. Il se trouve que j’ai “seulement” appris quelques commandes MS-DOS et à défragmenter et supprimer des fichiers temporaires sur Windows (ce qui est une spécificité, une feature, de Windows). Excuse-moi de dire ce que je pense de Windows de par mon expérience personnelle et à partir de ce que j’ai assimilé de différents articles dont l’article de Nextinpact dont j’ai cité 2 extraits. Je n’aurais pas dû.
Merci des précisions, mais je ne crois pas avoir dit le contraire. Excuse-moi si j’ai laissé penser le contraire. En tout cas, toute précision est utile.
Le 13/11/2023 à 19h54
Nope. Comme je le disais dans un autre commentaire, le DOS, au moins à partir de Windows 98 (et peut être 95 mais là, je n’ai pas connu), n’était que le “chargeur” de Windows, tout comme le ferait un grub pour linux aujourd’hui.
La méprise réside dans le fait que le DOS a existé avant Windows, que le DOS a été pendant longtemps l’OS des PC avant Windows, que Windows 3.1 était bien une surcouche graphique au DOS (mais nécessitait obligatoirement le DOS pour fonctionner d’un point de vue matériel).
Sous Windows 98 (et peut être avant, mais là, je ne sais pas), Windows n’avait plus besoin du DOS une fois lancé. Toute la partie hardware, que ce soit pour l’accès aux disques, au lecteur CD-ROM, etc. était gérée directement par Windows.
Le 13/11/2023 à 20h23
Le 13/11/2023 à 21h21
Il me semble que ça faisait partie des nouveautées introduites par Windows Vista (?)
Ceci dit il faut les chercher les fans de Vista…
Le 13/11/2023 à 21h21
Non, je confirme, le cpc a été utilisé en pro…. Ça fait bizarre! Il a même été vendu dans un système pour imprimerie.
Ça ne change rien pour les process dès qu’il sont un peu haut (services et users). Les bibliothèques windows ont une tendance à tout activer… Microsoft a un mal de chien à séparer les technos et les éteindre.
Après oui le kernel de Vista a pavé la voie (car les gros changements pour les process, la sécurité, le modèle de pilotes, le scheduler, la gestion des disques et de la ram, c’est vista !)
Ceci dit, Windows XP, maintenant il paraîtrait tout riquiqui et léger si ça se trouve😁
Le 13/11/2023 à 21h29
Non, c’est prévu dans à peu près tout fs (linux, bsd, openvms). Bon, sur le système fat c’était vite utile, sur le NTFS malheureusement le deragmznteur de windows faisait qu’on avait encore plus besoin du défragmenteur..
La spécificité de windows, c’est de l’avoir animé en couleurs 😁
Le roblème c’est que win32 n’isolait pas bien les processus dos et les laissait accéder directement ou presque au matériel.
Ça donnait l’impression que dos avait la main sur windows (il pouvait le planter)
Le 13/11/2023 à 22h13
En même temps, il ne pouvait que difficilement faire autrement. Beaucoup de programmes DOS venait avec leur propre “drivers” (les jeux pour accéder à la carte son par exemple, l’accès aux ports série/parallèle) et donc c’était soit il coupe tout, mais la plupart des programmes ne fonctionnaient plus, soit c’était “openbar”.
Il n’y avait tellement pas de protection qu’il était possible de faire planter totalement Windows 98 avec un programme .COM de… 3 octets ! Redémarrage obligatoire. Pour les curieux qui connaissent l’assembleur :
Le 13/11/2023 à 22h22
« Cas dans lesquels survient la fragmentation
Dans les systèmes Unix, la fragmentation fait suite à un espace disque trop faible.
Pour Microsoft Windows, la fragmentation trouve sa source dans les multiples suppressions, modifications, copies de fichiers sur le disque dur, qui favorisent l’apparition de zones de clusters libres, et par conséquent la fragmentation. Elle est donc fréquente sur les Systemes Windows car il est courant pour un utilisateur de manipuler des fichiers. »
Wikipedia
Le 13/11/2023 à 23h35
C’est pas possible, c’est un linuxien qui a écrit la page Wikipédia tellement c’est à côté de la plaque
Désolé de te le dire, mais c’est un ramassis de bêtises. C’était vrai à l’époque de FAT12, FAT16 et FAT32, mais cela ne l’était plus déjà avec NTFS ni même exFAT.
exFAT utilise un free-space bitmap pour rechercher des allocations. Tout comme Ext2/3/4, je crois.
NTFS, comme BTRFS utilise un arbre binaire.
Alors non, ce n’est pas que Microsoft était nul dans la réalisation des systèmes de fichiers pour FAT. Vient d’une époque lointaine (les prémices remontent à 1977 !) bien avant la première version du DOS. FAT à l’avantage d’être très simple d’implémentation mais souffre d’un gros défaut : il n’y a pas de listes des secteurs libres. Il faut donc “scanner” le disque à la recherche de places. C’est ce qui explique le comportement vis-à-vis de la fragmentation : ne disposant pas de “carte” des clusters libres, on prend un cluster dès qu’il est disponible.
Ce n’est qu’à partir de FAT32 que la liste des clusters disponible a été ajoutée. Et encore, il ne s’agissait que d’une liste chainée. Donc ici encore, impossible de savoir à l’avance si des clusters contigus sont disponibles pour enregistrer les données.
Le 14/11/2023 à 06h44
Oui et ? … tu viens de redire la même chose.
Le 14/11/2023 à 08h24
En quoi ca explique que Windows = daube?
Le 14/11/2023 à 08h46
Paskeu, je ne l’utilise pas et que la config présentée est meilleure :p
Le 14/11/2023 à 08h27
Mais avec toujours la mentalité troll d’un ado.
Le 14/11/2023 à 09h03
J’apprends avec joie et délectation que les utilisateurs de UNIX / BSD / OpenVMS ne manipulaient pas les fichiers.
La différence entre un système de fichiers FAT et un (mettons) EXT est la façon dont les nouveaux fichiers sont créés. En FAT un nouveau fichier est créé dans le premier bloc libre trouvé. En EXT, le fichier est (grosso modo) créé au milieu dy plus grand espace libre disponible. Il en résulte que quand on agrandit les fichiers, sous FAT ben le bloc qui suit le dernier bloc du fichier est presque systématiquement déjà attribué à un autre fichier, tandis que sous EXT il reste de nombreux blocs libres contigus.
FAT est un système pensé pour les disquettes, EXT est un système pensé pour les disques durs.
Le 14/11/2023 à 09h12
Un bonne question serait de demander combien ici ont tenté ou réussi une migration de quelques milliers de postes clients Windows vers Linux et inversement.
En 2012 il y a eu un Inpactien ici qui avait essayer d’expliquer qu’étant en charge de la mise en oeuvre de postes Linux a l’assemblée Nationale , pourquoi il avait du abandonner le projet ( et la on ne parlait que de centaines de postes)
Il s’était fait incendier par beaucoup et ce qui m’avait choqué à l’époque c’était que la plupart des critiques venaient de gens n’ayant géré que quelques postes de travail, pas des centaines ou des milliers.
On lui ressortait la ville de Munich systématiquement ainsi que la Gendarmerie Nationale ( ne me tirez pas dessus , mais comme par hasard des projets menés avec l’argent du contribuable )
Pour Munich on en parle un peu moins aujourd’hui( mais le contribuable paye toujours
Mais arréttez de vous battre à chaque fois que le sujet est invoqué .
Le 14/11/2023 à 10h00
La ville de Munich abandonne officiellement Linux pour Windows (2017)
PS. J’ai une tour sous W10 et un portable sous Mint. Je suis neutre !
Le 14/11/2023 à 15h11
Moi aussi je suis neutre vu que je suis un mec Mainframe z/OS qui bossait dans ce métier bien avant que Microsoft ou Linux existe.
Et pour Munich j’étais un peu au courant d’ou ma petite vanne sur le “on en parle un peu moins”
Le 14/11/2023 à 10h38
Ou pas.
(Moi aussi je suis capable d’argumenter de manière implacable)
Le 14/11/2023 à 10h50
Tu dis ça parce que tu es en colère … c’est pas grave, ça arrive à tout le monde.
Le 14/11/2023 à 11h00
Non, je suis réaliste.
La preuve : ton Linux fonctionne difficilement quand il faut gérer des domaines (c’est pour ca qu’il y a quasi-exclusivement des PC Windows, et un peu de Mac).
Le 14/11/2023 à 12h55
La gestion de domaine servait surtout aux entreprises qui disposaient de poste fixe sur lesquels il pouvait y a voir plusieurs utilisateurs (pour retrouver le confort d’utilisation des terminaux de mainframe). Aujourd’hui, les DSI sont plutôt sur une logique de PC portable qui ne voit passer qu’un seul utilisateur durant toute son utilisation (y’a toujours les exceptions).
Quant à la gestion de domaine, MS utilise des briques issues du logiciel libre : DHCP, DNS, Kerberos, LDAP, etc … et les a agencées à sa sauce en respectant peu ou prou les standards (m’enfin, faut pas renier sa nature) en y ajoutant des lests propriétaires : Windows Update et gestion de licences entre autres. Bref, ils ont verrouillé le truc en mode solution propriétaire monolithique … et tous les clients n’avaient pas beaucoup d’autres choix à l’époque.
Bref, toujours est il qu’il est possible de faire de la gestion domaine avec les briques GNU et encore, il faut se poser la question à quoi cela peut il encore servir aujourd’hui quand la plupart des outils d’exploitation disposent d’interface web et que les utilisateurs n’utilisent qu’un seul PC. Les accès aux environnements serveur me diras tu ? Pourquoi se pourrir la vie avec des mots de passe et leur obligation de complexité / rotation régulière … alors qu’une gestion par clé SSH permet de gérer finement les accès en lieu et place d’une liste de droits LDAP longue comme un jour sans pain.
Si tu as eu de mauvaises expériences avec la gestion de domaine sous GNU/Linux, soit tu es tombé sur un gars qui ne maitrisait pas suffisamment les aspects de la gestion de domaine, soit tu es tombé sur un contrôleur MS paramétré à la truelle par des exploitants sortis de formation Next / Next / Next / Ok.
Le 14/11/2023 à 11h39
Quand Windows XP est sorti (et qui, lui, était donc destiné aussi aux particuliers et gamers, contrairement à Windows 2000 qui avait certes été un premier pas du monde Windows NT vers eux avec DirectX 7 et PnP, mais n’était destiné qu’aux entreprises), il y avait encore des encarts dans les magazines mettant en garde sur la disponibilité de pilotes, ceux-ci étant à l’époque bien plus nombreux pour les Windows 9x que pour le tout nouvel OS issu de la branche cousine. Que, dans la pratique, il n’y ait pas eu de problème parce que les constructeurs ont su anticiper la chose (contrairement à ce qui s’est passé avec Vista où ils ont tous débarqué de la Lune quand il est sorti, surtout Creative…), n’empêche pas le fait que, sur le moment, c’était pas forcément gagné d’avance.
Le 14/11/2023 à 13h20
Non. Il y a confusion entre les standards (comme le DNS) et leur implémentation (comme bind par exemple).
Là, tu es en train de réécrire l’histoire… A croire qu’il est difficile de rester factuel sur des news Windows/Microsoft…
Le 14/11/2023 à 13h28
Wouais, pas DNS, mais gestion DNS au travers de bind9 (t’aurais pu précisé, ceci dit).
M’enfin, DNS parle au plus grand nombre quand bind9 ne parle qu’aux personnes qui ont eu à monter un serveur DNS et à jongler avec les fondamentaux IP.
Le 14/11/2023 à 13h45
Préciser quoi ? Tu dis un truc factuellement faux.
Et j’ai l’impression que tu sous-entends que Microsoft utilisait bind9 comme gestionnaire DNS pour la gestion de domaine dans AD. J’espère que j’ai mal compris.
Le 14/11/2023 à 14h16
Je confirme tu as mal compris.
De plus, MS propose de la gestion DNS dans l’AD ou depuis un serveur « externe » au solutions MS (un bind9 par ex). Mais dans tous les cas, la gestion du serveur DNS est piloté par l’AD (dans l’approche MS).
Le 14/11/2023 à 14h30
Dans un sens, ça me rassure.
Du coup, je ne comprends pas ce que tu voulais dire par
Oui et ? Microsoft propose une interopérabilité avec des outils tiers. On ne va quand même pas leur reprocher !
Nope. Il est tout à fait possible de venir greffer un AD sur un DNS existant, et de gérer le DNS par un autre moyen.
Le 14/11/2023 à 16h19
D’toute manière, il y a plein de façons de gérer un DNS et les clients utilisent l’AD par rapport à leur niveau de maîtrise / connaissance de leur SI.
Le 15/11/2023 à 10h02
Ca fait des années qu’on n’utilise plus WU à mon taf (mais un truc bien plus pourri, qui ne t’avertit JAMAIS quand il y a une MAJ ou une mise à niveau. Ou alors, quand c’est un truc qui va te bloquer pendant 2h, qui t’avertit 2 jours avant que ca faisait 3 mois que c’était en attente et que du coup ca va s’installer même si ca t’emmerde à ce moment…).
Et à choisir entre un truc simplifié comme WU et une gestion à mettre en place à partir de 0 sur Linux pour faire des MAJ, comment dire…
Le 15/11/2023 à 10h25
La bonne question est : comment fonctionnent les mises à jour sur les poste de travail Linux ?
Pour être en cours d’exercice sur un grand compte, la solution mise en place consiste à utiliser « unattended-upgrades » initialement prévu pour les serveurs. Sur des distros Debian-based, c’est juste redoutable. Ce sont les postes de travail qui gèrent eux-mêmes les mises à jour, et pas besoin de planifier les déploiements de manière centralisée par tranches de parc étalé sur un trimestre.
Le 15/11/2023 à 10h45
Ce que ne veulent justement pas les DSI, qui cherchent à contrôler au maximum les MAJ système.
Le 15/11/2023 à 12h04
+1000
Le 15/11/2023 à 14h19
Justement, le conservatisme sur le contrôle des MAJ système est un point important sur lequel les pirates se reposent : les MAJ ne se font pas en temps et en heure. Les postes de travail ratent systématiquement les fenêtres Windows Update.
A vouloir tout contrôler, au final, ils ne maîtrisent rien.
D’autant plus qu’aujourd’hui avec les clouds et les interconnexions multiples entre les réseaux privés, il est primordial de disposer d’un poste de travail à jour où le mécanisme s’exécute quotidiennement et non quand un manager y aura pensé parce que cela fait partie de ses objectifs annuels. Quelque part, il n’y a plus de choix, il faut conserver son outil de travail dans un état de conformité élevé vis à vis des mises jour et ce de manière quotidienne.
C’est un sujet que j’aborde régulièrement dans les réunions de sécurité. Même si la simplicité et la robustesse de la solution saute aux yeux de tous, il y a toujours les exploitants pour freiner des 4 fers … la sempiternelle peur du changement.