Connexion
Abonnez-vous

Pour les 42 ans du 8086, Yves Rougy revient sur l’histoire de ce processeur mythique

Pour les 42 ans du 8086, Yves Rougy revient sur l’histoire de ce processeur mythique

Le 09 juin 2020 à 08h59

L’anniversaire était hier, en même temps que la mise en ligne de la vidéo. Le 8086 est un CPU « 16 bits à 100 % » gravé en 3 micromètres (on compte désormais en nanomètres) à 5 MHz avec 29 000 transistors. Il est le digne successeur du 8080 (6 micromètres, 2 MHz et 4 500 transistors).

Pour en savoir plus, on vous laisse dans les mains d’Yves Rougy, qui est remonté jusqu’en 1976 lors du lancement des recherches sur le 8086, qui arrivera donc deux ans plus tard.

Le 09 juin 2020 à 08h59

Commentaires (44)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Les processeurs Intel face aux Motorola dans les années 90, avec les 680x0 face aux 80x86 (bien supérieurs, déjà des registres 32 bits, et un assembleur ô combien plus lisible), puis les PowerPC face au Pentium, ça me fait toujours penser aux échecs des solutions plus prometteuses, comme pour VHS face à Betamax (techniquement supérieur), ou Windows face à d’autres OS (dont AmigaOS qui était en avance), et j’en oublie.



J’avais lu il y a longtemps un article détaillé sur le “vapourware” qui avait accompagné la genèse des Pentium, alors que les PowerPC étaient sortis avant et avec de bons résultats. Du coup on se tape des processeurs avec un lourd héritage, un jeu d’instruction un peu tordu (pour ceux qui ont fait de l’assembleur x86 et du 68000 ou du 6502 avant, ils voient de quoi je parle), et un coût en silicium qui va avec. On est loin de l’élégance des PowerPC, ou d’autres CPU des années 90.

votre avatar

Precision: le 32bit chez Intel date de 1985 (le 80386 ou tout simplement le 386), donc Intel n’était pas si en retard que ça.



Mais en effet par rétrocompatibilité l’usage du 16b est restée la norme pendant longtemps sur x86.

votre avatar

La différence est que Intel est déjà bien installé dans les années 90s, et que quand l’alliance Apple-IBM-Motorola sort le PowerPC, c’est une architecture nouvelle, donc sans programmes existants…

Je pense que le soucis est avant tout dans la base installé, que dans les avantages techniques. Un peu comme les échecs de Windows sur téléphone, ou Firefox OS. Quand le marché est installé, c’est difficile de le faire changer, surtout si il n’y a pas un différenciateur fort.

votre avatar

Ah … ce me rajeunit pas ! <img data-src=" />

votre avatar

Un petit oubli dans l’historique : le 8085 premier proc monotension (5v) chez Intel. Réponse au 6802 de Motorola.

&nbsp;En même temps la mémoire EPROM I2708 se voyait remplacée elle aussi par une monotension la I2758

votre avatar







OlivierJ a écrit :



Du coup on se tape des processeurs avec un lourd héritage, un jeu d’instruction un peu tordu (pour ceux qui ont fait de l’assembleur x86 et du 68000 ou du 6502 avant, ils voient de quoi je parle), et un coût en silicium qui va avec. On est loin de l’élégance des PowerPC, ou d’autres CPU des années 90.&nbsp;



Perso j’avais cet avis au moment du P4. Maintenant, j’ai pas mal évolué sur le sujet.





  • L’ARM, le PowerPC ont été créé en RISC, avec au départ des limitations sur les protections ou lal’absence d’opérations telles que la division

  • En tout cas, à part les articles de Carmack avant 200x où il a totalement abandonné le PPC, une énorme démonstration de PowerPC, c’est la gamecube, qui en moins de 20W fait des effets graphiques impressionnants

  • Toutefois: si le PC se traîne de vieilles instructions, intel a su intégrer de nouveaux paradigme plus “propres” SSE/AVX et autres, qui sont les plus important pour le gain de perf

  • L’intérieur d’un x86 est de toutes façon plus ou moins RISC après le décodage

  • Le nombre de transistors et la taille du silicium d’un CPU est surtout lié au cache et/ou au GPU.



    Pour rappel, un 80386 consommait moins de 5W, certaines puces de portable actuelles consomment plus (en pointe). Si l’assembleur 68000 était intéressant, le 8086 malgré ses faibles registres avait des instructions de boucle (les LOOP/REPs) que je ne connais pas ailleurs et qui permettent de faire des traitements en quelques lignes. Il y avait aussi des trucs zarbis comme le reste de la division qui se retrouvait dans un autre registre - utilisé rarement par les compilateurs haut niveau.



    Intel a aussi fait la démo des Atom qui ont montré que à puissance “comparable”, intel savait faire des CPU qui consommaientt à peu près pareil que des ARM (dans des domaines où l’écran consomme encore plus que le CPU).



    Bref, j’ai été impressionné de voir comment le X86 a pu être décliné (y compris dans des PDA, des calculettes!) alors qu’on lisait partout qu’il n’était adapté à rien d’autre que le Desktop lourd et le serveur.

    &nbsp;

    Et puis maintenant, on parle surtout de RISC-V pour le futur.





    yro a écrit :



    Je pense que le soucis est avant tout dans la base installé, que dans les avantages techniques. Un peu comme les échecs de Windows sur téléphone, ou Firefox OS.&nbsp;



    Surtout que le prix des PC descendait en flèche, difficile de vendre des ordis à 20000F quand on en trouvait des pas mal à 5000F. Plus le fait que les ventes grand public suivaient les ventes pro, les gens achetant pareil que ce qu’ils avaient au boulot souvent. Et il était difficile de percer le marché pro.

    Actuellement, c’est différent, depuis l’iPad à peu près, le marché est tiré par le grand public - ce que je déplore côté pro, puisque les outils pro perdent … leur côté pro.


votre avatar







sylvere a écrit :



Precision: le 32bit chez Intel date de 1985 (le 80386 ou tout simplement le 386), donc Intel n’était pas si en retard que ça.





En pratique et en volume, quand les 386 se sont répandus, ça faisait bien longtemps que les 68000 existaient (entre autres chez Apple, Amiga, Atari, etc). Et en plus le mode 32 bits des 386 n’était pas utilisé par la plupart des OS qui tournaient dessus (MS-DOS, la blague). Linux fait d’ailleurs partie des OS qui ont utilisé directement le 32 bits sur 386.







yro a écrit :



La différence est que Intel est déjà bien installé dans les années 90s, et que quand l’alliance Apple-IBM-Motorola sort le PowerPC, c’est une architecture nouvelle, donc sans programmes existants…





Apple avait bien bossé le sujet pour qu’on puisse faire tourner les programmes existants dessus. Le PowerPC avait été aussi choisi pour les BeBox et le beau BeOS (fantastique pour l’époque), pas mal de geeks y croyaient, mais là aussi MS et ses pratiques commerciales (pas de double boot) n’ont pas aidé.



Quand le PowerPC est sorti, Intel n’avait pas tout à fait la domination qu’il y a eu ensuite. Cela dit je suis d’accord que la base installée entraîne toujours une inertie, mais Intel a énormément lutté.

Après quelques recherches j’ai trouvé cet article (1995 et en ligne, wahou bravo Libé), mais pas aussi détaillé sur les années précédentes, et le “vapourware” d’Intel avec son “Pentium qui va être très performant vous allez voir” :

https://www.liberation.fr/ecrans/1995/03/24/vu-de-la-silicon-valley-power-pc-pen…

et cet extrait qui symbolise tout pour moi : « Intel optait alors pour la guerre psychologique et la pression commerciale - rejoignez le camp des vainqueurs. En face, Motorola pratiquait le genre de marketing d’ingénieurs, soucieux des faits [..] »


votre avatar







brice.wernet a écrit :



Toutefois: si le PC se traîne de vieilles instructions, intel a su intégrer de nouveaux paradigme plus “propres” SSE/AVX et autres, qui sont les plus important pour le gain de perf





C’est très tardif le SSE, et pour beaucoup ça ne sert pas.







brice.wernet a écrit :



L’intérieur d’un x86 est de toutes façon plus ou moins RISC après le décodage





Oui mais à quel prix en terme de silicium, ça n’aide pas.







brice.wernet a écrit :



Le nombre de transistors et la taille du silicium d’un CPU est surtout lié au cache et/ou au GPU.





Un peu plus vrai maintenant, mais pas pendant bien longtemps.



Conceptuellement, et en tant que “technicien/ingénieur”, ça me chagrine, car c’est comme pour MS, c’est la victoire du marketing sur la technique.


votre avatar

L’idée que c’est le produit le meilleur techniquement qui gagne et que le consommateur est une unité économique libre et éclairée relève de l’idéologie.



C’est l’entreprise la plus riche qui les 34 du temps impose via la communication ses solutions.



IBM fin du 20e personne ne pouvait test.

votre avatar







OlivierJ a écrit :



Apple avait bien bossé le sujet pour qu’on puisse faire tourner les programmes existants dessus. Le PowerPC avait été aussi choisi pour les BeBox et le beau BeOS (fantastique pour l’époque), pas mal de geeks y croyaient, mais là aussi MS et ses pratiques commerciales (pas de double boot) n’ont pas aidé.





Heu, apple c’était tellement de la merde dans les années 90, un repackaging infini quasi du même hardware et un OS buggé jusqu’à la moelle. Apple était dans sa grande descente aux enfers et aurait fermé si Microsoft n’y avait pas injecté de pognon et si Steve Jobs n’était pas revenu aux manettes. Ils n’étaient plus prescripteurs depuis 10 ans quand wintel a définitivement gagné sur PC domestique comme pro (quand Amiga s’est ratatinée).

Selon moi c’est plus IBM, qui gravait du power pc d’ailleurs, qui aurait pu pousser cette architecture mais qui ne l’a pas fait, ou pas assez. Peut être dans l’espoir qu’OS2 (x286) perce en entreprise?


votre avatar

Suffit de lire un manuel d’assembleur 68000 et un manuel d’assembleur 8086 pour comprendre que Intel n’a pas remporté le marché sur le seul mérite technique. Mais bon, on ne va pas ressasser le passé.



Merci à Intel (et IBM) d’avoir permis l’essor du “personal computing” et tenté d’abolir le modèle terminal/server qu’on tente de nous revendre sous forme de web2.0/cloud.

votre avatar







OlivierJ a écrit :



&nbsp;Et en plus le mode 32 bits des 386 n’était pas utilisé par la plupart des OS qui tournaient dessus (MS-DOS, la blague).&nbsp;





J’ai le souvenir exactement inverse. Les machines 386 étaient généralement livrées avec OS/2 ou Windows 3.1 qui a reçu très rapidement win32s, et même quand on choisissait de tourner sous DOS, beaucoup de programmes tournaient sous DOS/4G.

C’était un peu désordonné, mais tout le monde cherchait à exploiter le mode 32 bits.


votre avatar







OlivierJ a écrit :



Conceptuellement, et en tant que “technicien/ingénieur”, ça me chagrine, car c’est comme pour MS, c’est la victoire du marketing sur la technique.



Bien sûr, mais n’est-ce pas justement la victoire du “libre”? Le x86 s’est démocratisé parce que le IBM PC (cloné) s’est démocratisé. Là où les autres constructeurs jouaient sur une fermeture de la machine, IBM s’est fait prendre à son propre jeu, propulsant Intel et Ms au sommet.



Perso, j’ai le même avis face à javascript/python: ce ne sont pas des langages propres ou bien pensés, ils sont diffusés simplement parce qu’ils sont accessibles.


votre avatar

(Je suis l’auteur de la vidéo)

C’est vrai que je ne l’ai pas précisé, mais je n’ai pas cherché l’exhaustivité dans la vidéo, mais plutôt une mise en contexte de la conception du 8086.

Mais tu as raison, ça me donne envie de faire une vidéo plus longue sur Intel pre-2000…

votre avatar

J’allais faire la même réponse : Amiga était peut-être supérieur techniquement, ou Atari, ou Amstrad ave ses CPC ou le Mac, mais s’ils étaient tous basés sur du 68000 chacun venait avec son écosystème propre et ses logiciels à lui. Contrairement au PC, lent, poussif, pénible et pas du tout à niveau à l’époque mais que tout le monde pouvait fabriquer sans payer un max en licenses - Compaq, HP, AST et plein d’autres qui depuis ont disparu.

Pour pouvoir fabriquer un Amiga il fallait s’appeler Comodore. Et pour faire un “compatible Amiga” il aurait fallu un accord de licence de Comodore. Qui n’aurait jamais été accordé.

votre avatar







yro a écrit :



(Je suis l’auteur de la vidéo)

C’est vrai que je ne l’ai pas précisé, mais je n’ai pas cherché l’exhaustivité dans la vidéo, mais plutôt une mise en contexte de la conception du 8086.

Mais tu as raison, ça me donne envie de faire une vidéo plus longue sur Intel pre-2000…





Bonjour Yves,



Merci pour ce super teaser. Vous ne tombez pas dans le piège de mélanger technique et succès commercial qui n’ont rien à voir. Je suis convaincu que l’on peut faire le meilleur produit de la terre, si votre force commerciale est nulle, vous ne vendrez rien.

&nbsp;

Cependant, j’ai du mal à comprendre l’affirmation suivante: “l’architecture des processeurs actuels est issue des 8086”. En effet, Intel à parler d’architecture Pentium, Core et ixxxx. Pour moi, le 8086 est avec un pipeline fixe, n’est pas multi-coeur, alors que les architectures actuelles sont superscalaires, possédent des pipelines de longueur variable, des prédictions de branchements”. Les CPUs embarquent même un contrôleur mémoire ou un chipset graphique. Par contre, si vous parlez du jeu d’instruction, il a toujours évolué en ajoutant des instructions (MMU par exemple avec Pentium) et en effet, les instruction de base des 8086 et ixxxx sont les mêmes.



Bien à vous.


votre avatar

42 ans… bon allez prend ta retraite x86 la parce que tu fait ch*er toute l’équipe a etre aussi lent et avec tes frais de bouche démesurés..

&nbsp;

Marre que cet ISA completement bloaté et dépassé continue a survivre uniquement grace a un lobby puissant et une peur du changement.



Il est temps que les standards ultra fermés comme celui la disparaissent pour laisser place a de la technologie ouverte et vendable par plus de deux companies!

&nbsp;

RISC-V ou openPOWER sont les ISA ideaux parce que n’importe quelle compagnie est en mesure de developper et vendre ses propre CPUs.

&nbsp;

ARM est moins pire que x86 mais toujours propriété d’une compagnie qui peut refuser ses licence du jour au lendemain.

votre avatar

Bonjour Gérard,



L’affirmation (je pense qu’on parle de celle à 5 min 15 dans la video) est plutôt de dire que les ordinateurs actuels sont conçus autour d’un processeur qui est une évolution directe du 8086. Intel s’est appuyé sur le 8086 pour sortir les 80186 et 80286, puis a intégré le 8086 en tant que mode réel dans les 80386. Tout comme le 486 et les Pentium de différentes générations. Et même aujourd’hui, sur x86_64, on a toujours une partie 32 bits qui est basée sur les mêmes évolutions. C’est ça que je voulais dire

votre avatar







127.0.0.1 a écrit :



Merci à Intel (et IBM) d’avoir permis l’essor du “personal computing” et tenté d’abolir le modèle terminal/server qu’on tente de nous revendre sous forme de web2.0/cloud.







A ben oui, ce modèle-là, régulièrement il tente son retour. T’avais déjà eu une tentative de retour. Tout un foin dans la presse spécialisée vers la deuxième partie des années 90 avec les projets d’ordinateur “tout java”, avec des puces dédiés, et que tout quasiment serait calculé sur un serveur. Ca n’a pas pris, rien d’étonnant.

Maintenant c’est le Web 2.0 un tant “aidé” part la mort annoncée des “Personnal Computing” à l’avantage des tablettes. Et pourtant, nos “PC” sont toujours là. Et si le télétravail s’enracine dans nos habutides, sa disparition ne sera pas encore pour cette fois <img data-src=" />


votre avatar







brice.wernet a écrit :



Bien sûr, mais n’est-ce pas justement la victoire du “libre”? Le x86 s’est démocratisé parce que le IBM PC (cloné) s’est démocratisé. Là où les autres constructeurs jouaient sur une fermeture de la machine, IBM s’est fait prendre à son propre jeu, propulsant Intel et Ms au sommet.





Pour rentrer un peut plus dans le détail, si je me souviens bien, IBM avait fermé un verrou qui était central : le BIOS. Il pensait tenir les clef grâce à lui. Sauf que Compaq, et aussi Phoenix ont fait sauter ce verrou. Qui sait ce qui se serait passé sans cette erreur.

C’est clair que la démocratisation des “PC compatibles” en entreprise a été le point fort de la domination de cette architecture.


votre avatar

Les CPC c’est du Z80, un compatible 8080. Ils pouvaient d’ailleurs tourner sous CP/M.

votre avatar

OlivierJ- Le mardi 9 juin 2020 à 12:21:24#8

Toutefois:

si le PC se traîne de vieilles instructions, intel a su intégrer de

nouveaux paradigme plus “propres” SSE/AVX et autres, qui sont les plus

important pour le gain de perf

C’est très tardif le SSE, et pour beaucoup ça ne sert pas.





On a des fights parfois mais la je suis assez d’accord avec le premier post. Ca me fait une impression bizarre du coup <img data-src=" /> <img data-src=" />



Ces jeux d’instructions additionnels cela ressemble à monter des pièces de supercar sur une dedeuche.

&nbsp;

Cela sert quand même à trouver des registres pour “stocker” en utilisant des opérations bidons. Au prix bien entendu de la retro-compatibilité. Mais bon c’est de la technique et tout le monde s’en fou. Seul le market compte aujourd’hui.



&nbsp;

votre avatar







brice.wernet a écrit :



L’ARM, le PowerPC ont été créé en RISC, avec au départ des limitations sur les protections ou lal’absence d’opérations telles que la division(…)

Intel a aussi fait la démo des Atom qui ont montré que à puissance “comparable”, intel savait faire des CPU qui consommaientt à peu près pareil que des ARM (dans des domaines où l’écran consomme encore plus que le CPU). &nbsp;



&nbsp;



Le PPC n’a jamais manqué de division. S’il s’agit d’opérations flottantes, les x86 n’ont pas toujours eu un x87 systématiquement intégré non plus. Pour ce qui est de “protections”, il a eu une vraie MMU dès le départ, pas besoin des bricolages (segmentation, mode dit “protégé”) à la Intel qui durent toujours pour le démarrage.



Les Atom premiers du nom consommaient peu mais archi in-order renvoyant 15 ans en arrière à leur sortie et mal compensée par l’HT, les netbooks ont (hélas, ca a tué ces petites machines au format bien pratique) été vite dépassés car le moindre débilophone sous ARM était plus réactif.



Mais ARM est aussi une architecture mal conçue dès le départ: Quand on voit que désormais on se traîne 3 jeux d’instruction: 2 en 32 bits (normal et thumb avec instructions de taille variable pour gagner en empreinte mémoire) et comme le jeu 32 bits n’était pas prévu pour passer à 64 d’entrée, le nouveau jeu 64bits. Et encore, si google avait utilisé jazelle (mais qui les aurait lié pieds et poings à ARM, ce qu’ils n’ont visiblement pas voulu) on en aurait un quatrième. Par contre, de bonnes idées côté MMU en particulier.



Sur PPC, passer de 32 à 64 bits, à part la taille des registres rien n’a changé. Et vu qu’on était dès le départ à 1 instruction/cycle en moyenne on se foutait d’avoir des instructions de boucle et autres: Du simple et efficace, se lisant facilement même compilé (taille instruction fixe).



RISC-V, on verra… mais la fin du PPC consciencieusement débuggé pendant 20 ans par l’industrie télécom va à terme manquer a des applications critiques (avionique…) car il est le seul processeur moderne à pouvoir s’en charger (ARM=états indéfinis à tous les étages, faut bien simplifier qqpart pour loger les 3 jeux ; Intel=aucune confiance dans le déterminisme, pétri de firmwares obscurs et souvent buggés sans parler du cas ME): Il va donc y avoir un manque dans les 10 ans à venir qui devra être comblé entre temps.


votre avatar

Pour moi aussi, que de souvenirs !

En DUT au milieu des années 80, J’ai étudié le Z80 puis le 68000, deux processeurs extraordinaires. Et puis le PC étant sorti et j’ai jeté un coup d’œil à l’assembleur du 8086. Je n’y ai presque rien compris …

Selon moi, le succès du 8086 n’est du qu’au hasard et peut-être au talent de quelques commerciaux. Si Apple n’avait pas choisi le 68000, Motorola aurait été plus agressif pour vendre son processeur à IBM. Je suppose qu’Intel a fait une offre “de la dernière chance” à IBM pour emporter le contrat.

votre avatar







yl a écrit :



&nbsp;Le PPC n’a jamais manqué de division.



Effectivement, c’est plutôt ARM. Le PPC, c’était le passage de la virgule flottante aux entiers et inversement qui passait mal (un article de Carmack à l’époque), je pense que c’était entre PPC et Altivec fasse à x86/FPU et surtout x86/SSE



&nbsp;





yl a écrit :



Les Atom premiers du nom consommaient peu mais archi in-order renvoyant 15 ans en arrière à leur sortie et mal compensée par l’HT, les netbooks ont (hélas, ca a tué ces petites machines au format bien pratique) été vite dépassés car le moindre débilophone sous ARM était plus réactif.&nbsp;



&nbsp;Les avis divergent. Et ayant encore des atom sous la main (N230/N270/z8300), le problème de l’atom c’est surtout le multitâches: cache limité et threads limités. Il rattrape la plupart des cartes ARM grâce à la vitesse de traitement et la vitesse de la RAM.



&nbsp;&nbsp;



yl a écrit :



&nbsp;Sur PPC, passer de 32 à 64 bits, à part la taille des registres rien n’a changé. Et vu qu’on était dès le départ à 1 instruction/cycle en moyenne on se foutait d’avoir des instructions de boucle et autres: Du simple et efficace, se lisant facilement même compilé (taille instruction fixe).&nbsp;



&nbsp;Le PPC est clairement un design propre. Mais les compilos ont traîné à optimiser pour éviter les “décrochages” sur PPC - il avait de l’out-of-order, de la prédiction de branche et a essuyé les plâtres côté grand public dans ce domaine.

Sur PC, fin 90 il y avait ce fameux WatcomC qui compilait en optimisant très fortement (et en créant des bugs) mais qui arrivait à presser le code comme un citron pour extraire la dernière goutte de perf (et donc en sortant bien salement les noyaux en même temps :( ).



&nbsp;

Donc pour la lecture facile du code compilé, justement ce n’était pas ce qu’on mettait en avant pour le PPC, les compilos ajoutant plein de trucs et mélangeant les instructions. D’ailleurs, le PPC était plutôt présenté comme le CPU de haut niveau, celui où on ne touche pas à l’assembleur.

&nbsp;

Maintenant on s’en fiche, de toutes façon il faut faire du code qui plaise à l’étage de branchement prédictif quelque soit le CPU (pour les courageux qui râlent sur les optimisations: lire le chapitre 4 pour appréhender ce qu’un CPU moderne pose comme problème - et là sans considération du multitâche:&nbsp;https://cr.yp.to/2005-590/powerpc-cwg.pdf). Quelque soit le CPU actuel, faire ça à la main sur de grands segments de code, c’est du délire.

&nbsp;

&nbsp;Les instructions de boucle du 8086 font par contre franchement 70s 80s: pour ceux qui faisaient de l’assembleur, c’était un certain soulagement (surtout avec aussi peut de registres). Mais qui fait ce genre d’assembleur maintenant?


votre avatar

Bonjour,



Merci pour votre réponse.



Oui en effet, pour des raisons assez obscures pour moi, il reste ces parties 32 bits dans les processeurs. Un peu comme Windows 64 bits avec son émulateur 32 bits.

votre avatar

Je recommande très fortement de regarder la série Halt and Catch Fire (sur Amazon Prime en UK, et j’espère aussi en France) : dans la première saison, il s’agit d’une entreprise qui veut créer son clone IBM, et on peut y voir la pression exercée par IBM et les moyens mis en place pour recréer un BIOS en contournant le Copyright. Et au passage on replonge dans le monde de l’informatique des années 80.



Une série assez courte qui s’est terminée au bout de 4 saisons, avec un thème différent pour chacune d’entre elles. Les clones IBM pour la saison 1, les services en ligne à la Compuserve ou AOL (avant qu’AOL ne permette l’accès à Internet) pour la saison 2, j’ai oublié le sujet de la saison 3 qui est un peu… oubliable, mais il me semble que ça à rapport au développement de nouveaux services et des boites d’investissements qui tournent derrière, et les débuts du Web pour la saison 4. Une bonne série pour tout geek qui se respecte.

votre avatar

Merci pour l’info. Je connaissais pas et je regarderais.

votre avatar

En fait, le modèle terminal/serveur a failli revenir à la fin des années 90 à cause du décollage d’Internet sur le marché grand public, mais les connexions n’étaient clairement pas taillées pour ça (ça aurait permis de vendre des terminaux peu chers liés à des abonnements pour l’accès à différents services).



Par contre, je ne suis pas tout à fait d’accord avec ton affirmation vis-à-vis du télétravail. Pas mal de boites sont justement en train de retourner vers ce genre de modèles (bureau virtuel sur une poignée de gros serveurs et terminaux ‘consommables’ sur les bureaux - qui sont en fait des nettops avec un client RDP lancé automatiquement). Pour le télétravail, on se connecte avec un client Citrix, et on a juste à fournir un Chromebook à l’employé pour qu’il puisse bosser de chez lui. C’est plus facile et moins cher à gérer qu’une flotte d’ordinateurs relativement puissants. Si un terminal ou un Chromebook lâche, ben on le remplace, et le support aux utilisateurs s’en va grandement simplifié. Et avec le tout cloud, je pense qu’on y retourne gentiment (juste les initiatives à la GeForce Now et Stadia donnent clairement cette impression).



Mais je pense aussi qu’il y aura toujours un marché pour les PC tels qu’on les utilise aujourd’hui, surtout pour les hardcore gamers!

votre avatar

Oui en fait je suis d’accord avec toi pour le télétravail. C’est sur le principe que ce sont souvent des ordi (portable ou bureau) qui ont été utilisés pour cela alors qu’il y a quelque temps on annonçait la mort de ce marché.

Pour la fin des années 90, je pense qu’on parle du même phénomène au fait, car ces terminaux Java devaient “exploser” en étant connecté en permanence, que ce soit en entreprise ou à la maison. Et leur avantage devait être la baisse du prix du matériel (et un renouvellement moins fréquent).

votre avatar

Commentaire qui me semble peu équilibré sur Apple ni ne correspondre tout à fait à la réalité.

votre avatar

Jusqu’au retour de Jobs c’était une boite moribonde, jobs l’a relancée financièrement en faisant du gadget grand public (les ipods) et en relookant les ordis ensuite c’est redevenu bien technologiquement petit à petit sauf pour les serveurs d’entreprise (qu’ils ont d’ailleurs abandonné).

A partir de panther en gros (2003, le mac tulipe et le G5) ils sont redevenus crédibles technologiquement et prescripteurs sur le PC. Deux trois ans après ils abandonnaient PPC pour intel…



https://www.liberation.fr/evenement/1997/08/07/microsoft-au-secours-d-apple-pour…

votre avatar







127.0.0.1 a écrit :



Suffit de lire un manuel d’assembleur 68000 et un manuel d’assembleur 8086 pour comprendre que Intel n’a pas remporté le marché sur le seul mérite technique. Mais bon, on ne va pas ressasser le passé.



Merci à Intel (et IBM) d’avoir permis l’essor du “personal computing” et tenté d’abolir le modèle terminal/server qu’on tente de nous revendre sous forme de web2.0/cloud.





Pour moi c’est plus tout l’écosystème des CPU genre Z80 et 6502 et bien sûr 68000 qui ont permis de développer l’ordinateur personnel.

Les années 80 (et la fin des 70) ont été très riche pour ça.







alex.d. a écrit :



J’ai le souvenir exactement inverse. Les machines 386 étaient généralement livrées avec OS/2 ou Windows 3.1 qui a reçu très rapidement win32s, et même quand on choisissait de tourner sous DOS, beaucoup de programmes tournaient sous DOS/4G.

C’était un peu désordonné, mais tout le monde cherchait à exploiter le mode 32 bits.





Mais ce n’était pas du tout en 32 bits.

Je me souviens bien de l’arrivée de Windows 95 et du mode 32 bits, très tardif, et qui a en fait mis du temps à être adopté par les applications.







brice.wernet a écrit :



Bien sûr, mais n’est-ce pas justement la victoire du “libre”? Le x86 s’est démocratisé parce que le IBM PC (cloné) s’est démocratisé. Là où les autres constructeurs jouaient sur une fermeture de la machine, IBM s’est fait prendre à son propre jeu, propulsant Intel et Ms au sommet.





À mon sens non, la démocratisation est venue plutôt via les autres CPU et types d’ordinateurs, comme je dis plus au sujet du 68000 et consorts. C’était très cher un “PC”.







anagrys a écrit :



J’allais faire la même réponse : Amiga était peut-être supérieur techniquement, ou Atari, ou Amstrad ave ses CPC ou le Mac, mais s’ils étaient tous basés sur du 68000 chacun venait avec son écosystème propre et ses logiciels à lui. Contrairement au PC, lent, poussif, pénible et pas du tout à niveau à l’époque mais que tout le monde pouvait fabriquer sans payer un max en licenses





Mais le PC était cher, bien plus cher. Et l’Amiga était au-dessus des autres c’est clair.







ndjpoye a écrit :



A ben oui, ce modèle-là, régulièrement il tente son retour. T’avais déjà eu une tentative de retour. Tout un foin dans la presse spécialisée vers la deuxième partie des années 90 avec les projets d’ordinateur “tout java”, avec des puces dédiés, et que tout quasiment serait calculé sur un serveur.





J’avoue ne pas me souvenir de ça.







ndjpoye a écrit :



C’est clair que la démocratisation des “PC compatibles” en entreprise a été le point fort de la domination de cette architecture.





Oui, tout comme pour les logiciels bureautiques de MS et les formats associés. <img data-src=" />


votre avatar







yvan a écrit :



le mac tulipe





tournesol <img data-src=" />

Quelque chose me turlupinait dans ce que j’avais écrit <img data-src=" />


votre avatar







yl a écrit :



Le PPC n’a jamais manqué de division. S’il s’agit d’opérations flottantes, les x86 n’ont pas toujours eu un x87 systématiquement intégré non plus. Pour ce qui est de “protections”, il a eu une vraie MMU dès le départ, pas besoin des bricolages (segmentation, mode dit “protégé”) à la Intel qui durent toujours pour le démarrage.

[..]



Sur PPC, passer de 32 à 64 bits, à part la taille des registres rien n’a changé. Et vu qu’on était dès le départ à 1 instruction/cycle en moyenne on se foutait d’avoir des instructions de boucle et autres: Du simple et efficace, se lisant facilement même compilé (taille instruction fixe).



RISC-V, on verra… mais la fin du PPC consciencieusement débuggé pendant 20 ans par l’industrie télécom va à terme manquer a des applications critiques (avionique…) car il est le seul processeur moderne à pouvoir s’en charger (ARM=états indéfinis à tous les étages, faut bien simplifier qqpart pour loger les 3 jeux ; Intel=aucune confiance dans le déterminisme, pétri de firmwares obscurs et souvent buggés sans parler du cas ME): Il va donc y avoir un manque dans les 10 ans à venir qui devra être comblé entre temps.









brice.wernet a écrit :



Le PPC est clairement un design propre. Mais les compilos ont traîné à optimiser pour éviter les “décrochages” sur PPC - il avait de l’out-of-order, de la prédiction de branche et a essuyé les plâtres côté grand public dans ce domaine.

[..] 

Maintenant on s’en fiche, de toutes façon il faut faire du code qui plaise à l’étage de branchement prédictif quelque soit le CPU (pour les courageux qui râlent sur les optimisations: lire le chapitre 4 pour appréhender ce qu’un CPU moderne pose comme problème - et là sans considération du multitâche: https://cr.yp.to/2005-590/powerpc-cwg.pdf). Quelque soit le CPU actuel, faire ça à la main sur de grands segments de code, c’est du délire.





Intéressant de vous lire tous les 2, ça m’a rappelé plein de souvenirs. Je lisais Byte Magazine dans les années 80 et une partie des 90, c’était passionnant (vous avez peut-être connu) et excitant toute cette créativité.







Plastivore a écrit :



Par contre, je ne suis pas tout à fait d’accord avec ton affirmation vis-à-vis du télétravail. Pas mal de boites sont justement en train de retourner vers ce genre de modèles (bureau virtuel sur une poignée de gros serveurs et terminaux ‘consommables’ sur les bureaux - qui sont en fait des nettops avec un client RDP lancé automatiquement). Pour le télétravail, on se connecte avec un client Citrix





J’avais dû subir ce modèle dans une société d’assurance en 2011, j’ai trouvé ça horrible (en tant que geek), tu n’as plus de contrôle sur rien, et en plus côté performance (agrément simple d’utilisation) c’était assez moyen. Heureusement plus vu ça depuis cette époque (je ne sais pas s’ils fonctionnent toujours comme ça).


votre avatar







yvan a écrit :



Jusqu’au retour de Jobs c’était une boite moribonde, jobs l’a relancée financièrement en faisant du gadget grand public (les ipods) et en relookant les ordis





Je me souviens bien que MS avait injecté de l’argent dans Apple, mais c’était aussi pour éviter de se prendre un procès pour monopole ; et la mauvaise santé d’Apple était aussi due aux mauvaises pratiques de MS, société sur laquelle pas mal a été écrit.


votre avatar

Ca n’est pas le sujet, en dépit de nombreuses bonnes idées (genre les double écrans dont un A4) Apple n’était plus prescripteur niveau technologies à la fin des 90’s et vivait sur les positions commerciales prises dans le print quasi uniquement.

Comparativement IBM à l’époque restait une référence en innovation matérielle et logicielle.

votre avatar







OlivierJ a écrit :



J’avais dû subir ce modèle dans une société d’assurance en 2011, j’ai trouvé ça horrible (en tant que geek), tu n’as plus de contrôle sur rien, et en plus côté performance (agrément simple d’utilisation) c’était assez moyen. Heureusement plus vu ça depuis cette époque (je ne sais pas s’ils fonctionnent toujours comme ça).







Ah, ben oui, en tant qu’utilisateur geek, c’est clair que c’est pas terrible. Et le client Citrix n’est pas évident à faire fonctionner correctement dès que tu as une config sortant un tant soit peu de l’ordinaire. J’ai travaillé pour une banque en Écosse qui utilise ce système. Utiliser le clavier français sur les clients légers du site ne posait aucun problème, mais faire de même avec Citrix sur mon mac perso a requis de mettre les mains dans le fichier de conf, sinon le truc s’emmêlait les pinceaux sur la correspondance des touches, presque autant qu’une session VNC… Mais j’ai toujours trouvé que, malgré cela, c’est plus facile à utiliser sur Mac (RDP aussi), parce que tu as une nette différence entre les raccourcis claviers qui utilisent Control et Alt, et ceux qui utilisent la touche Command. Tu peux donc passer d’une fenêtre à une autre dans la session distante avec Alt+Tab, et passer à un autre programme sur le Mac avec le raccourci natif Cmd+Tab, c’est peut être pour ce genre de choses que j’en garde pas un mauvais souvenir !



Mais l’énorme avantage pour la boite est que c’est vachement plus facile à faire fonctionner pour l’utilisateur moyen, et les 34 ne font même pas la différence. Si l’utilisateur utilise son PC perso, la session distante est isolée de ce qui tourne sur la machine locale, et évite de mettre une machine dont la santé est discutable directement dans le réseau de la boite avec un VPN. Et si la personne n’a pas d’ordinateur (ou ne veut pas utiliser son ordi perso), on lui envoie un Chromebook préconfiguré.


votre avatar







OlivierJ a écrit :



Mais ce n’était pas du tout en 32 bits.

Je me souviens bien de l’arrivée de Windows 95 et du mode 32 bits, très tardif, et qui a en fait mis du temps à être adopté par les applications.



&nbsp;Pas besoin de Windows 95 pour du 32 bits, Dos4/GW faisait très bien le taf (et autres extenders de l’époque, mais c’était le plus connu :-) )

&nbsp;





OlivierJ a écrit :



Mais le PC était cher, bien plus cher. Et l’Amiga était au-dessus des autres c’est clair.





Oui, et très très loin derrière en termes de… à peu près tout : jeu, création, bureautique, etc. Je crois que ce que je voulais dire dans mon comm précédent, c’est que si, malgré tous ses défauts le PC a fini par s’imposer, c’est grâce à son ouverture : IBM n’a pas réussi à garder les clés de son BIOS, donc plein de boîtes ont pu d’une part le cloner (pour moins cher) et beaucoup se sont mises aussi à faire des puces dédiées pour lui permettre de faire correctement ce qu’il ne savait pas faire par défaut (Adlib puis Creative pour le son, Hercules, Trident, Matrox ou autres pour l’affichage, d’abord 2D puis 3D avec Voodoo, etc.


votre avatar







OlivierJ a écrit :



Mais ce n’était pas du tout en 32 bits.

Je me souviens bien de l’arrivée de Windows 95 et du mode 32 bits, très tardif, et qui a en fait mis du temps à être adopté par les applications.





Et pourtant, si. Win32s et DOS/4G, c’était bel et bien du 32 bits. Documente-toi un peu au-delà de tes idées préconçues, ça t’évitera de dire des âneries. Énormément de jeux tournaient sous DOS/4G, en mode protégé.


votre avatar

Tu es gentil mais j’ai vécu cette époque, et j’étais déjà geek… C’est pas du préconçu c’est du vu et revu.

Enfin maintenant c’est du passé.

votre avatar

Toi aussi tu es gentil de me prendre pour un perdreau de l’année, mais ce que je te cite, ce sont des choses que j’ai utilisées dès 1993.

votre avatar

Toi, peut-être, mais la vaste majorité des utilisateurs non. Me souviens encore que des années après la sortie de Windows 95, il restait énormément d’applications en mode pas totalement 32 bits (voire pas vraiment).



Tout ce monde Windows ou WinTel paraissait bien archaïque par rapport à ce qui existait ailleurs (on disait déjà dans les années 90 que MS était à l’informatique ce que MacDo est à la gastronomie). Intel aussi avec ses modes zarbi de segmentation mémoire et son démarrage en mode 16 bits. Là où (entre autres) le 68000 et ses descendants était en 32 bits et sans segmentation bizarre.

votre avatar

Je répondais surtout au départ à l’assertion : c’est Windows 95 qui a rendu le 32 bits possible sur PC. Donc non, c’était possible avant.

Était-ce rare ? La majorité des jeux commercialisés à cette époque utilisaient DOS/4G ou un équivalent. Tu l’as peut-être utilisé toi-même sans t’en rendre compte. Quant à win32s, si je me souviens bien, c’est une version d’Office qui avait forcé son installation sous Windows 3.1, là encore avant Windows 95.

Pour les 42 ans du 8086, Yves Rougy revient sur l’histoire de ce processeur mythique

Fermer