Electronic Tales, un projet pour combler le gap technique et culturel des développeurs en reconversion

Electronic Tales, un projet pour combler le gap technique et culturel des développeurs en reconversion

Computer culture 101

Avatar de l'auteur
Mathilde Saliou

Publié dans

Société numérique

20/11/2023 10 minutes
28

Electronic Tales, un projet pour combler le gap technique et culturel des développeurs en reconversion

L'association Electronic Tales réunit des fonds pour lancer deux formations intensives à destination des développeuses et développeurs issus de parcours de reconversion. L'occasion d'interroger la fondatrice de l'association, Elisabeth Fainstein, sur les conditions de travail des développeurs et sur le projet en lui-même.

L’annonce a tourné sur LinkedIn, parmi les réseaux de développeuses et ceux de promotion de la place des femmes dans la tech : l’association Electronic Tales anime depuis un peu plus de deux semaines une campagne de crowdfunding pour financer deux micro-bootcamps « pour aider les devs sous-représenté·e·s dans la tech à rattraper leurs collègues ingénieur·e·s ». En commençant par se muscler en algorithmie et en horlogerie des systèmes.

Comme le projet s’inscrit dans la droite ligne de sujets qui avaient fait l’actualité dans les dernières semaines, comme la question de l’intégration des femmes dans l’industrie soulevée par le Haut Conseil à l’Égalité entre les femmes et les hommes, Next INpact est allé interviewer Elisabeth Fainstein, la fondatrice de l’association, pour mieux comprendre de quoi il retournait. 

Celle-ci a d’abord raconté les débuts d’Electronic Tales, groupe de développeuses issues de reconversions créé en 2020, constitué il y a un an en association et animateur d’un Slack où s’entraident 300 personnes.

Diplômée de biologie et ancienne éditrice, Elisabeth Fainstein est développeuse depuis sept ans. À force de discussions, notamment avec les cofondatrices d’Electronic Tales Claire Heude, qui a effectué sa reconversion en pleine pandémie, et Pauline Artemenko, institutrice qui a bifurqué vers l’ingénierie électronique, « on s’est rendues compte que les reconvertis dans la tech rencontraient des problèmes spécifiques, comparé aux profils plus traditionnels qui avaient fait cinq ans d’étude en école d’ingénieurs. »

Problématiques culturelles dans le développement

Elisabeth Fainstein parle de « signaux faibles », comme un syndrome de l’imposteur ou un très fort sentiment d’illégitimité. Diverses études et témoignages suggèrent que ces sentiments sont relativement partagés parmi les développeurs, ce que l’experte explique par le fait que, dans l’industrie, « on est sans cesse en retard par rapport à l’état de l’art ».

« Pour moi, cela se manifeste de deux manières : soit en verticale – on a toujours l’impression qu’il nous manque un niveau de compréhension dans l’une des technologies que l’on utilise –, soit en horizontal – tous les mois, de nouvelles technologies sortent, et il est impossible de rester à jour. »

Cela implique, continue Elisabeth Fainstein, d’être « toujours en train de courir derrière quelque chose ». Et la développeuse d’évoquer une forme de surcharge cognitive liée à la technologie, doublée d’ « une certaine culture professionnelle qui renforce ce sentiment de multitude et la pression à la performance ».

Au fil des échanges avec ses collègues, Elisabeth Fainstein réalise non seulement qu’ « une reconversion, c’est difficile pour tout le monde », mais encore qu’ « aucune femme développeuse autour de moi n’a été épargnée par des remarques sur son niveau ». À titre personnel, illustre-t-elle, il lui est déjà arrivé de se « retrouver dans une réunion avec deux informaticiens présents dans l’entreprise depuis 20 ans, qui m’ont crié dessus. Je crois vraiment que si ça n’avait pas été moi, mais un ingénieur, qui avait un parcours similaire au leur, ils n’auraient pas osé. »

Pour répondre à cette double problématique, Electronic Tales décide d’orienter plus particulièrement ses actions vers les personnes sous-représentées dans la tech, c’est-à-dire « les femmes, les personnes queer, racisées, porteuses de handicap, senior ou autre », en priorité.

Une réponse par la technique

En pratique, constate Elisabeth Fainstein, il y a déjà « plein d’associations qui s’occupent des questions de ressources humaines, de l’approche par le développement personnel », et d’autres angles d’attaques. Avec Electronic Tales, elle décide de se pencher « sur les sujets de fond : l’algorithmie, le design de systèmes, le hardware… »

Tous ces éléments, explique-t-elle, ne sont pas ou peu abordés dans des cursus de reconversion. Ils font pourtant partie de la « computer culture », d’une certaine culture informatique, et les maîtriser ou non « jouera sur le sentiment d’appartenance à la profession ».

L’association commence donc par proposer des formations gratuites, en soirée ou en week-end, intitulées (pour les deux prochaines) : « Rentre dans ton ordi ! » ou « Archéologie des ordinateurs ! ». Elle ouvre aussi un Slack, où chacune et chacun peut, anonymement, partager les problèmes rencontrés au travail, s’entraider, voire évoquer l’histoire du numérique.

« On relie systématiquement les choses à un aspect militant, pour faire connaître la place des femmes dans l’histoire du numérique notamment. Par exemple, quand on s’est mis à expliquer ce qu’était une carte mère, on s’est demandées pourquoi ça s’appelait comme ça. On a réalisé que quasiment personne n’était au courant, mais qu'une femme, Patty McHugh » y avait beaucoup travaillé, alors qu'elle était employée chez IBM.

Des micro-bootcamps pour parler algorithmie et system design

Par ailleurs, Elisabeth Fainstein note que « le marché se tend depuis le Covid » (une étude Adecco Analytics rapportait en juillet une baisse de 8 % volume d’offres entre le premier et le deuxième trimestre 2023, et un repli de 26 % du volume d’offres en développement web d’un an sur l’autre). Si les développeurs restent très recherchés, ils ont été touchés par les vagues de licenciements qui ont traversé l’industrie numérique. Et pour ceux qui sortent de formation accélérée, « il devient plus dur d’obtenir son premier poste après un parcours de reconversion. »

Le paradoxe est complet, pointe-t-elle, car « peu d’entreprises sont fermées à l’idée de recruter des personnes issues de reconversion ». Sauf qu’une fois en entretien, les candidats s’entendent dire qu’ils n’ont pas le niveau sur divers points largement étudiés dans les cursus classiques d’école d’ingénierie.

« Comment faire pour acquérir ce niveau manquant sans y allouer le temps ? La formation continue, c’est complexe, le faire sur son temps libre, c’est difficile aussi, et certes, certaines entreprises permettent d’évoluer une fois que vous y êtes entrés, mais ça n’est pas le cas de la majorité. »

Pour résoudre cette tension, l’association a lancé une campagne pour créer des mini-bootcamps intensifs. Le but : donner aux développeurs et développeuses reconverties les bases qui leur manquent en algorithmie ou en horlogerie des systèmes.

L’algorithmie, explique Elisabeth Fainstein, « c’est le nerf de la guerre en entretien. C’est super important, super sélectif aussi » puisque c’est longuement étudié en études d’ingénierie, mais très peu dans des formations de quelques mois. Si les personnes issues de reconversions s’y connaissent moins, ça n’est donc « pas leur faute, ça n’est pas non plus celle des organismes qui les ont formés – il a bien fallu faire des choix sur les programmes. Par ailleurs, l’algorithme, c’est un muscle, c’est beaucoup plus simple à faire quand on s’entraîne, et encore plus quand on le fait en groupe. »

Résultat, sur sa page Ulule, l’association propose de faire 16h de formation intensive sur le sujet, en présentiel ou à distance, si l’objectif de financement est atteint. Pour le design de systèmes, même chose : « en entretien, c’est super fréquent de s’entendre demander d’expliquer comment Twitter ou Spotify fonctionne. Ça se calcule, à partir d’un nombre supposé d’utilisateurs, d’un nombre de publications, etc, mais c’est une question plus « big picture », typique des approches qu’une personne en reconversion n’a pas eu le temps d’étudier en bootcamps. »

C’est normal que ce soit demandé en entretien, estime-t-elle, mais ça devrait l’être « à des développeurs qui ont 7 ou 10 ans d’expérience ». Quand on vient d’arriver dans la profession, difficile d’appliquer une manière de réfléchir qui se renforce surtout par la pratique, développe Elisabeth Fainstein. Là encore, la session que prévoit Electronic Tales durera 16 heures, un week-end, pour des groupes d’une quinzaine de personnes, en présentiel à Paris ou en hybride.

Un bootcamp pour ouvrir un peu l'artisanat du code ?

Ces modules intensifs seront effectivement proposés à partir d’avril 2024 si l’équipe remplit son objectif de récolter 4 000 euros. Si elle le dépasse et qu’elle atteint les 6 000, Electronic Tales en prévoit un troisième, purement culturel : le « missing semester ». « On y partagera un condensé de bonnes pratiques axées programmation, sur la qualité du code, sur le craftsmanship, etc. »

À son interlocutrice, qui avoue découvrir le concept, elle explique : « le craftsmanship, à la base, ça partait d’une bonne intention : il s’agissait de rassembler toutes les bonnes pratiques pour faciliter la création de logiciels de qualité ». Le problème, c’est que cet « artisanat du logiciel » est rapidement « devenu l’apanage d’une élite auto-constituée ».

Résultat, si une personne qui débarque dans le développement veut apprendre les bases de cet art, « c’est possible, mais ça n’est pas évident, car on parle d’articles rapidement très techniques, relativement hermétiques. » Et de citer l’un des textes fondateurs, « Clean Craftsmanship » de Robert C. Martin, autrement connu sous le nom d’Uncle Bob.

« Il donne souvent des exemples en Java, qui est un langage un peu daté. Pour une personne qui sort de reconversion, qui n’en a pas fait, c’est super compliqué. C’est un peu comme si vous aviez un corpus de bonnes pratiques, mais que tous les exemples étaient en latin. »

Pour rendre tout cela plus accessible sans replonger dans les textes anciens, donc, Electronic Tales a besoin d’un soutien financier. Et si l’association dépasse d’encore plus loin ses objectifs, « tous les fonds récoltés iront dans une cagnotte destinée à ouvrir les formations à celles et ceux qui n’ont pas les moyens d’y accéder ».

Sachant que pour le moment, chaque stage intensif est fixé à un prix de 65 euros le weekend et que chacun peut les soutenir, que ce soit pour participer ou non. Au jour de publication, il reste dix jours avant la clôture de la levée de fonds participative.

Écrit par Mathilde Saliou

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Problématiques culturelles dans le développement

Une réponse par la technique

Des micro-bootcamps pour parler algorithmie et system design

Un bootcamp pour ouvrir un peu l’artisanat du code ?

Fermer

Commentaires (28)



Par exemple, quand on s’est mis à expliquer ce qu’était une carte mère, on s’est demandées pourquoi ça s’appelait comme ça. On a réalisé que quasiment personne n’était au courant, mais que ç’avait été créé par une femme, Patty McHugh.




Jolie histoire, mais l’Apple ][ (1977) avait déjà une carte mère, par opposition aux ordinateurs en rack avec un bus en fond de panier et des cartes avec différentes fonctions qui se branchaient sur ce bus. L’IBM PC cité date de 1981.



J’avais cet exemple en tête en recherchant la véracité. Il y en a peut-être eu d’autres avant, mais rien ne me vient à l’esprit. Le Micral N, premier micro-ordinateur (et français) était avec des cartes connectées à un fond de panier.


Si je reprends justement ton lien sur wiki :



Carte mère signifie spécifiquement un PCB avec des capacités d’extension. Comme son nom l’indique, cette carte est souvent appelée la « mère » de tous les composants qui y sont connectés, qui incluent souvent des périphériques, des cartes d’interface et des cartes filles : cartes son, cartes vidéo, cartes réseau, adaptateurs de bus hôte, cartes tuner TV. , cartes IEEE 1394 et divers autres composants personnalisés.



De même, le terme carte mère décrit un appareil doté d’une seule carte et sans extension ou capacité supplémentaire, comme les cartes contrôleurs des imprimantes laser, des téléviseurs, des machines à laver, des téléphones portables et d’autres systèmes embarqués avec des capacités d’extension limitées.


refuznik

Si je reprends justement ton lien sur wiki :



Carte mère signifie spécifiquement un PCB avec des capacités d’extension. Comme son nom l’indique, cette carte est souvent appelée la « mère » de tous les composants qui y sont connectés, qui incluent souvent des périphériques, des cartes d’interface et des cartes filles : cartes son, cartes vidéo, cartes réseau, adaptateurs de bus hôte, cartes tuner TV. , cartes IEEE 1394 et divers autres composants personnalisés.



De même, le terme carte mère décrit un appareil doté d’une seule carte et sans extension ou capacité supplémentaire, comme les cartes contrôleurs des imprimantes laser, des téléviseurs, des machines à laver, des téléphones portables et d’autres systèmes embarqués avec des capacités d’extension limitées.


Justement, l’Apple ][ avait des connecteurs permettant d’enficher des cartes filles (lecteur de disquettes, carte imprimante, …) Elle est doc bien antérieure à celle d’IBM.




refuznik a dit:



De même, le terme carte mère décrit un appareil doté d’une seule carte et sans extension ou capacité supplémentaire, comme les cartes contrôleurs des imprimantes laser, des téléviseurs, des machines à laver, des téléphones portables et d’autres systèmes embarqués avec des capacités d’extension limitées.




mainboard se traduit plutôt par carte principale (traduction littérale mais utilisée en français). Tu as réutilisé le terme carte mère.


fred42

Justement, l’Apple ][ avait des connecteurs permettant d’enficher des cartes filles (lecteur de disquettes, carte imprimante, …) Elle est doc bien antérieure à celle d’IBM.




refuznik a dit:



De même, le terme carte mère décrit un appareil doté d’une seule carte et sans extension ou capacité supplémentaire, comme les cartes contrôleurs des imprimantes laser, des téléviseurs, des machines à laver, des téléphones portables et d’autres systèmes embarqués avec des capacités d’extension limitées.




mainboard se traduit plutôt par carte principale (traduction littérale mais utilisée en français). Tu as réutilisé le terme carte mère.


Euh non l’apple II sortit en 77 n’avait pas de connecteurs seulement un port parallèle, un port série et un port scsi contrairement à ceux sorties après dans les années 80. Bon grosso modo, ils ont sortie leur trucs en même temps et IBM a utilisé le terme de motherboard qui s’est ensuite popularisé.



Maintenant de là à dire que c’est parce qu’il y avait une femme dans l’équipe franchement j’en sais rien (et je m’en fout un peu).




Tu as réutilisé le terme carte mère.



Mea culpa, j’ai oublié la négation entre cartes motherboard <> mainboard.



refuznik

Euh non l’apple II sortit en 77 n’avait pas de connecteurs seulement un port parallèle, un port série et un port scsi contrairement à ceux sorties après dans les années 80. Bon grosso modo, ils ont sortie leur trucs en même temps et IBM a utilisé le terme de motherboard qui s’est ensuite popularisé.



Maintenant de là à dire que c’est parce qu’il y avait une femme dans l’équipe franchement j’en sais rien (et je m’en fout un peu).




Tu as réutilisé le terme carte mère.



Mea culpa, j’ai oublié la négation entre cartes motherboard <> mainboard.



L’Altair 8800 avait une carte mère et des cartes filles il me semble, et ca date des années 70 :)


eglyn

L’Altair 8800 avait une carte mère et des cartes filles il me semble, et ca date des années 70 :)



Exact.



:cap:



Par contre, c’était la version 8800b sortie en 1975 qui avait 4 slots de dispos sur la carte mère.


refuznik

Euh non l’apple II sortit en 77 n’avait pas de connecteurs seulement un port parallèle, un port série et un port scsi contrairement à ceux sorties après dans les années 80. Bon grosso modo, ils ont sortie leur trucs en même temps et IBM a utilisé le terme de motherboard qui s’est ensuite popularisé.



Maintenant de là à dire que c’est parce qu’il y avait une femme dans l’équipe franchement j’en sais rien (et je m’en fout un peu).




Tu as réutilisé le terme carte mère.



Mea culpa, j’ai oublié la négation entre cartes motherboard <> mainboard.



Si, il y avait des connecteurs avant l’IBM PC.


refuznik

Euh non l’apple II sortit en 77 n’avait pas de connecteurs seulement un port parallèle, un port série et un port scsi contrairement à ceux sorties après dans les années 80. Bon grosso modo, ils ont sortie leur trucs en même temps et IBM a utilisé le terme de motherboard qui s’est ensuite popularisé.



Maintenant de là à dire que c’est parce qu’il y avait une femme dans l’équipe franchement j’en sais rien (et je m’en fout un peu).




Tu as réutilisé le terme carte mère.



Mea culpa, j’ai oublié la négation entre cartes motherboard <> mainboard.



Là, tu me fais plus penser à l'Apple IIc, qui se contentait des ports mais n'était pas extensible au niveau électronique, si mes souvenirs sont bons. En même temps, au vu de sa compacité extrême pour l'époque (tant de puissance, avec même un lecteur de disquettes 5'1/4 intégré, dans seulement 3,5kg !) ça aurait été compliqué.

Le terme “Motherboard” remonte au début des années 70’s, et n’a pas vraiment de “créateur/trice”, en tout cas, on ne sait pas…
Je sais pas d’où vient leur trip de l’invention du terme en 1981…


Super cet article, ça m’aura permis de découvrir le terme “personne queer”, à 70 ans, il était temps, mais bon, j’ai bien peur qu’il ne m’en reste que ça (Al ?).
Pour ce qui est de l’emploi, le ratissage sera toujours lié au rapport demande/offre, peu de demande, on ratisse écrémé, beaucoup de demande, on ratisse profond.
Pour la carte mère, je n’avais jamais fait le rapport avec la féminité, franchement, j’en fréquente depuis longtemps, mais j’étais plutôt sur un rapport maman enfants, et dans mon esprit arriéré, une maman n’est pas une femme, vu par ses enfants.



Avec Electronic Tales, elle décide de se pencher « sur les sujets de fond : l’algorithmie, le design de systèmes, le hardware… »




L’algorithmique nondidju !



Mon espoir c’est que, grâce à cette nouvelle génération de développeuses formées par E.T. (hein ?), on n’aura plus jamais droit à un Sith en maintenance !



:mdr2: :francais: :best: …Maître Flock ! :incline: :yes: :chinois: :xzombi:



  • « Pour comprendre l’importance de la carte mère, il faut remonter à l’apparition du premier PC, l’ IBM 5150, qui a été dévoilé le 12 août 1981. Logiquement, ce premier ordinateur était beaucoup plus simple que ceux que nous avons tous chez nous aujourd’hui.
    Les premiers ordinateurs étaient basés sur une architecture très simple, et le firmware du processeur comprenait la plupart des fonctions que la carte mère remplit aujourd’hui. Le problème était que chaque fois que vous vouliez changer quelque chose, vous deviez réécrire le firmware, ce qui rendait le processus très complexe et coûteux. De cette façon, si un utilisateur voulait changer un élément sur son PC, le firmware devait être changé pour un qui contenait les informations nécessaires à son fonctionnement.
    Ce n’est qu’à la fin des années 1980 que le concept de la carte mère tel que nous les connaissons aujourd’hui a été créé, son créateur était l’ ingénieur IBM Patty McHugh. »



Qui a inventé la carte mère et ce qu’elle signifiait pour l’industrie du PC - fr.comprating.com



.




  • « Construire un ordinateur à partir de composants existants s’avéra être une idée révolutionnaire.
    L’appareil pouvait être aisément reproduit. Don Estridge avait, de plus, rendu publiques toutes les spécifications techniques du PC IBM, permettant ainsi à d’autres fabricants de développer des matériels informatiques, des logiciels et des périphériques capables de se connecter sans problème au PC. Le succès et l’architecture ouverte du PC conduisirent rapidement au clonage de la machine.
    Patty McHugh, seule femme à faire partie de l’équipe de développement, est la mère de la carte mère, l’élément central de chaque PC. Son témoignage dans le film documentaire They were There met en évidence l’intensité de la mission de ces « Dirty Dozen » : « Ce que nous avons fait est inimaginable. On nous a demandé de concevoir un ordinateur et nous avons créé une industrie. »
    La distribution du PC IBM via le commerce de détail fut une autre décision innovatrice. La question qu’il fallait poser au vendeur était alors « Est-il compatible PC/IBM ? ». Le gigantesque succès de l’IBM 5150 n’était donc pas étonnant. A la fin de l’année 1981, 250.000 unités avaient déjà été vendues. En 1982, le PC IBM est la « Machine of the Year » pour Time Magazine. Le magazine ne se trompe d’ailleurs pas lorsqu’il titre à l’époque « The Computer Moves In » : l’ordinateur fait désormais partie de la vie de tous les jours. »



Il y a 30 ans, IBM a introduit l’ordinateur personnel_ - Revue Technique Luxembourgeoise



(quote:2166423:consommateurnumérique)




  • « Pour comprendre l’importance de la carte mère, il faut remonter à l’apparition du premier PC, l’ IBM 5150, qui a été dévoilé le 12 août 1981. Logiquement, ce premier ordinateur était beaucoup plus simple que ceux que nous avons tous chez nous aujourd’hui. Les premiers ordinateurs étaient basés sur une architecture très simple, et le firmware du processeur comprenait la plupart des fonctions que la carte mère remplit aujourd’hui. Le problème était que chaque fois que vous vouliez changer quelque chose, vous deviez réécrire le firmware, ce qui rendait le processus très complexe et coûteux. De cette façon, si un utilisateur voulait changer un élément sur son PC, le firmware devait être changé pour un qui contenait les informations nécessaires à son fonctionnement. Ce n’est qu’à la fin des années 1980 que le concept de la carte mère tel que nous les connaissons aujourd’hui a été créé, son créateur était l’ ingénieur IBM Patty McHugh. »



Qui a inventé la carte mère et ce qu’elle signifiait pour l’industrie du PC - fr.comprating.com




C’est un peu n’importe quoi cet article. Le “firmware du processeur”, qu’est-ce que c’est ? Évidemment, il n’y avait pas de microcode sur le 8088. Serait-ce le BIOS ? Bah non, puisque il est dit “chaque fois que vous vouliez changer quelque chose, vous deviez réécrire le firmware”, alors que ce n’était pas le cas avec le BIOS. Les cartes ISA pouvaient avoir leur propre extension de BIOS (je le sais, j’ai fait des cartes ISA à l’époque).
Bref, ça semble être un bon gros bullshit.


De ce que j’en comprends, le PC IBM 5150 était le 1er micro-ordinateur à permettre le changement d’un composant sans changer quoi que ce soit au micro-processeur. Il suffit de brancher une carte d’extension sur la carte-mère et d’installer son pilote (compatible avec la carte-mère et avec le système d’exploitation).



refuznik a dit:


Euh non l’apple II sortit en 77 n’avait pas de connecteurs seulement un port parallèle, un port série et un port scsi contrairement à ceux sorties après dans les années 80.




Tous les Apple ][ avaient des slots d’extension, mais ils étaient internes, il n’y avait pas les slots sur l’arrière du boîtier comme sur les PCs. Pour les peripheral cards qui avaient un connecteur à sortir, il fallait le monter séparément sur le boîtier.


Sur l'affaire de la carte mère, j'ai corrigé pour mieux rendre compte de la réalité.
Cela dit, comme @consommateurnumérique, je suis tombée sur plusieurs articles citant le rôle particulier d'IBM et Patty McHugh au moment d'écrire l'article. En voici quelques-uns :
https://www.techwalla.com/articles/the-invention-of-the-first-motherboard
https://visual.ly/community/Infographics/computers/history-computer-motherboard
https://mujeresconciencia.com/2021/03/18/patty-mchugh-la-ingeniera-madre-de-la-placa-base/
Modifié le 21/11/2023 à 11h31
Désolé d'avoir abordé le sujet et en avoir fait involontairement la discussion principale des commentaires.

Mais cela illustre très bien l'article (je me rattrape comme je peux ) et le côté gap culturel qu'il peut y avoir entre des gens qui, comme nous qui avons commenté le sujet, ont une forte culture informatique et des gens à qui on a dit qu'ils seraient développeurs après une formation (trop) courte et qui sont confrontés à une distance/différence culturelle importante.

Par contre à ce sujet, je ne suis pas d'accord avec cette affirmation : "ça n’est pas non plus celle des organismes qui les ont formés – il a bien fallu faire des choix sur les programmes."

Expliquer ce qu'est un ordinateur, comment c'est fait et comment les logiciels (de différents niveaux) s'architecturent et fonctionnent, c'est un pré-requis indispensable pour des développeurs. Ils comprendront mieux ce qui se passe avec leurs développements et auront une culture de base qui leur permettra de mieux échanger avec ceux qui ont suivi un parcours plus classique.
Par contre, c'est tout à l'honneur de cette personne d'avoir vu ce manque et d'essayer d'y remédier.

J'espère que les commentaires vont maintenant aller dans cette direction.
Modifié le 21/11/2023 à 13h18
J'ai beau chercher je ne vois pas sur quoi se base Britanica pour dire que la carte mère du PC de 81 est plus une "carte mère" que celle de l'Apple II de 77, il avait exactement les mêmes composants (processeur, ram, bios, connecteurs pour cartes filles), cela se voit bien sur la photo capot ouvert : https://en.wikipedia.org/wiki/Apple_II_series#Apple_II

ericse

J'ai beau chercher je ne vois pas sur quoi se base Britanica pour dire que la carte mère du PC de 81 est plus une "carte mère" que celle de l'Apple II de 77, il avait exactement les mêmes composants (processeur, ram, bios, connecteurs pour cartes filles), cela se voit bien sur la photo capot ouvert : https://en.wikipedia.org/wiki/Apple_II_series#Apple_II
Sur Apple II, il semble qu'il fallait toucher à la programmation du micro-processeur :

http://www.apple-iigs.info/doc/fichiers/applestandard.pdf

La carte-mère du PC IBM 5150 à l'avantage de permettre le changement d'un périphérique ou d'une carte d'extension sans toucher au micro-processeur de la carte centrale.

consommateurnumérique

Sur Apple II, il semble qu'il fallait toucher à la programmation du micro-processeur :

http://www.apple-iigs.info/doc/fichiers/applestandard.pdf

La carte-mère du PC IBM 5150 à l'avantage de permettre le changement d'un périphérique ou d'une carte d'extension sans toucher au micro-processeur de la carte centrale.
Je ne comprends pas trop ce que tu veux dire par "toucher à la programmation du micro-processeur" ? Et en quoi cela disqualifierait la carte de l'Apple II ?

Ce n'est pas vraiment le fond (de panier) de l'article, mais puisque l'on parle de culture informatique autant éviter les approximations.

ericse

Je ne comprends pas trop ce que tu veux dire par "toucher à la programmation du micro-processeur" ? Et en quoi cela disqualifierait la carte de l'Apple II ?

Ce n'est pas vraiment le fond (de panier) de l'article, mais puisque l'on parle de culture informatique autant éviter les approximations.
Le PC IBM 5150 est le 1er micro-ordinateur à permettre le changement d'un périphérique avec seulement un branchement + pilote à installer. La révolution est de permettre une installation facile d'une carte d'extension ou d'un périphérique. Sur l'Apple II, comme décrit sur le pdf qui est en lien dans mon précédent commentaire, il y a besoin de programmer le micro-processeur pour qu'il reconnaisse le nouveau périphérique.

Sinon, l'Apple II pouvait accueillir des cartes d'extension, tu as raison. Mais c'était limité à quelques matériels compatibles et c'était contraignant à mettre en service.

Tout ce que j'écris est dans les sources que j'ai trouvé. Pour en savoir plus, suivre les liens dans les commentaires précédents. Désolé si je suis approximatif ou peu clair.
Modifié le 26/11/2023 à 19h33

consommateurnumérique

Le PC IBM 5150 est le 1er micro-ordinateur à permettre le changement d'un périphérique avec seulement un branchement + pilote à installer. La révolution est de permettre une installation facile d'une carte d'extension ou d'un périphérique. Sur l'Apple II, comme décrit sur le pdf qui est en lien dans mon précédent commentaire, il y a besoin de programmer le micro-processeur pour qu'il reconnaisse le nouveau périphérique.

Sinon, l'Apple II pouvait accueillir des cartes d'extension, tu as raison. Mais c'était limité à quelques matériels compatibles et c'était contraignant à mettre en service.

Tout ce que j'écris est dans les sources que j'ai trouvé. Pour en savoir plus, suivre les liens dans les commentaires précédents. Désolé si je suis approximatif ou peu clair.
Votre PDF énorme ne dit pas cela.
Les cartes d'extensions de l'Apple II avaient une ROM avec le logiciel pour piloter le matériel. Les premiers Apple II avaient besoin que l'on tape une commande pour l'activer, le fameux PR#6 pour lancer le lecteur de disquette par exemple, mais ensuite (Apple II+), cette activation est devenue automatique. Voir ici : https://en.wikipedia.org/wiki/Apple_DOS.

Mais on dérive sur le logiciel et ça n'a plus rien à voir avec le fait que la carte électronique de l'Apple II correspondait bien à la définition d'une carte mère comme celle-ci ne parle pas de logiciel.
C'est effectivement essentiel de faire passer une certaine culture aux nouveaux développeurs.
La plupart des reconvertis ne comprennent pas la gestion de la mémoire par exemple. Ca peut sembler anodin, mais ça permet d'expliquer clairement les "petits écueils" lors de la concaténation de chaînes ou leur analyse (genre des goulets d'étranglement CPU sur de gros fichiers JSON ou XML).
De même, faire comprendre que l'ASCII, c'est du passé, mais encore bien présent et que la gestion des dates, c'est tout un domaine :)
Enfin, faire comprendre que grosso modo, il n'y a pas grand-chose d enouveau, juste des gens qui réinventent la roue tous les 4 ans parce que celle d'avant était trop compliquée - tout ça pour refaire les mêmes erreurs et arriver aux mêmes conclusion et 4 ans plus tard, devoir ressortir un nouvel outil car la courbe d'apprentissage du précédent semble être une falaise infranchissable et interminable.

Bref, dédramatiser, faire avec des technos pérennes, ne pas se jeter sur une nouveauté juste parce que c'est hype mais seulement si elle résout un problème actuel et qu'on arrive à se projeter dans sa maintenance à 10 ans.

Et leur rentrer dans le crâne que python, c'est nul ( :) )
Je pense que c'est un peu pour les raisons que tu mentionnes que Java reste si présent dans les tutos : c'est une base, relativement stable, et très largement utilisée dans les entreprises, donc pour une très large part du travail des développeurs informatiques : la maintenance de l'existant.

Et oui, je suis d'accord avec toi, avoir une compréhension de base du fonctionnement de la mémoire - même sans aller jusqu'à l'allocation des pointeurs en C - est utile. Aujourd'hui, on a un peu trop le réflexe de dire : "zut, ma mémoire explose, on va ajouter de la RAM". Exemple sans doute très daté : la désérialisation complète en mémoire d'un gros fichier de données, là où un traitement à la volée de la même source de données sous forme de flux fournirait le même résultat de manière beaucoup plus économe.
Ou alors l'utilisation systématique du "SELECT *" en SQL plutôt que ne récupérer que les colonnes utiles (parce-que bon, on sait jamais...)
Sympa comme initiative, et très à propos je trouve.
J'ai l'impression que quand certaines personnes se sentent exclues d'un milieu (quel qu'il soit), on invoque souvent des causes externes (« machin ne n'aime pas, c'est parce que je suis ») sans se poser la question des causes internes (= les compétences en question), qui est cruciale à mon sens. C'est le cas typique du « commercial qui croit savoir programmer parce qu'il a déjà fait un peu de HTML ». Du coup, je trouve vouloir solutionner la question par l'angle technique est une très bonne approche.

Parce que à coté du syndrome de l'imposteur, on a aussi hélas trop de pics de Dunning-Kruger ...
Modifié le 22/11/2023 à 08h50