Conquête spatiale : la NASA sélectionne SiFive (RISC-V) pour son High-Performance Spaceflight Computing
Le 07 septembre 2022 à 05h14
1 min
Sciences et espace
Sciences
SiFive ne cache pas son plaisir d’avoir été sélectionné par l’Agence spatiale américaine « pour fournir les cœurs CPU du processeur HPSC (High-Performance Spaceflight Computing) de nouvelle génération de la NASA ».
Ce processeur « devrait être utilisé dans pratiquement toutes les futures missions spatiales, de l'exploration planétaire aux missions de surface lunaire et martienne ». HPSC exploitera huit cœurs SiFive Intelligence X280 RISC-V avec quatre cœurs RISC-V supplémentaires, pour « offrir cent fois la capacité de calcul des ordinateurs spatiaux actuels ».
Le 07 septembre 2022 à 05h14
Commentaires (23)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 07/09/2022 à 05h44
Ce surprenant, j’ai lu la même info à propos de Microchip.
https://www.tomshardware.fr/la-nasa-veut-un-processeur-hpsc-100-fois-plus-performant-que-les-solutions-actuelles/
Le 07/09/2022 à 06h02
SiFive dévelope l’architecture RISC-V, là ou Microship est un fondeur. il faut les 2 pour faire un produit final :)
C’est comme ça que je le comprend en tout cas.
Le 07/09/2022 à 08h24
MicroChip n’est pas un fondeur, mais un concepteur de microcontroleurs, FPGA et SoC. Apparemment, la puce HPSC est conçue conjointement par SiFive et MicroChip.
Le 07/09/2022 à 06h58
RISC-V semble avec cette annonce devenir un candidat sérieux pour reprendre le flambeau du PowerPC dans les applications spatiales/avioniques ou ARM/Intel sont exclus (pour des raisons différentes).
Mais si on veut que cela fonctionne, il est impératif que ce coup de pouce débouche sur une utilisation plus large en amont car ce n’est pas les volumes du spatial qui vont tirer l’affaire: Le PowerPC a dû son succès dans les applications critiques à des caractéristiques propres favorables (pas de cachotteries dans le ME et autres firmwares + grande variabilité de latence y compris dans des applications “machine à laver” hors OS, non pétri d’états indéfinis par souci de simplification/moindre conso) mais également au fait que l’industrie télécom a généré en amont des volumes suffisants et un gros boulot de déverminage des SoC ayant ensuite connu une seconde vie ailleurs et qui seront encore là pour des décennies.
Le 07/09/2022 à 07h50
Tu pourrais détailer les raisons stp ? J’imagine que ce n’est pas une uniquement une question de blindage et de contrôle d’intégrité.
Le 07/09/2022 à 08h26
Les raisons m’intéressent aussi. La NASA est bien allée sur la lune avec des processeurs intel 8066, qu’est-ce qui a changé depuis ?
Le 07/09/2022 à 08h37
Intel 8066, ça n’existe pas. Et d’ailleurs, à la date des mission Apollo, Intel n’avait pas encore conçu son tout premier microprocesseur (le 4004, en 1971). L’AGC était issu du MIT. Tu confonds avec le 8086 dans la navette spatiale qui, elle, n’est pas allée sur la lune.
Sinon, il me semblait que c’est le Z80 qui a été utilisé longtemps dans le spatial : simple, fiable, assez ancien pour penser raisonnablement que 100% de ses bugs étaient connus. Mais peut-être que je confonds, et qu’en réalité c’est plutôt en aéronautique.
Le 07/09/2022 à 08h45
Oui, petite faute de frappe avec le 8086. Et effectivement, j’ai confondu le processeur utilisé pour les missions Apollo et celui utilisé dans la navette spatiale américaine (en même temps, le 8086 est sorti alors que le programme Apollo était déjà arrêté, j’aurai dû réfléchir 😅)
Le 07/09/2022 à 08h50
La 4K. Ce serait plus difficile de faire croire qu’on est allés sur la lune. Cette fois-ci il faudra vraiment y aller et c’est compliqué.
Le 07/09/2022 à 09h03
On n’est pas encore trolldi…
Le 07/09/2022 à 09h58
Trop gros, ça ne passera pas.
Le 07/09/2022 à 08h51
double post
Le 07/09/2022 à 08h52
En même temps, les CGI ont bien progressé aussi.
Le 07/09/2022 à 09h14
Et puis Michael Bay est né entre temps.
Plus sérieusement, n’ayant pas connu la première arrivée sur la Lune, je regarderai sûrement celle-là (si on est pas tout mort de déshydratation )
Le 07/09/2022 à 12h20
Je l’évoquais un peu plus loin: ARM est pétri d’états indéfinis faute d’implémenter toute la logique permettant d’éviter, autant que possible, qu’un code puisse dérailler de manière incontrôlée.
Intel manque désormais totalement de déterminisme et impose dans les faits de ne pas maîtriser certains aspects comme le démarrage.
Pour commencer, pas facile de se faire fournir les firmwares non signés, dont le ME indispensable au démarrage, qui le sont à la première exécution en utilisant l’ID unique du processeur qui les utilise (au moins pour leurs SoC basés Xeon ou Atom ciblant l’embarqué: On a tôt fait de remarquer qu’un dump de boot flash d’une carte collé sur une autre ne permet pas de démarrer! Impossible dans ces conditions de générer une boot flash générique donc d’industrialiser un produit).
Limitations des blob binaires nécessaires à une alternative type coreboot, qui sont en réalité une version compilée de leurs reference-code (RC pour la partie plateforme et MRC pour la partie init DDR) avec qq limites d’API bloquantes pour des usages embarqués, imposant de sous traiter cet élément clef à un vendeur de BIOS (eux ont accès aux RC que l’on refuse aux clients finaux et aux FW non signés, qu’on avait eu après pas mal de palabres avant de lâcher l’affaire en raison de la non fourniture des RC qui n’avait même pas été discutable!).
Et quand tu as signé un contrat avec un vendeur de BIOS, incluant la fourniture du source et environnements de développement… bin tu te rends compte de l’affreux patchwork qui (si cela ne venait pas de dehors, donc hors scope) ne passerait aucune revue de code interne dans l’industrie! Alors aller certifier un tas de merde pareil pour de l’avionique, même pas en rêve!
Le 07/09/2022 à 23h09
Merci pour ce retour technique intéressant. J’ignorais ces évolutions, mais je suis pas surprit.
Le 08/09/2022 à 10h02
Je comprends un peu mieux. Merci !
Le 07/09/2022 à 12h52
Un Z80 est tellement simple (surtout par rapport à ce qui a suivi) qu’il comporte encore des bugs après les premiers mois (voire années) ?
Le 07/09/2022 à 19h22
Des bugs connus de tous et dont le contournement est aisé donc ce n’est pas un vrai problème.
Le 08/09/2022 à 07h11
Par curiosité, tu as un exemple particulier en tête concernant le Z80 ou un des processeurs de l’époque (le 6502 qui a également été beaucoup utilisé, dont Commodore 64 et Apple II) ?
Le 08/09/2022 à 08h29
Il y en a un dans la page Wikipédia (en).
Suivre le lien de la note pourra aussi t’intéresser.
Le 08/09/2022 à 12h53
Merci.
Étonnant que ce bug n’ait pas été corrigé au bout d’un moment (évidemment ça ne vaut que pour les puces gravées après la correction des masques).
Le 10/09/2022 à 13h23
Les programmes contournant le bug risquaient de ne plus fonctionner, à une époque où les patches n’existaient pas (ou avec des vecteurs d’information et de distribution très lent) Donc on préférait garder un bug connu et documenté, plutôt que de risquer de rendre les nouvelles séries de processeurs incompatibles avec la base de logiciels existante.