Connexion
Abonnez-vous

Orange et HPE construiront le supercalculateur classifié dédié à l’IA de défense

Pas mal non ? C'est français

Orange et HPE construiront le supercalculateur classifié dédié à l’IA de défense

© DGA/MIP

Le ministère des Armées l’a confirmé jeudi : la mise en place du « plus puissant supercalculateur classifié dédié à l’IA en Europe » est désormais confiée au groupement constitué par HPE et Orange, vainqueurs face à Atos. Le projet doit aboutir à une mise en service d’ici fin 2025, sous la houlette de l’agence ministérielle pour l’IA de défense, qui franchit la barre des 100 ingénieurs.

Le 25 octobre à 15h23

Atos, qui discute actuellement avec l’État au sujet de l’acquisition de ses activités stratégiques, ne construira finalement pas le futur supercalculateur dédié à l’IA dans la défense française. Le ministère des Armées a en effet annoncé jeudi (PDF) avoir sélectionné le groupement constitué par HPE (Hewlett-Packard Enterprise) et Orange pour la réalisation de ce centre de données, qualifié de  « plus importante capacité de calcul classifiée dédiée à l’intelligence artificielle d’Europe ».

Deux candidats en lice

Installé au Mont-Valérien à Suresnes, aux portes de Paris, le supercalculateur sera hébergé et infogéré par la direction interarmées des réseaux d'infrastructure et des systèmes d'information de la Défense (Dirisi). Son exploitation sera quant à elle confiée à l’Amiad, l’Agence ministérielle de l'intelligence artificielle de défense, créée et installée en mars dernier.

Deux candidats s’affrontaient pour la réalisation de ce projet, dont l’enveloppe prévisionnelle gravite entre 200 et 300 millions d’euros. Atos, acteur historique du supercalcul grâce aux activités de Bull, faisait pour beaucoup office de favori. L’entreprise dispose d’une légitimité en la matière, elle travaille depuis 2004 avec la Direction des applications militaires (DAM) du CEA, et lui a fourni ses derniers systèmes dédiés en 2021. Enfin, Atos présente l’avantage d’être une entreprise française, là où son concurrent Orange a fait le choix de s’allier avec un acteur américain.

« Ce calculateur ne sera pas connecté à internet et sa maintenance sera réalisée par des citoyens français habilités au secret de la défense nationale », prend soin de préciser le ministère des Armées dans sa communication. Une façon de souligner que même si les composants sont américains, la souveraineté de l’infrastructure et des traitements qui y seront effectués est garantie.

Souveraineté et composants américains

C’est aussi le point de vue qu’a défendu Sébastien Lecornu, ministre des Armées, le 15 octobre dernier, devant la commission de défense du Sénat (voir vidéo, à partir de 54 minutes environ).

« La souveraineté en la matière est un bon débat, précisément parce qu’il n’y en a pas », a fait valoir le ministre, expliquant que 90 à 95% des GPU équipant les supercalculateurs dans le monde provenaient de NVIDIA, et soulignant que les deux offres, Atos d’un côté et Orange / HPE de l’autre, s’approvisionnaient chez le numéro un.

Le ministre a par ailleurs appelé à ne pas confondre sécurité et souveraineté, expliquant que le cahier des charges s’appliquait en des termes similaires aux deux candidats. « Quels que soient ceux qui mettront en œuvre cette affaire, toutes les procédures seront respectées. Comme je le dis souvent, beaucoup d’ordinateurs du ministère des Armées ont Microsoft, c’est comme ça, il n’y a pas de solution française. C’est plutôt la mise en œuvre de ce soft, la manière dont les ingénieurs le mettent en œuvre, avec nos protocoles de sécurité, qui nous permet justement de ne pas avoir d’ingérence », a-t-il illustré.

Toute considération sur les systèmes d’exploitation mise à part, quels sont dans ce cas les critères qui ont présidé au choix de l’offre Orange / HPE ? Le ministère ne livre aucune information à ce sujet, mais le processus de décision semble ne pas avoir été de tout repos.

« Sur les deux réponses en cours, vous avez une réponse qui apparaît sûrement anormalement faible, et une réponse dont on pourrait se poser la question (…) d’une proportion anormalement forte », a révélé Sébastien Lecornu en commission, évoquant des décalages « sur le critère des délais, du prix, de la performance et du staff humain qui est mis à disposition ». Du fait de ces écarts « anormaux », le ministre ajoute qu’il a demandé au Contrôle général des armées de reprendre l’ensemble du processus d’attribution.

Moins de dix jours plus tard, celui-ci a donc finalement validé la procédure, et déclenché l’attribution du marché. « Le supercalculateur sera livré à l’autonome 2025 et pleinement opérationnel fin 2025 », annonce le ministère.

Un supercalculateur pour l’armement « info-valorisé »

Quels en seront les usages ? Il « permettra à la France de traiter souverainement de données confidentielles, pour le besoin des armées ainsi qu’aux entreprises de défense », explique le ministère.

Cette nouvelle infrastructure – nom de code Asgard – doit notamment soutenir les travaux des Armées et des industriels de défense autour des dispositifs d’armement « info-valorisés », c’est-à-dire soutenus par l’intelligence artificielle, à l’image des programmes Scorpion (véhicules terrestres médians) et SCAF (Système de combat aérien du futur).

Elle a également vocation à soutenir les nombreux projets de recherche relatifs à l’IA, à l’échelle des différents corps de l’Armée. En mai dernier, le Centre d’interprétation et de reconnaissance acoustique, spécialisé dans l’écoute sous-marine, indiquait par exemple qu’il ferait appel à l’Amiad pour soutenir le travail de ses « oreilles d’or » grâce à l’IA.

Il sous-tendra également les différents projets de l’Amiad, qui se félicite à cette occasion d’accueillir bientôt son centième ingénieur – sur un plan de recrutement qui prévoyait 300 ingénieurs, chercheurs et doctorants, civils ou militaires, d’ici 2026. L’agence annonce ainsi avoir débuté le déploiement de Génial, un agent conversationnel, « équivalent d’un ChatGPT défense », dont l’accès sera ouvert à tous les agents du ministère des Armées dès la fin de l’année.

Commentaires (42)

votre avatar
J'allais faire une remarque sur l'armée américaine qui mettait à jour ses systèmes nucléaires (en partie) avec des disquettes 8 pouces, mais Seb m'a emboité le pas. La simplicité est parfois une bonne solution, pour ne pas finir avec un HAL 9000 (ou CARL 500 en français).
votre avatar
Orange? Alors là ça donne pas confiance... Combien de leurs produits et solutions ont fini aux oubliettes car mal conçus et développés? Ouch...
votre avatar
Comme dit par le ministre dans son passage au Sénat, pour le coup Orange, HP ou les autres intervenants sont tenus par un cahier des charges extrêmement strict, et on peut supposer que les Armées savent s'assurer qu'il est respecté. Les intervenants, quels qu'ils soient, peuvent avoir du mal à délivrer, pour plein de raisons, mais en principe ils peuvent pas faire n'importe quoi :D
votre avatar
N'était-ce pas cas aussi du super logiciel de paie développé pour les armées il y a quelques années ? Peut-être n'avait-il pas fait l'objet d'un cahier des charges aussi strict. :mrgreen:
Il est devenu quoi d'ailleurs ce soft ? O:-) :mdr:
votre avatar
Haaa tu fais allusion à Louvois, une gabegie de qualité prestige :D

ça a été remplacé y'a quelques années par un autre soft, Source Solde, que cette fois l'Armée a eu le bon sens de ne pas développer en interne. De mémoire, c'est Sopra qui pilote maintenant
votre avatar
Je crois que ça n'a pas été développé en interne.
D'apres chatGPT (si quelqu'un à une meilleure source...) :
- Louvois a été confié à Eurogroup Consulting et Mc2i Groupe
- Puis Steria
- Puis Sopra (qui a fusionné avec Steria)
votre avatar
ChatGPT ne sera jamais une source. C'est un système statistique de prédiction de mots.
Wikipedia est une source qui cite elle-même ses sources.

On y voit que chatGPT ne raconte pas l'histoire correctement.
votre avatar
ouiii c'est ça c'était Louvois. C'est un dev interne qui repose sur un soft Sopra. D'après wikipedia (https://fr.wikipedia.org/wiki/Logiciel_unique_%C3%A0_vocation_interarm%C3%A9es_de_la_solde), la première version a été faite sur une base d'un soft propriétaire de Sopra, puis refait de zéro en interne, puis donné à Steria à partir des règles développées en interne.
Eurogroup et MC2i étaient là pour la déploiement avec Steria.
Je souhaite qu'ils aient appris de leurs erreurs.
votre avatar
L’agence annonce ainsi avoir débuté le déploiement de Génial, un agent conversationnel, « équivalent d’un ChatGPT défense », dont l’accès sera ouvert à tous les agents du ministère des Armées dès la fin de l’année.
Ils n'ont manifestement pas écouté le podcast Génial de Mathilde Saliou, qui dénonce justement les biais et autres hallus, qui entraînent des conséquences parfois dramatiques sur des vies humaines (allocs coupées, soupçons de fraude sans fondement, chômage, recrutement...) !

:mega: Non mais allo les gars ! Vous dépensez des milliards pour cette merde, alors qu'il y a des alternatives à l'IA bien plus efficaces et moins coûteuses en temps de calcul ? Et toutes les recherches très avancées en informatique (autre que l'IA) de ces dernières années, c'est pour les Dugong ?

Ils sont absolument adorables et méritent d'être protégés, c'est un fait, mais désolé, les "compioutaires", ils s'en fichent comme de leur premier brin d'algue...

(EDIT: en fait, plus ça va, plus je pense que les AI actuelles sont juste pour compenser le fait qu'on n'a toujours pas découvert de civilisations extra, du coup l'humanité qui ne croit plus au Père Noël se sent horriblement seule et abandonnée, du coup : IA qui parle, n'importe quoi pour meubler le vide, intérieur et extérieur... :craint: )
votre avatar
Heureusement que tu es là pour nous montrer à tous LA voie, et que tu connais mieux le sujet que des gens dont c'est le domaine, notamment grâce à un "podcast" militant!

N'hésite pas à écrire à la DGA pour leur dire que tu peux remplacer toutes les équipes qui travaillent sur ces sujets au sein des forces de défense, en tant que sommité.
À la réflexion, vu toutes tes autres interventions, tu peux même demander à l'ONU directement un poste de "sachant bienveillant illuminé ultime", ça ira même plus vite comme ça.
votre avatar
Ça y est. Vous avez trouvé votre ennemi pour dire enfin votre déplaisir.
votre avatar
Heureusement, @Myifee, que tu es là pour dire quelle est la seule façon "normale" de penser !
Tout le monde sait que penser par soi-même, avoir son propre avis (qui n'est pas plus important que n'importe quel autre avis), ça ne devrait pas exister !

#Il #FAUT #penser #exactement #comme #les #réseaux #sociaux, #et #pas #autrement, #épissétout !

"Toute déviation est très dangereuse et devrait être éliminée." Bienvenue à Mouton Land ! :bocul: :fume:

P.S. Même s'il est vrai que je n'y connais rien, je me réfère aux spécialistes interrogé.e.s par Mathilde Saliou, qui connaissent bien le sujet et surtout ses conséquences concrètes.
votre avatar
Dans penser, il y a penser, et pas seulement réciter l'évangile selon Saint Podcast.

Je sais qu'il est de bon ton de critiquer l'IA, surtout quand on y comprend rien. Mais c'est extrêmement présomptueux de parler de "merdes", "d'alternatives" etc face au travail d'équipes entières, tout ça pour s'avouer incompétent au plus au point à peine un message après.
votre avatar
Vive la Vérité révélée selon Saint Myifee ! :chinois: Amen ! :incline:
:fume: Cela dit, je te souhaite une bonne journée, au revoir ! :byebye:

P.S. : Un complément d'information, par un autre spécialiste en IA, à voir en entier, passionnant et édifiant ! :eeek2:
(Lien de @gg40, que je remercie).

P.S. 2 : Un deuxième complément d'information pour appuyer mon propos.
votre avatar
@Myifee Quand on lit vos commentaires qui politisent tout dès qu'un article ne pense pas comme vous, c'est l'hôpital qui se rit de la charité. Mettre des gens dans des cases c'est OK, mais donner son avis de néophyte c'est mauvais. Essayez de tenir compte des différents avis, surtout s'il vous agacent, vous apprendrez peut-être parfois quelques trucs même si ça vous engage à sortir du confort de vos piètre certitudes.
votre avatar
Qu'avons-nous tous collectivement à apprendre de quelqu'un qui avoue être incompétent dans un domaine mais pétris de certitudes et d'avis qui ne sont même pas les siens ?

Si tu ne vois pas la différence entre donner son avis de néophyte et se promouvoir donneur de leçons sur tous les sujets sans rien y connaître, je comprends pourquoi tu le défends avec tant de vigueur...
votre avatar
C'est en voyant ce genre de réaction épidermique que je regrette de voir que Next biaise l'opinion de son lectorat avec une couverture aussi négative du sujet.

L'IA est aussi utilisée pour l'aide au dépistage des cancers du sein, possibilité de faire un premier dépistage de cancer de la peau en pharmacie, aide au diagnostique de l'épilepsie pour prendre des exemples de mise en application positives des technologies autour du deep learning.

L'Inserm avait publié un long article plutôt intéressant en 2018, rafraîchi en début 2024 sur des cas d'usage de l'IA dans la santé, et équilibré en matière de recul sur le bullshit autour des technologies et ses risques à prendre en compte.
votre avatar
@SebGF Ce serait moins grave de faire de la publicité (ne pas parler de ce qui va de travers) que de parler de ce qui dysfonctionne au risque de mettre un frein à cette belle industrie qui peut bien déconner de temps en temps. Perso, j'espère que vous avez la conscience tranquille avec de telles œillères.
votre avatar
Ma conscience se porte très bien.

D'ordre général, elle vomit sur les raisonnements binaires "bien/mal", "vrai/faux", "blanc/noir".

Un mot important se trouvait dans mon message, saurez-vous le trouver ?
votre avatar
@SebGF J'avais compris qu'on n'avait pas le droit de remettre en cause vos artifices. J'en suis fort aise pour votre confort. Bon dimanche
votre avatar
Si c'est ce que tu as compris de ma position dans le sujet, dans ce cas tu ne l'as pas comprise.
votre avatar
Chacun sa conscience. Si la votre préfère que l'on dise du mal de l'IA quelle qu'elle soit et qu'on évite ainsi des détections précoces de maladies graves juste parce qu'une branche de l'IA (l'IA générative) est souvent mal utilisée et donne donc des résultats qui paraissent critiquables, grand bien vous fasse. Mais réfléchissez un peu et j'espère que vos jugements passés à l'emporte-pièce vous empêcheront de dormir.
votre avatar
@SebGF Je comprends que la réalité est complexe, en fait ce qui m'a fait réagir un peu fortement c'est la partie "agent conversationnel", soit une "innovation" en laquelle personnellement je ne crois pas du tout, et qui peut être une source d'erreurs et de biais, surtout si ledit agent est interrogé par des non-spécialistes pas totalement au fait des possibles erreurs. Je cite - et faites bien attention aux termes utilisés :
"L’agence annonce ainsi avoir débuté le déploiement de Génial, un agent conversationnel, « équivalent d’un ChatGPT défense », dont l’accès sera ouvert à tous les agents du ministère des Armées dès la fin de l’année."
"Tous les agents" inclus donc aussi des non-spécialistes, et ça, AMHA ça ne passe pas du tout !

Par contre, que des algorithmes très spécialisés ET entraînés dans ladite spécialité ET interrogés par des spécialistes et uniquement par des spécialistes, puissent être utiles à la Science avec un grand S, je le conçois fort aisément ! J'étais au courant de l'utilisation de l'IA dans les recherches en cancérologie, grâce à un article dans un magazine scientifique dont j'ai oublié le nom... Je crois que c'est Epsiloon, mais je n'en suis pas sûr...

Et j'ai aussi l'impression persistante que toutes ces projets de recherche / développement avec le mot magique "IA" dedans ont complètement "bouffé" toute l'attention et les crédits accordés aux chercheurs et autres pionniers en informatique, qui ne tournent pas tous autour de l'IA. Il existe plein, plein de domaines différents, comme les réseaux ou la cryptographie par exemple, qui ont aussi besoin de crédits et d'attention.
votre avatar
Le chat bot c'est souvent le premier use case de mise en oeuvre. J'ai vu passer la même chose pour du juridique ou encore du support de niveau 1 IT.

Pour la petite anecdote, j'ai travaillé sur ce dernier cas et j'avais considéré le besoin métier comme overkill par rapport à la finalité. Le support voulait un chat bot pour que les exploitants N1 (profil = 1er type choppé dans la rue avec comme seul critère savoir parler anglais) obtiennent des infos sur des procédures type pilotage. J'ai pas trouvé celui-ci très pertinent et j'avais plutôt préconisé d'utiliser la BDD de l'ITSM pour exploiter les dix ans d'incidents et problèmes qu'elle contenait comme support de connaissance. Ca ne c'est pas fait, hélas.

Néanmoins, cette implémentation, et je l'ai vue plusieurs fois, c'est du RAG. Le modèle sert avant tout à traiter de vraies données en direct (le tout stocké dans des bases vectorielles, plus adaptées pour le ML) et va rechercher dans des vrais docs. Le risque de biais ou d'erreur est moins élevé car on utilise pas les "connaissances" du modèle (en dehors des cas d'usage pour exploiter les capacités d'analyse sémantique des LLM, reposer uniquement là-dessus est une connerie, je l'ai déjà répété plusieurs fois ici d'ailleurs) mais des données réelles. Par contre il réside toujours un risque de déformation du contenu, cela dépend avant tout du paramétrage (trop déterministe ou trop aléatoire). C'est d'ailleurs pour ça que la traduction par un LLM est sujette à précaution. Le LLM ne traduit pas, il réécrit le texte (de mémoire, il est conseillé d'utiliser des paramètres plus déterministes pour ça). Ça dépend aussi de l'efficacité du modèle. Dans mes bricolages perso, j'ai vu de sacrés écarts entre Mixtral et Llama par exemple (en la défaveur du premier, mais celui-ci commence à être vieillot et je pense que Large se fera moins avoir).

Dans le cas du RAG, le modèle récupère des informations et, surtout, cite les documents sur lesquels il s'est appuyé pour produire son résultat. Et si celui-ci a fait l'objet d'un entraînement spécialisé sur les données de la défense, le risque qu'il se plante est réduit. Un peu comme un modèle spécialisé dans le juridique entraîné sur les textes de loi, les décisions de justice, etc. De manière hyper vulgarisée, un modèle de langage il apprend à lire quand on l'entraîne. Plus on l'entraîne sur une masse de données, plus il sera capable de comprendre la sémantique. Et plus on l'entraîne sur des données spécialisées (fine tuning), plus il sera pertinent dessus.

De mon côté, dans les expériences pro que j'ai pu avoir avec les produits d'IA générative, j'ai pu tester l'intégration de GitHub Copilot avec des devs (les retours furent intéressants et même assez prévisibles, les juniors enthousiastes, les seniors trouvant vite les limites du produit), ou encore la conversion de code entre deux versions majeures d'un framework spécifique qui avait permis de déblayer du 70/30.

Du côté de l'algorithmie pure et dure, je suis incompétent dans le domaine, c'est pas mon métier. Là où les modèles de langage, de text to speech et inversement, ou de diffusion, restent des logiciels du marché qu'on intègre dans un SI. Et là, c'est mon métier et j'aime bien ouvrir le capot pour comprendre un minimum comment ça marche :D

Pour ton dernier point, je déplore aussi ces effets de mode dans le public et le privé qui détournent l'attention que d'autres projets mériteraient d'avoir. On nous a vendu ces dernières années de la blockchain, du metavers, et j'en passe et des meilleurs, là où les entreprises n'en ont pas grand chose à faire. J'ai quand même observé que pour l'IA générative, le métier s'est montré plus moteur dans la recherche de cas d'usages car c'était plus concret pour eux que la techno à la mode du moment. C'est aussi une des rares technos "récente" (parce qu'elle est quand même vieille) pour qui on peut avoir des résultats visibles (bons et mauvais, souvent mauvais par méconnaissance et inexpérience) et des PoC parlants. Là où un commercial qui vendait de la blockchain et du NFT, c'était que de la projection nébuleuse.
votre avatar
Merci pour ton expérience ! :yes:

Ton témoignage est important dans le sens où nous en apprenons un peu plus sur l'aspect "intégration du ou des modèle.s" intégration qui du coup apparaît être une phase excessivement délicate. Suivant le talent de l'intégrateur (et la connerie du client... :roll: ), l'application qui en résulte peut tout autant rater sa cible que rendre un service réellement utile et utilisé au quotidien.

(Concernant la traduction automatique, je me suis déjà exprimé sur le sujet dans ces colonnes, en tant que traducteur amateur (bénévole) de sous-titres de séries tv, curieux de tester la chose (exemple : DeepL), j'ai vite compris les limites et l'inutilité des AI de traduction pour tout ce qui touche de près ou de loin à une œuvre d'art, et pour moi les séries télé / web et anime sont des œuvres d'art qui méritent d'être respectées.

Pour cela une recherche contextuelle / vocabulaires spécialisés métiers / expressions urbaines ou argotiques est absolument indispensable, si on veut un minimum de qualité, le tout adapté à un public Français qui n'a pas forcément toutes les refs. Et ça, les IA en sont incapables... pour le moment !)

Enfin, concernant la blockchain, mon texte de référence, incroyablement bien argumenté et construit, avec des exemples concrets, est celui-ci : Blockchain, the amazing solution for almost nothing.

(scroller vers le bas pour lire l'article, en regrettant amèrement au passage que le très remarquable site de réflexion "The Correspondent" qui m'a tant apporté ait dû fermer ses portes... :pleure: )
votre avatar
Oui, clairement, la difficulté dans l'intégration de modèles d'IA, c'est de bien les configurer. Les installer et les intégrer, ça se fait en trois clics. Si c'est un service managé (type API d'OpenAI, Mistral, etc), c'est juste dix lignes de Python et une clé d'API et c'est torché. Si c'est on-premise, c'est un peu plus complexe mais ça reste de l'installation de logiciel. Ça demande juste des machines assez puissantes.

Mais derrière, il faut déjà commencer à donner un bon system prompt au modèle, qu'est-ce qu'il doit faire et ne pas faire.

Exemple : tu es un assistant pour un accueillir les clients d'une assurance, tu ne parles pas des autres compagnies. Dans le cas de celui sur lequel j'avais bossé, le system prompt indiquait que le bot ne traitait pas d'autres questions que celles relatives aux incidents à analyser (ex : demande lui où acheter une playstation, il refusera de répondre).

Ensuite, l'efficacité du modèle à bien le prendre en compte est importante. Sans oublier les paramètres de température, les top je-sais-plus-quelle-lettre, pour le rendre plus ou moins déterministe ou créatif, etc.

Un article que je recommande pour comprendre comment fonctionne GPT (et certainement les autres modèles de langage) d'une façon accessible et imagée : How GPT works: A Metaphoric Explanation of Key, Value, Query in Attention, using a Tale of Potion.

Tiens, ce week end j'ai voulu essayer de me faire un petit assistant de relecture pour mes écrits (il fait un résumé, relève les fautes de français, les tournures lourdes, et propose une critique). En raison de la limite technique, j'avais dit au modèle "attend que l'auteur te dise quand procéder". J'envoyais les morceaux de texte petit à petit parce que le prompt allait être trop gros.

Sur Llama 3, il répondait à chaque entrée de texte : "OK, dites moi quand je peux y aller". Puis je lui donnai le go et il me fit son rapport. La qualité du rapport était correcte mais évasive sur la liste des erreurs et tournure (mais mon system prompt devait jouer).

Sur Mixtral (plus vieux), il fut incapable de s'arrêter et balança direct l'analyse sans attendre que j'ai mis tout le texte, un véritable ado en pleine puberté. Le rapport était à chier, il inventait des fautes, ne comprenait pas les tirets cadratins, et parfois il confondait les guillemets anglais et français.

J'ai pas pu aller trop loin car la machine qui faisait tourner le modèle était limitée et les gros prompts plantaient le bazar. J'ai essayé le même exercice sur les modèles hébergés par Infomaniak, mais ils ont aussi des limitations techniques je pense, car au bout de 3 gros prompts plus de réponse.

Un article sur Next avait parlé d'un POC en Australie qui n'avait pas abouti (j'ai pas réussi à le retrouver, le moteur de recherche est toujours perfectible). Dans ma lecture du document, j'y voyais que le temps accordé à l'étude fut très réduit et qu'ils ont pas eu la possibilité de raffiner le paramétrage et le system prompt. Le résultat fut inefficace, et pas surprenant en raison du délai accordé.

Bref, s'pas magique contrairement à ce que les vendeurs font croire.

J'avais lu ton retour d'expérience sur la traduction automatisée et j'avais trouvé le point de vue très intéressant :)

Merci pour l'article sur la blockchain, je garde ça de côté.
votre avatar
Urgence à IA pacifiste, ce serait quand même plus futé.
votre avatar
Le "Skynet...I'll be back" à la française. :roll:
Et le chat de "schrodinger" il sera mort ou vivant une fois le projectile tiré? :mad:
votre avatar
Il y a un truc que je comprends pas avec l’IA: à la fois ça hallucine, ça comprend rien aux maths etc. etc. mais de l’autre côté ça permet d’avancer grandement sur le pliage des protéines, de proposer de nouveaux traitements etc. etc.
Donc quoi, la seule différence entre les deux cas c’est la phase de test (pour la partie scientifiques) ?
votre avatar
En fait il n'y a pas une IA mais des IA : les IA 'généraliste' que l'on nous propose (ChatGPT) ne sont pas vraiment convaincantes. Et il y a les IA spécifiques, entrainées pour un besoin bien précis (par exemple reconnaitre les molécules) qui ont des résultats très prometteurs.
Donc, comme pour un humain, c'est son type d'entrainement/expérience qui permettra à une IA d'être performante. Comme le disait Holmes, 'a quoi cela me sert (dans mes enquêtes) de savoir que le soleil tourne autour de la terre ?' ...
votre avatar
Merci pour la précision 🙏
votre avatar
Bravo le sous titre ! 😁
Heureusement, ce n'est pas un article sur le cyclimse...
votre avatar
« Le supercalculateur sera livré à l’autonome 2025 et pleinement opérationnel fin 2025 »,

Quand on prends du Nvidia on attend plus longtemps, beaucoup de boites n'arrivent pas à avoir des GPU Nvidia. Je dirais plutôt 2026 que 2025
votre avatar
C'est pas plutôt d'HPE dont il s'agit ? C'est pas trop le métier d'HP, les supercalculateurs (on me dira, c'est pas non plus celui d'Orange…). Et comme beaucoup de gens n'arrivent toujours pas, dix ans après, à comprendre que HP et HPE sont deux sociétés distinctes, je me pose la question…
votre avatar
Oui, c'est HPE, et donc sans doute Cray.
votre avatar
Franchement, Orange sur ce secteur... A part pour l'aspect réseau de la machine, j'ai du mal à voir en quoi Orange est un choix pertinent d'un point de vue technique. Certes leur réseau est très bon, mais leur box sont nulles.
HPE (et oui je pense pas que ce soit HP), est un choix raisonnable mais Atos est français. Oui, ils ne produisent pas leur propre matériel, mais c'est pas de leur faute. La France n'a pas les politiques adaptés à ses cerveaux, et puis il faudrait pas vexer les américains & Ursula.

Par contre, le "comme je le dis souvent, beaucoup d’ordinateurs du ministère des Armées ont Microsoft, c’est comme ça, il n’y a pas de solution française. C’est plutôt la mise en œuvre de ce soft, la manière dont les ingénieurs le mettent en œuvre, avec nos protocoles de sécurité, qui nous permet justement de ne pas avoir d’ingérence"

Et comme je le dis souvent les politiques sont les derniers de classes en informatique ! (Au tiens, encore un gars sortant de fac de droits... De là en tirer une causalité....)L. a solution française monsieur le ministre des armées, c'est un buget et des ingénieurs pour maintenir une distro Linux adapté ! Vu la gabagies de la Macronie, ça doit bien pouvoir se trouver, non ?!
Et là monsieur le ministre, c'est français, souverain et sécurisé !!

PS : ça vous parle le IME, la NSA, le Dual EC RGB et le principe de Kerchkoff et Palentir ?
votre avatar
Les box c'est Sagemcom, hein (et pour moi, le matos est pas si mauvais c'est la couche soft qui est catastrophique dans ces box, tant en terme de stabilité que de fonctionnalités. Or pour ces dernières c'est bien orange qui est à la manœuvre).

Pour le réseau, je suppose que ça dépends assez fortement des critères personnels sur ce qui est bon ou pas.

HP je suis pas fan non plus mais plus sur l'aspect commercial (coder les SFP et les disques pour qu'on puisse ne mettre que ceux acheté 10x le prix chez HP par exemple) que sur le matériel , sur lequel j'ai eu, statistiquement, plus de panne que sur du Dell par exemple (je parle de serveurs) - et là encore impossible de savoir "ce qui se passe" , le support réponds "achetez un nvx serveur car le votre est plus sous garantie".
votre avatar
Yep, pour les box je parlais spécifiquement du soft. J'étais au courant pour Sagemcom grâce à la vidéo de DeusExSilicium.

Malheureusement pour Orange, ils n'ont jamais réussi à construire une infrastructure cloud efficace en leur temps. D'où le fait, que mis à part le réseau je ne vois pas l'intêret d'Orange sur le plan technique.
En revanche, si on dézomme un peu on peut en voir un. Les états-unis utilise les entreprises françaises comme vecteur pour infiltrer nos derniers marchés (Comme Thalès avec son cloud US mais normalement SecNum...). Et toute le monde est gagnant à court terme. Les US ont leur marché chez nous et nous affaiblissent (note que les politiques français aident aussi de leur coté) et les boîtes françaises ont des rentrées d'argent sous forme d'un "loyer". Mais sur le moyen ou long terme, si on ne se dépêche pas de stopper ceci on est bon pour être dépendant des US comme un drogué de son dealer...

Le support de ces boites que tu cites je ne les aime pas. Faut batailler des heures pour avoir quelqu'un de compétent techniquement qui ne lie pas sa fiche. Par contre, une fois que tu arrives à cette personne, les problèmes sont vite résolus. Pour le support commercial... Je n'ai jamais eu assez de points en diplomatie pour pouvoir parlementer avec eux, merci aux collègues qui pouvait me remplacer :)
votre avatar
Je peux t’assurer qu’on sait faire du cloud efficace.
C’est juste pas mis en avant parce que Cloud Avenue, le navire amiral (et FCA/FE/FCP en leur temps) sont des usines à gaz, avec trop d’intervenants et de commerciaux, chefs de projets et toute l’armée mexicaine. (Et probablement quelques décisions discutables dues à des tentatives de faire simple)
Ça n’est pas tellement compatible avec une tentative de cost-killer tel que les GAFAM les ont construits…

Il y a des clients privés, qui ont leur cloud privé, qui sont très contents de ce qu’on leur a construit.
votre avatar
Autant pour moi. J'en étais resté à ces histoires d'usine à gaz avec d'autres ESN qui n'avaient pas vraiment eu du succès.

Mais néanmoins, si je comprends mieux la position d'Orange je vois pas le lien avec le HPC. L'infra est une chose, mais les outils derrières (toolchains, compilateurs), le portage des libs et l'optimisation des codes, etc.... C'est pour la partie HPE ?
Parce qu'HPE, Eviden et co j'en ai entendu parlé sans soucis, mais je n'ai jamais vu ni eu un interlocuteur d'Orange dans ce domaine.
votre avatar
Ah ça… on verra le succès de Bleu hein :fume:
votre avatar
le Dual EC RGB
Dual_EC_DRBG

Comme je ne connaissais pas, j'ai cherché ce que c'était.

Orange et HPE construiront le supercalculateur classifié dédié à l’IA de défense

  • Deux candidats en lice

  • Souveraineté et composants américains

  • Un supercalculateur pour l’armement « info-valorisé »

Fermer