Le Grand Équipement National de Calcul Intensif va s’équiper d’un supercalculateur de 14 pétaflops
Le 10 janvier 2019 à 09h56
1 min
Sciences et espace
Le GENCI a été créé en 2007 par les pouvoirs publics. Il s'agit d'une société civile détenue à 49 % par l’État (ministère en charge de l’Enseignement supérieur et la Recherche), 20 % par le CEA, 20 % par le CNRS, 10 % par les universités et 1 % par Inria.
L'acquisition de ce supercalculateur H.P.E intervient dans le cadre de la stratégie nationale de recherche en intelligence artificielle dévoilée en novembre dernier, faisant suite au rapport de Cédric Villani sur l'intelligence artificielle.
Il est équipé de 1 044 GPU et 70 000 cœurs CPU, pour une puissance totale de 14 pétaflops, soit dix fois plus que le modèle précédent. Le supercalculateur va coûter 25 millions d'euros, auxquels il faudra ajouter son coût de fonctionnement.
De nombreux domaines sont concernés : l’aéronautique, l’automobile, l’énergie, la simulation du climat et la prévision météorologique, les matériaux, la biologie et la santé, la sécurité et la défense.
Le 10 janvier 2019 à 09h56
Commentaires (20)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 10/01/2019 à 10h08
#1
Dommage que ce soit une entreprise US et non européenne qui livre ce supercalculateur.
Le 10/01/2019 à 10h29
#2
on sais sur quel hardware sera basé la machine ?
Le 10/01/2019 à 11h30
#3
Paf, 14 pétaflops dans les GENCIves.
-> []
Le 10/01/2019 à 13h56
#4
Le 10/01/2019 à 14h00
#5
Atos
Le 10/01/2019 à 14h08
#6
Oui, le boîtier c’est du HPE SGI 8600. 32 racks, 76 m² , 27 tonnes, 1371 kW. Ensuite dedans :
Partie scalaire : 4,9 Pflops crête
Partie convergée : 9,02 Pflops crête
Réseau : Intel OPA100
Stockage : 6 baies DDN sous GPFS, Full flash (SSD), > 300 Go/s, 1 Po utiles
Le 10/01/2019 à 14h13
#7
Le 10/01/2019 à 14h50
#8
Ca devrai suffire pour faire tourner cryisis " />
Merci " />
Le 10/01/2019 à 15h28
#9
Sympa :)
Le rapport coup - puissance est toujours en faveur d’Intel face à AMD depuis l’arrivée des Zen?
Car bon Intel nous sort un peu tous les ans la même architecture depuis 4 ans.
Le 10/01/2019 à 15h39
#10
Honnêtement j’en sais rien, c’est pas mon domaine (en particulier sur des gammes orientées calcul comme ici). Mais de toutes façons je crois qu’il y a une inertie énorme dans le secteur serveur, et qu’AMD aura besoin de patience pour reconquérir, à condition que leurs solutions soient effectivement plus intéressantes.
Or, je crois avoir lu qu’en perfs brutes et en perfs/watts, Intel avait encore l’avantage, et dans ce genre de machines les perfs/watts ça compte beaucoup. Mais je ne retrouve pas ça, donc je ne m’avancerais pas plus.
Le 10/01/2019 à 16h54
#11
Atos fabrique des nodes de cluster? Ainsi que les différents commutateurs?
Le 10/01/2019 à 16h55
#12
De quand date ces réalisations de Bull? Je ne pensais pas qu’ils étaient encore dans le coup eux, c’est une bonne nouvelle si c’est le cas! :)
Le 10/01/2019 à 17h22
#13
Irène (Joliot-Curie) et TERA-1000, les deux dernières, ont été mises en places en 2017-2018 https://www.top500.org/site/47593 ethttps://www.top500.org/site/50414). Mais en fait le déploiement est encore en cours, la deuxième tranche pour Irène doit arriver en 2020, avec un passage à 20 PFlops visé.
Donc oui, Bull est encore totalement dans le coup ici au moins. ;)
Le 10/01/2019 à 17h55
#14
Merci, tu piques ma curiosité, j’avoue que ça fiat longtemps que je ne me suis plus intéressé aux HPC et leurs monstres :) (quand je vois les chiffres, j’essaie d’imaginer la gueule du dimensionnement de la clim’… et en combien de temps les serveurs se mettraient en sécurité en cas de coupure ^^)
Le 10/01/2019 à 17h58
#15
Oui, ils avaient anciennement les gammes Bullx B5xx (air cooling) et B7xx (liquid coooling), et maintenant les gammes Sequana. Et pour l’interconnect, ils utilisaient des fabricants tiers, Mellanox pour l’IB et Intel pour l’OPA, et ils ont également développé leur propre interconnect, le BXI.
De mémoire, ils ont aussi installé la dernière machine à Jülich, et ils ont pas mal de plus petites machines type tier-1 et tier-2 hors top500.
Le 10/01/2019 à 18h17
#16
Pour les défauts de clim, on a eu 2x le coup au boulot, 1x avec la machine de 20TFLOPS (2006-2011 c’est marrant de voir que ce truc de 6-7 racks 42U tiendrait maintenant dans 2U " />) et 1x avec la machine de 400TFLOPS (2011-toujours en prod), en moins de 5 minutes c’est passé de 24°C de température ambiante à plus de 60°C, et les 2x, les serveurs classiques se sont bien mis en sécurité mais pas les lames de calcul qui ont juste fait du throttling.
Le 11/01/2019 à 08h23
#17
Et encore, heureusement que tout se met en protection! Nous, même si ce n’est pas du HPC, on a eu le cas de routeurs qui ont continué à bosser… kamikazes les machins (tous n’ont pas survécu) " />
Le 11/01/2019 à 08h37
#18
Le 11/01/2019 à 09h16
#19
C’est clair, j’avais été visiter Pangea chez Total il y a quelques années, et j’avais été étonné de la “petite” taille de la machine pour un monstre pur CPU de plus de 200k cœurs.
Bien que les machines étaient plus petites, c’était déjà plus impressionnant au CCRT du temps de Tera-100 (Tera-1000 était en cours d’installation) étant donné qu’ils hébergent un paquet de machines différentes.
Sinon, celles qui doivent rester impressionnantes à voir ce sont surtout les machines qui ont siégé sur les 3-4 premières places du TOP500, avec plusieurs dizaines, voire centaines de racks.
Le 12/01/2019 à 13h44
#20
Ah c’est sûr que Submit et compagnie c’est pas la même chose.