Connexion
Abonnez-vous

Tera 1000 : le supercalculateur le plus puissant d’Europe entre dans le « Top 15 »

Tera 1000 : le supercalculateur le plus puissant d'Europe entre dans le « Top 15 »

Le 26 juin 2018 à 09h38

Alors que les Américains viennent de reprendre la tête de celui qui a le plus gros (supercalculateur), le CEA et Atos hissent leur machine à la 14e place.

« Tera 1000 devient ainsi le supercalculateur généraliste le plus puissant d’Europe, atteignant une puissance de calcul de 25 pétaflops pour une consommation énergétique extrêmement compétitive de 4 MW » expliquent-ils. Cette étape ouvre la voie à une puissance de classe exaflopique pour le début de la prochaine décennie.

Tera 1000 est composé de deux parties : une première avec des processeurs Intel Xeon V3 en production depuis 2016 et  une seconde avec des Xeon Phi Knight Landing interconnectés par un réseau Bull X Interconnect (BXI).

Le 26 juin 2018 à 09h38

Commentaires (25)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Donc la Suisse, avec son superordinateur Cray “Diz Paint” à la sixième place du top 500 n’est plus en Europe ?

Leur médiocre Tera 1000 leur est un peu monté à la tête hein !

votre avatar

Idem avec le 13 ème qui est en Italie !



Après, la nuance est sûrement dans le “généraliste”, les 2 précédents ayant des NVIDIA Tesla P100.

votre avatar

T’as oublié le mot “généraliste”. Le Piz Daint est composé de GPU.

votre avatar

Il y a des Xeon Phi dans Tera 1000, c’est pas follement généraliste non plus.

votre avatar

En tout cas ça fait plaisir de voir que le 1er supercalculateur estampillé “France” n’est plus celui d’une société privée spécialisée dans l’industrie pétrolière. <img data-src=" />

votre avatar

Les applications militaires du commissariat à l’énergie atomique, je ne suis pas sûr que ce soit beaucoup mieux…

votre avatar







Strimy a écrit :



T’as oublié le mot “généraliste”. Le Piz Daint est composé de GPU.





Pas d’accord : le Piz Daint est composé de xeons, épaulés par des gpu : je vois pas en quoi il est pas généraliste ?


votre avatar







fafaro a écrit :



Il y a des Xeon Phi dans Tera 1000, c’est pas follement généraliste non plus.






  Les Phi sont compatibles x86 (et même bootable pour les derniers...), donc si, c'est plutôt vrai. Les Phi ne sont ni des GPU ni des FPGA, ils sont à ranger dans la même catégorie que les "Core".

votre avatar







akwa a écrit :



Pas d’accord : le Piz Daint est composé de xeons, épaulés par des gpu : je vois pas en quoi il est pas généraliste ?





Car faut coder avec des frameworks dédiés (CUDA…) et qu’il faut prendre en compte que les GPU sont derrière des bus qu’il faut pas utiliser (car trop lent tant qu’on a pas du gros PCIe 4).


votre avatar







Bejarid a écrit :



Car faut coder avec des frameworks dédiés (CUDA…) et qu’il faut prendre en compte que les GPU sont derrière des bus qu’il faut pas utiliser (car trop lent tant qu’on a pas du gros PCIe 4).





Rien n’empêche de coder sans utiliser les gpu, juste en utilisant les xeons. Donc je vois toujours pas en quoi c’est pas généraliste.

Le Cray n’est pas du tout spécialisé.


votre avatar







akwa a écrit :



Rien n’empêche de coder sans utiliser les gpu, juste en utilisant les xeons. Donc je vois toujours pas en quoi c’est pas généraliste.





Si t’utilise pas les GPU, tu passes en dessous en terme de puissance… Sérieusement, réfléchis une seconde avant de répondre <img data-src=" />


votre avatar







Bejarid a écrit :



Si t’utilise pas les GPU, tu passes en dessous en terme de puissance… Sérieusement, réfléchis une seconde avant de répondre <img data-src=" />





Certes mais il n’en demeure pas moins qu’il n’est pas spécialisé et qu’il est possible de n’utiliser que les xeons.

Donc c’est un peu de la fumisterie de se prétendre plus puissant ordinateur généraliste d’Europe…


votre avatar











akwa a écrit :



Certes mais il n’en demeure pas moins qu’il n’est pas spécialisé et qu’il est possible de n’utiliser que les xeons.

Donc c’est un peu de la fumisterie de se prétendre plus puissant ordinateur généraliste d’Europe…





Il n’en demeure pas moins que si tu n’utilises que les Xeon, tu passes largement en-dessous de la barre des 10 PetaFLOPS au lieu de 25…


votre avatar







33A20158-2813-4F0D-9D4A-FD05E2C42E48 a écrit :



Il n’en demeure pas moins que si tu n’utilises que les Xeon, tu passes largement en-dessous de la barre des 10 PetaFLOPS au lieu de 25…





Probablement même moins, l’architecture d’un HPC orienté GPU fait que les Xéon sont pas très efficients. Ils disposé comme “routeur”, pas comme unité de calcul. Je crois pas que quiconque ose lancer cette énorme machine avec un code qui laisse les GPU tourner à vide…



Ca serait akwa(rd).



Quoi ?



Ok, ça va, ça va, je sors…


votre avatar

Ça a beau être compatible x86, ce&nbsp; n’est pas utilisable efficacement sans recoder pour la plupart des applications. Donc je maintiens ce que j’écrivais : c’est pas follement généraliste.

votre avatar







fafaro a écrit :



Ça a beau être compatible x86, ce&nbsp; n’est pas utilisable efficacement sans recoder pour la plupart des applications. Donc je maintiens ce que j’écrivais : c’est pas follement généraliste.






  Techniquement t'es pas obligé d'adapter ton code, c'est pour ça qu'ils peuvent dire généraliste quand même.       






 Dans les faits, vaut mieux effectivement ajouter le framework Phi et modifier des bouts, mais si t'as un code parallélisé dès le départ tu n'as pas besoin de tout recoder. Mais ça vaut aussi si tu passes de vieux Xéon aux derniers Scalable, faut modifier des bouts pour l'AVX-512 par exemple. Mais rien de fondamentale.     





Contrairement à l’utilisation de GPU où là oui, tu refaits tout…


votre avatar

Et tout dépend de ce qu’on appelle généraliste… Ces machines sont construites pour résoudre une classe particulière de problèmes - faisant largement appel à de l’algèbre linéaire sur des matrices gigantesques de nombres flottants - et sont probablement très mauvaises à d’autres tâches. Par exemple je ne suis pas sûr qu’elles sont à l’aise sur les problèmes discrets comme la cryptographie ou combinatoires comme jouer aux échecs. Ni même comme serveur de base de données.



C’est pas pour rien que les puissances sont estimées en faisant tourner LINPACK et pas Call of Duty.

votre avatar







33A20158-2813-4F0D-9D4A-FD05E2C42E48 a écrit :



Et tout dépend de ce qu’on appelle généraliste…






A la différence des systèmes basés sur des GPU, les systèmes basé sur des Phi sont : x86, bootable, directement sur le bus mémoire (contrairement aux GPU qui sont derrière le PCIe).     





Maitenant, quelle différence il y a entre un Phi et un Core classique ? Ben à part quelques instructions différentes (l’AVX a évolué entre la sortie des Phi et les SkyLake, mais ça fait la même chose, faut juste adapter le code bas niveau qui les appels), perso je vois pas.



Après si vous connaissez d’autres différences concrètes, je vous écoute, mais là tout ce que je vois c’est des pinailleurs qui veulent absolument montrer que Atos a menti. Sauf que pour une fois, ils ont plutôt raison, et vous passez pour des idiots à vous acharner en disant n’importe quoi…


votre avatar







Bejarid a écrit :



A la différence des systèmes basés sur des GPU, les systèmes basé sur des Phi sont : x86, bootable, directement sur le bus mémoire (contrairement aux GPU qui sont derrière le PCIe).



[…]





On est parfaitement d’accord sur tous ces points… Mais qui ne répondent pas à la question&nbsp;d’ordre plus général. Ces supercalculateurs sont certes basés sur des processeurs “généralistes” de manière individuelle, mais la machine complète mérite-t-elle ce qualificatif ?



Oui bien sûr on va arriver à installer Oracle (ou nginx, voire même IIS si on est taquin) à partir d’une distribution standard. Mais après ? Il y a de fortes chances que les interconnexions multi-Tbps&nbsp; entre les noeuds et l’accès mémoire NUMA ne sont pas du tout adaptés à la charge de travail de ces applications qui ne sont pas conçues pour les exploiter.



J’arrive à booter Windows 95 sur deux noeuds ? La belle affaire ! Pendant ce temps-là, les 65534 autres ne font rien.



Kestananafoutt si les processeurs sont généralistes ou hyper spécialisés, puisqu’on ne fera jamais tourner un soft généraliste sur ces bidules dont l’unique but dans la vie c’est d’inverser des matrices plus vite que Chuck Norris n’envoie des tatanes à la tronche des méchants dans Call of Warhammer Legends.


votre avatar







33A20158-2813-4F0D-9D4A-FD05E2C42E48 a écrit :



Kestananafoutt si les processeurs sont généralistes ou hyper spécialisés,






    C'est un autre sujet ça déjà. Maintenant c'est plus le fait que ça soit généraliste qui pose débat, c'est son intérêt...         






   Je suis pas le mieux placé pour répondre, mais de tête je pense déjà à la rareté, et au prix, des mecs expérimenté sur ces archis. Et au cout pour y porter un prototype codé en x86 (car c'est ce que tout le monde a dans son bureau).         






   Après on peut aller loin comme ça, tu veux la météo de demain aussi ?         






   Sinon j'ai lu un article notant que le TOP500 des super-calculateurs (dont est issue cette brève) ne vaut plus rien, car pleins de boites chinoises se sont amusées à y mettre leur datacenter. Genre ils bloquent leur entreprise une heure pour lancer LINPACK, et voilà ils sont dedans. Sauf que comme les noeux sont reliés en simple Ethernet 10Gbps, ben ça risque pas de beaucoup servir pour de vrai calcul HPC (qui dépendent beaucoup plus de la mémoire vive globale, c'est à dire tous les nœuds cumulé via un réseau infiniband, que du processeur de chaque nœud). C'est à la fin de ça : https://www.servethehome.com/top500-june-2018-edition-new-systems-analysis/  

&nbsp;

Ça c'est intéressant. Mais vos délires sur "ouais mais non c'est pas généraliste", "et puis c'est quoi généraliste", "ça sert à rien le HPC" ou "papa comment on fait une bouteille de lait", faut arrêter les mecs, on se croirait en maternelle là.

votre avatar

J’espere qu’ils ont obtenu une bonne promo car la technologie Xeon Phi est quasi-morte depuis fin 2017 https://www.top500.org/news/intel-dumps-knights-hill-future-of-xeon-phi-product-…

votre avatar







Bejarid a écrit :



C’est un autre sujet ça déjà. Maintenant c’est plus le fait que ça soit généraliste qui pose débat, c’est son intérêt…



[…]



     &nbsp;           

Ça c'est intéressant. Mais vos délires sur "ouais mais non c'est pas généraliste", "et puis c'est quoi généraliste", "ça sert à rien le HPC" ou "papa comment on fait une bouteille de lait", faut arrêter les mecs, on se croirait en maternelle là.







Gni ? Quel délire ?



Je me contente justement de dire que ce débat n’a pas de sens puisque les machines en question n’ont pas vocation à faire autre chose que du number crunching à haute dose pour des applications très précises.


votre avatar







AhLeBatord a écrit :



J’espere qu’ils ont obtenu une bonne promo car la technologie Xeon Phi est quasi-morte depuis fin 2017 https://www.top500.org/news/intel-dumps-knights-hill-future-of-xeon-phi-product-…





Sauf qu’il y a plus de Phi dans les nouveaux entrants au TOP500 que de puces IBM ^^ Ce n’est donc pas encore mort auprès des clients, même si oui, il n’y aura plus de nouvelles puces Phi (les xéons devant les rattraper petit à petit).


votre avatar

J’utilise régulièrement ce genre de machines. Et je développe des codes qui tournent dessus.

Coder efficacement pour un processeur standard qui a&nbsp; 16 ou 28 cœurs, ou pour un Xeon Phi qui en a 64 ou 72, ce n’est pas la même chose.

&nbsp;Les quantités de cache, la bande passante mémoire, la quantité de mémoire par cœur ou la fréquence d’horloge diffèrent largement et impliquent éventuellement un gros travail pour adapter le code.

Je passe peut-être pour un idiot à pinailler, mais je pinaille sur un sujet que je connais et parce que si j’avais le droit d’utiliser Tera 1000 (ce qui ne sera pas le cas) je devrais réécrire une bonne partie de mon code pour avoir des performances correctes. Ceci dit, je vais devoir m’y mettre de toute façon parce que l’avenir du HPC passe par là.

Sinon le top500 a toujours du sens quand on regarde le haut du classement (et on ne regarde que le haut du classement quand on s’y intéresse), on n’y voit que des centres de calcul et des vraies supercalculateurs.

votre avatar

Dans le fond on est d’accord, mais ta présentation des choses est pour moi totalement à l’ouest et rend ton discours faux.



 &nbsp;       









fafaro a écrit :



impliquent éventuellement un gros travail pour adapter le code.









fafaro a écrit :



&nbsp;je devrais réécrire une bonne partie de mon code pour avoir des performances correctes.






  On est passé "d'éventuellement adapter" à "obligation pour un truc qui tourne" en quelques lignes ^^ C'est fou, non ?       






 Ouep, le cache entre un vieux Xéon et un Phi n'est pas le même. Ouep, ça peut impliquer des optimisations spécifiques (tu peux raisonnablement lancer un premier run sans), mais ça serait aussi le cas entre un vieux Xéon et un récent (car le cache a explosé en 10 ans). Et un coeur c'est un coeur, que t’ai 4 Xéons à 28 coeurs ou que t’ai 1 xéon + 1 Phi, dans tous les cas ton code il doit gérer une centaine de coeurs.       






 Donc non, la différence entre un Xéon et un Phi n'est pas comparable à la différence entre un Xéon et un GPU (= PCIe accelerator) ou un Power9 (= pas x86). Le Phi n'est pas un Xéon, mais il est dans la même cour, tout comme l'est l'EPYC. Est-ce qu'un cluster d'EPYC serait considéré comme spécialisé, lui aussi ? Pourtant ses NUMA demande aussi une bonne optimisation pour être exploité au max, tout comme le cache de ouf des Phi. Mais, ça reste des proco généralistes car x86 et en direct avec la RAM et le réseau.       

&nbsp;







fafaro a écrit :



Sinon le top500 a toujours du sens quand on regarde le haut du classement (et on ne regarde que le haut du classement quand on s’y intéresse), on n’y voit que des centres de calcul et des vraies supercalculateurs.






  Là encore tu te contredits :p Si y a que le TOP100 qui contient des HPC, et que les autres sont majoritairement des datacenters, c'est bien que le TOP500 n'a plus de sens. C'est le TOP100 (nombre arbitraire, j'ai pas tout feuilleté) qui en a, et ça risque de pas duréer, puisque comme l'auteur de l'article le disait (et c'est là que c'est funeste), si cette manie de LINPACKé tout et n'importe quoi sort de Chine et s'installe aux US, c'est mort. Les AWS, Azure et compagnie vont pourrir le TOP100 sans aucun problème.       






 Ça part en couille, et ça serait bien que ça soit patché avant que ce TOPxxx ait perdu tout son sens.

Tera 1000 : le supercalculateur le plus puissant d’Europe entre dans le « Top 15 »

Fermer