1U-Open19-N19 SKU R : ASRock Rack place deux Ryzen AM4 dans un demi-serveur 1U
Ryzen everywhere !
Le 11 mai 2021 à 09h11
3 min
Hardware
Hardware
La densité est souvent la clé lorsqu'il s'agit de monter des serveurs. Les constructeurs rivalisent ainsi d'ingéniosité pour multiplier les CPU, GPU, HDD, SSD et autres accélérateurs dans peu d'espace. ASRock Rack vient de réussir une belle prouesse avec un serveur 1U2N pour processeurs Ryzen.
Lorsque l'on parle de serveurs, il est courant d'utiliser le « U » pour désigner l'espace qu'ils occupent en hauteur. 1U équivaut à 44,45 mm (1,75"). Mais il est de plus en plus courant d'entendre parler de « nodes » (nœuds), qui désigne le nombre de systèmes indépendants (grosso modo de cartes mères) intégrés au sein d'un même rack.
La densité dans les serveurs, un défi à part entière
Ainsi, un serveur avec deux processeurs sur une même carte mère sera désigné comme 1U ou 1U1N. Mais si l'on a deux cartes mères chacune avec un processeur, il sera alors désigné comme 1U2N. Il y a des constructeurs qui se sont fait une spécialité de pousser le curseur assez loin au niveau de la densité, ASRock Rack en fait partie.
La société propose par exemple des solutions 3U16N, avec un PCB principal auxquels sont reliées 16 petites cartes mères, intégrant CPU, mémoire et connectique, un peu à la manière des Compute Element d'Intel. Une solution qui existe tant pour Xeon Scalable (chipset C242, Xeon E-2100/E-2200) que pour EPYC embedded (EPYC 3251).
3U, jusqu'à 16 systèmes, chacun étant équipé d'un processeur
Jusqu'à 4 processeurs Ryzen dans 1U
Il y a quelques jours, la société a dévoilé un autre produit inattendu : le serveur 1U-Open19-N19 SKU R. Il s'agit d'une solution 1U2N, intégrant deux cartes mères AM4 au format Mini ITX.
Il s'agit d'une version dérivée de la X570D4I-2T, qui reprend son alimentation passant par un connecteur DC à 8 broches en plus de l'ATX 4 broches. Une solution plus compacte que l'habituel ATX 20 + 4 broches, nécessaire sur un PCB de cette taille. Le serveur suit de toute façon le standard Open19 et son connecteur d'alimentation 12 V.
Les deux solutions réseau Intel X710 (2x 10 Gb/s) sont externalisées des cartes mères, placées entre elles et reliées à un switch qui vient alimenter le connecteur de données (2x 25 Gb/s) à l'arrière du rack, lui aussi au standard Open19.
Trois connecteurs RJ45 sont accessibles en façade pour la gestion distante (IPMI/BMC) : un pour le système et un pour chaque nœud). Quatre baies 2,5" sont présentes en façade pour des HDD/SSD S-ATA 6 Gb/s au format 2,5". Car ce serveur n'occupe que la moitié d'un emplacement 1U. On peut ainsi en mettre deux côte à côte.
ASRock Rack commercialise ainsi des châssis 4RU, 8RU et 12RU permettant d'intégrer jusqu'à 16, 32 ou 48 nœuds. Le constructeur propose pour rappel déjà de nombreux serveurs l'exploitant de manière plus classique.
1U-Open19-N19 SKU R : ASRock Rack place deux Ryzen AM4 dans un demi-serveur 1U
-
La densité dans les serveurs, un défi à part entière
-
Jusqu'à 4 processeurs Ryzen dans 1U
Commentaires (11)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 11/05/2021 à 09h23
Bah voila, a glisser entre deux meubles c’est parfait !
Quid du refroidissement et du bruit malgré tout ?
Ce genre de solution xUxN es franchement interressante
Le 11/05/2021 à 09h31
Pour utiliser le connecteur réseau au standard Open19 c’est plus dur, c’est un standard mais supporté seulement par Cisco, equinix et asrock rack
Le 11/05/2021 à 09h48
Tout simplement pire ^^
Les seuls meubles entre lesquels les glisser sont des compresseurs de clim. Ainsi tu ne les entends plus à côté du reste.
Pas assez de ram pour ma part ;) Et les connecteurs de RAM sont SO-DIMM :o
Par contre, c’est vraiment étrange ce double noeud. Deux machines distinctes dans la même carlingue… Ma foi pourquoi pas.
Le 11/05/2021 à 09h58
Franchement ce genre de solution n’a rien d’une nouveauté. Pour en avoir testé des solutions en version Xeon chez surpermicro, je préfère largement les solutions 4 nœuds dans 2U. Ça permet d’avoir 2 alims redondantes pour 4 serveurs et la ventilation est quand même beaucoup plus facile avec des ventilateurs large.
La solution Dell à base de C6400+4C6525 est relativement satisfaisante (même si j’ai eu quelques bugs sur le C6400). Ça s’alimente en 220V, on peut mettre des cartes d’extension PCIE, pas de switch bizarre pour le réseau…
À noter quand même qu’avec les processeurs les plus puissants on finit par atteindre les limites de dissipation en air cooling (et celle des alimentations). 8 processeurs à 280W, des disques rapides des cartes réseau/infiniband un peu gourmandes et on est vite à 3000W. Imaginez en entasser 20 dans une armoire rack.
Le 11/05/2021 à 10h04
C’est propre mais ça reste un peu bricolage.
Un des intérêt d’avoir des lames indépendante c’est de pouvoir intervenir facilement sur un des serveurs sans impacter le reste, là forcément le serveur binôme se retrouve également coupé si on extrait la lame.
Puis effectivement c’est déjà assez critique niveau sonore et refroidissement avec des lames mono serveur donc là ça doit pousser encore un cran plus loin (la conso totale d’une enceinte remplis avec des lames bi Ryzen 9 ça doit être sympa…)
Le 11/05/2021 à 10h12
C’est ce qu’on appel “Poser la question qui fâche”
Le refroidissement c’est 8 ventilateurs “4028” (40 40 28) d’après les spec. Si tu cherche ce genre de ventilateur serveur le bruit est dans les 50 à 60 décibel
Le 11/05/2021 à 10h42
Ce n’est pas une nouveauté, sauf en AM4 ;) Pour l’alimentation/data, ça vient du standard Open19.
Je doute que ce soit pensé pour du ryzen 9 à fond les ballons, après ça dépend de toutes façons de la capacité d’alimentation et de refroidissement au global
En même temps c’est pas fait pour mettre dans le salon 😅
Le 11/05/2021 à 10h48
C’est là où on commence à voir la différence entre les serveurs pour les particuliers et ceux pour les pros. Chez les pros, tu t’en fiches du niveau de bruit. Au pire tu mettras ça dans la salle d’a coté, sans même parler des datacenters. Suffit de voir la gueule des ventilos des alims des serveurs avec leurs ventilos 40 * 40mm pour comprendre que ce machin, ça ne peut que faire du bruit.
Là où ça peut surprendre, c’est que même sur les produits prosumer ou pour les PMEs, comme les Proliant Microserver, l’arbitrage entre bruit et extraction de chaleur est plutôt en faveur de l’extraction de chaleur. Là où sur un produit consumer, tu vas baisser les fréquences pour éviter le bruit, voire sous-dimensionner le hardware, chez les pros tu pousses la ventilation pour avoir des perfs déterministes, pour ce que j’en ai vu.
Le 11/05/2021 à 10h54
Oui surtout que la ventilation est en général globale à la baie, d’où les GPU qui sont passifs par exemple dans les déclinaisons serveurs. Ce sont les ventilos en tête de baie qui sont en mode turbine. Sur les produits “cul entre deux chaises” parfois c’est l’un, parfois c’est l’autre (le meilleur étant de pouvoir avoir le choix).
Le 12/05/2021 à 11h00
Aucun rapport avec l’article, mais serait-il possible d’avoir une explication autour du connecteur Oculink ?
Son but, sa mise en œuvre, le matériel compatible, etc…
Désolé de faire mes courses, mais ces articles hardware son tellement intéressant…
Le 12/05/2021 à 12h00
J’en parle dans certains papiers mais ça reste peu exploité hors DC. Disons que c’est une implémentation compacte du PCIe, avec des adaptateurs U.2, M.2 par exemple. Une sorte de câble PCIe surtout utilisé en interne, avec de mémoire 4⁄8 lignes selon les versions (à vérifier).
Cela peut aussi servir à connecter certains racks