votre avatar

Pegase75

est avec nous depuis le 19 janvier 2022 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

1 commentaires

Immersion des datacenters : GRC (Green Revolution Cooling) partenaire d’Intel

Le 19/01/2022 à 07h 13

Le liquide est un liquide caloriporteur environs 1500 fois plus efficace que l’air.
Le principe n’est pas que la machine consomme moins qui si elle était refroidie a l’air, mais qu’il n’y pas plus aucun système de clim actif consommateur d’électricité en plus.
2 gros avantages donc :
Un serveur classique consommant 1kW a besoin de 1,4 à 1,7 kW si on intègre le système de clim a l’air classique, ici on consomme 1,03 kW. (PUE)
Pas de bruit dans les salles IT et une densité kW / m² * 10
10 à 15% de consommation en moins de base, car on fait sauter tout les ventilo (CPU/Alim)
Pas de poussière, pas de filtres….



Inconvénients :
Palme et tuba ;-)
Plus sérieusement, il faut effectivement sortir la machine du liquide et l’égoutter pour y intervenir. Cela change les habitudes des techniciens mais cela se gère bien.
Pas de connexion fibre optique dans le liquide mais il faut reporter les SFP en surface.
Pour le moment, il faut donc ‘adapter’ les machines => Radiateur CPU / ALIM, et mettre des extender SFP pour le mettre à la surface. Les constructeurs IT classique sont encore frileux, mais ça vient…
Mais pour des machines HPC / GPU, les racks classiques de DC, se retrouvent au 23 vide car il est difficile (impossible) de refroidir des baies à 25 -> 40 Kw par des systèmes d’air classique.



Idéalement, si nous avions des processeurs / GPU / NVME…super performant qui ne consomment que quelques watt, le problème serait réglé….mais ce n’est pas la mode…ni ce que présentent les roadmap des fabricants.
Hope this help