Immersion des datacenters : GRC (Green Revolution Cooling) partenaire d’Intel

Immersion des datacenters : GRC (Green Revolution Cooling) partenaire d’Intel

Immersion des datacenters : GRC (Green Revolution Cooling) partenaire d’Intel

Cette technologie n’a rien de nouveau : on plonge dans un liquide spécialement conçu pour les cartes mères afin d’optimiser le refroidissement.

En août de l’année dernière, Intel annonçait un partenariat avec Submer afin de développer un Precision Immersion Cooling Fluid Cloud. C’est désormais au tour de GRC (Green Revolution Cooling) d’entrer dans la danse. 

Les deux nouveaux partenaires travaillent afin de « développer et mettre en œuvre des techniques avancées de refroidissement par immersion dans les futurs datacenters ». « Les équipes d’ingénierie d’Intel et de GRC collaborent pour tester la sécurité et la fiabilité des technologies de refroidissement par immersion […] et pour éduquer le marché sur les avantages de la technologie de refroidissement par immersion ».

Commentaires (11)


Oui mais bon la chaleur reste de la chaleur. On ne fait que la déplacer, l’idéal étant d’en générer le moins possible ou l’utiliser intelligemment (chauffage).
Ou alors créer des puces supra-conductrices à température ambiante :mdr:


Et l’avantage, c’est que ça éteint rapidement les incendies. :fumer:


T’as une carte mère sans refroidissement liquide, non mais à l’eau quoi :D


Je crois me souvenir qu’Octave Klava d’OVHCloud disait que le refroidissement par immersion des composants posait un problème rebutant de maintenance : quand un pièce tombait en panne, il fallait sortir l’ensemble de la machine du liquide de refroidissement, et la sécher, avant de pouvoir intervenir, rendant l’opération fort peu pratique.



(reply:1924190:Sans intérêt)




https://twitter.com/olesovhcom/status/1454175195900620810



C’est possible qu’il l’ait dit, mais il semblerait qu’il l’envisage quand même


:heben:


J’imagine que ce n’est pas de l’eau, mais un liquide caloporteur efficace et non-conducteur… De l’huile peut-être ? J’ai déjà vu faire.



Oui, je sais, l’eau pure est non-conductrice, mais difficile de garantir l’absence à long terme d’impuretés…


C’est souvent des composés fluorés avec des propriétés diélectriques particuliers, un faible point d’ébullition et une bonne capacité calorifique. Exemple chez GigaByte (et en plus la vidéo est superbe).



Vekin a dit:


Oui, je sais, l’eau pure est non-conductrice, mais difficile de garantir l’absence à long terme d’impuretés…




Non.
L’eau pure est très peu conductrice, mais elle l’est quand même un peu.
Cherche “autoprotolyse de l’eau” si ça t’intéresse.



Mais sinon oui, mets une eau ultrapure à l’air et la 1ere chose qu’elle fera sera de capter le CO2, le transformant en carbonates / hydrogenocarbonates, la rendant déjà plus conductrice


Le trip pour les offres d’emploi : “cherche technicien maintenance datacenter avec permis B et niveau 1 PADI / FFESSM. Le candidat devra être à l’aise en plongée en milieu confiné”


Le liquide est un liquide caloriporteur environs 1500 fois plus efficace que l’air.
Le principe n’est pas que la machine consomme moins qui si elle était refroidie a l’air, mais qu’il n’y pas plus aucun système de clim actif consommateur d’électricité en plus.
2 gros avantages donc :
Un serveur classique consommant 1kW a besoin de 1,4 à 1,7 kW si on intègre le système de clim a l’air classique, ici on consomme 1,03 kW. (PUE)
Pas de bruit dans les salles IT et une densité kW / m² * 10
10 à 15% de consommation en moins de base, car on fait sauter tout les ventilo (CPU/Alim)
Pas de poussière, pas de filtres….



Inconvénients :
Palme et tuba ;-)
Plus sérieusement, il faut effectivement sortir la machine du liquide et l’égoutter pour y intervenir. Cela change les habitudes des techniciens mais cela se gère bien.
Pas de connexion fibre optique dans le liquide mais il faut reporter les SFP en surface.
Pour le moment, il faut donc ‘adapter’ les machines => Radiateur CPU / ALIM, et mettre des extender SFP pour le mettre à la surface. Les constructeurs IT classique sont encore frileux, mais ça vient…
Mais pour des machines HPC / GPU, les racks classiques de DC, se retrouvent au 23 vide car il est difficile (impossible) de refroidir des baies à 25 -> 40 Kw par des systèmes d’air classique.



Idéalement, si nous avions des processeurs / GPU / NVME…super performant qui ne consomment que quelques watt, le problème serait réglé….mais ce n’est pas la mode…ni ce que présentent les roadmap des fabricants.
Hope this help


Fermer