Connexion
Abonnez-vous

Microsoft récupère son datacenter sous-marin Natick et fait le point

Microsoft récupère son datacenter sous-marin Natick et fait le point

Le 15 septembre 2020 à 08h37

En 2016, Microsoft faisait construire en France une grosse capsule sous-marine contenant 864 serveurs. Le datacenter était ensuite immergé en juin 2018 près des côtes écossaises pour une période de deux ans.

Le concept permettait d’utiliser directement l’eau de mer pour le refroidissement, baissant drastiquement la consommation énergétique de l’ensemble. En outre, l’énergie était fournie par les courants marins et le soleil, rendant la capsule autonome. Beaucoup de questions restaient cependant en suspens, notamment quoi faire en cas de panne matérielle, la récupération du matériel usé au bout de 20 ans (durée de vie estimée par Microsoft) et l’impact écologique.

Après deux ans d’immersion, Microsoft fait le point, vidéo à l'appui. Sur les questions de fiabilité, le verdict est sans appel : 1/8e à peine du taux d’erreur d’un centre sur terre ferme. Selon l’entreprise, la régularité de la température sous l’eau permet une réduction drastique de la corrosion engendrée par l’oxygène et les variations thermiques en temps normal.

Ce point, cumulé à l’utilisation d’énergies renouvelables, rend le projet écologiquement intéressant, même si la question du réchauffement de l’eau n’a pas été abordée. La firme est certaine que sa solution impacte beaucoup moins l’environnement qu’un datacenter classique, qui réclame de la surface au sol et des dépenses élevées pour la gestion de la température, augmentant la consommation de l’ensemble.

En outre, la construction d’un centre peut prendre jusqu’à deux ans, là où Microsoft peut préparer une capsule en trois mois. 50 % de la population mondiale vivant à moins de 200 km des côtes, le déploiement peut se faire là où il est nécessaire, et pas uniquement où la place le permet, avec une influence positive sur la latence. 

Ce premier centre sous-marin a notamment été exploité dans les recherches sur le SARS-CoV-2 dans le cadre des projets Folding@Home et World Community Grid. Mais les tests continueront encore plusieurs années. Prochaine étape, travailler sur la rapidité de retrait des capsules et le recyclage de l’ensemble une fois la durée de vie atteinte. Un point sur lequel l’entreprise est attendue au tournant.

Rappelons que ses intentions en matière de bilan carbone sont ambitieuses : un bilan carbone négatif d’ici 2030 (plus de retrait que d’émissions), pour viser d’ici 2050 le retrait de tout le carbone que la société aurait produit depuis ses débuts.

Le 15 septembre 2020 à 08h37

Commentaires (22)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Reste à savoir à quelle distance se situe la limite avec les eaux internationales pour les croire sur parole. :D

votre avatar

On va avoir droit à de nouvelles attaques par canal auxiliaire. 😎

votre avatar

Pollution loin des yeux, loin du coeur…



Bon, le rendement de la clim est top. Mais cette économie comptable ne doit pas non plus leur permettre de faire de la marge sur les dégagements de chaleur provoqué par des machines à rendement plus faible.



/me qui vient de lancer un commit d’1 ligne pour mettre à jour la version du SDK publicitaire et qui relance les 2h de tests intégrals…



Oui, il y a des économies d’échelle à faire avant de cibler MS sur le réchauffement des océans!

votre avatar

Ca reste un POC mais c’est pas idiot comme solution.
Avec un bâtiment dans l’eau et les serveurs directement en contact avec les murs (eux-même en contact avec l’eau), ça pourrait être une bonne solution.



Après tout, c’est ni plus ni moins que l’équivalent aquatique du choix d’OVH

votre avatar

[quote] la récupération du matériel usé au bout de 20 ans (durée de vie estimée par Microsoft) [/quote]



le matériel ne sera t’il pas obsolète bien avant ces 20 ans? et donc remplacé par un autre data center?

votre avatar

On peut supposer qu’ils prévoient de sortir la capsule et d’actualiser le hardware plusieurs fois durant les 20 ans…

votre avatar

On peut supposer que oui, mais c’est pas clair ni dans la brève ni dans l’article sur le site de MS.

votre avatar

La maintenance est tout aussi facile qu’avec un datacenter “sur terre” ? Car s’il faut un sous-marin pour changer un disque, on n’est pas top sur le bilan carbone :D

votre avatar

J’ai l’impression que la maintenance se résume à “Ho non… tant pis”



Un tel système doit en effet être pensé pour être résilient à la panne.

votre avatar

Je ne suis absolument pas inquiet sur les problèmes de fiabilité d’un système immergé :



Ça fait 30 ans qu’on sait fabriquer et poser des câbles à fibre optique transocéaniques qui sont garantis 25 ans (il y a de l’électronique dans les câbles, c’est pas juste un toron de fibres), et qui reposent à des profondeurs largement supérieures. Ça fait 50 ans qu’on sait fabriquer des satellites ayant une durée de vie démentielle qui se compte en décennies.
Il n’y a pas de raison pour que les composants d’un DC échappent à la règle !

votre avatar

Dans l’article, il disent avoir eu 18 du taux de pannes qu’il aurai sur un datacenter sur terre ferme, il y a donc des pannes.



Et personnellement, je pense que la panne est prise en compte dans l’exploitation de la capsule. C’est certainement calculé pour qu’elle reste globalement fonctionnelle pour toutes la durée de vie de l’exploitation.



Après, je ne pense pas que le matos informatique soit exploité pendant 20ans : au bout de 10ans il va peut être être intéressant de le remplacer entièrement pour quelque chose de plus récent.

votre avatar

à priori, ils ont mis dans la capsule la même chose que dans un DC “normal” et ont eu moins de panne.
soit le taux est acceptable sans maintenance, soit comme le dit Nozalys, on sait faire des choses plus robustes et il “suffira” de spécialiser un poil le matos pour qu’il atteigne des taux acceptables

votre avatar

Microsoft s’est déjà penché sur la question pour ses datacenters sur terre. Aujourd’hui les serveurs sont livrés cablés dans des containers. Ils ne changent rien à l’intérieur quand ça tombe en panne, Ils retire le container entier quand il y a trop d’éléments HS.



Là c’est le même fonctionnement je pense.

votre avatar

Jarodd a dit:


La maintenance est tout aussi facile qu’avec un datacenter “sur terre” ? Car s’il faut un sous-marin pour changer un disque, on n’est pas top sur le bilan carbone :D


Ils prévoient juste plus de spares sur tous les composants. Dans ce genre de DC, je ne pense pas que tu trouveras de serveurs individuels, juste des clusters de serveurs redondés assez de fois pour que théoriquement la panne soit évitée

votre avatar

Jarodd a dit:


La maintenance est tout aussi facile qu’avec un datacenter “sur terre” ? Car s’il faut un sous-marin pour changer un disque, on n’est pas top sur le bilan carbone :D


Si l’environnement de déploiement est aussi stable en température comme en alimentation il y aura aussi moins de chances d’avoir de la panne matérielle.



Et puis comme le bouzin a 0 frais de maintenance si au bout de 10 ans les 34 des serveurs fonctionnent encore c’est toujours bon à prendre, idem au bout de 20 ans s’il n’y en a plus qu’14 de fonctionnels.

votre avatar

C’est pour éviter de griller les serveurs.



:humour:

votre avatar

Et sinon, si le DC est immergé dans les eaux internationales, quelle est la législation applicable concernant les données hébergée là dedans ?



Parce que si c’est la nationalité de la société possédant le DC qui prend, on risque de voir arriver un certain nombre de “paradis numérique”….

votre avatar

Pour la maintenance si le conteneur n’est pas trop profond, un technicien avec une compétence de plongeur pourrait très intervenir si un sas est prévu à cet effet !

votre avatar

“Rappelons que ses intentions en matière de bilan carbone sont ambitieuses : un bilan carbone négatif d’ici 2030 (plus de retrait que d’émissions), pour viser d’ici 2050 le retrait de tout le carbone que la société aurait produit depuis ses débuts.”



Très franchement, comment évaluer l’empreinte carbone de Windows millenium ?

votre avatar

AhLeBatord a dit:



Très franchement, comment évaluer l’empreinte carbone de Windows millenium ?


Ce serait plutôt celui de Windows 10 que j’aimerai évaluer. Entre les mises à jour à gigaoctets en passant donc par les serveurs à faire tourner pour leur déploiement, la puissance sur nos ordinateurs donc la consommation électrique pour les appliquer, etc.



Même en 2050 ils n’auront pas retiré le centième de ce qu’ils auront réellement réalisé depuis leurs débuts.



L’externalisation de la gène, c’est tellement pratique…

votre avatar

Je trouve ça excellent comme solution si cela permet moins de consommation et plus écologique, ce qui aurait l’air d’être le cas ici.

votre avatar

D’après cet article ils prévoient de changer les serveurs tous les 5 ans.

Microsoft récupère son datacenter sous-marin Natick et fait le point

Fermer