Publié dans Sciences et espace

22

Microsoft récupère son datacenter sous-marin Natick et fait le point

Microsoft récupère son datacenter sous-marin Natick et fait le point

En 2016, Microsoft faisait construire en France une grosse capsule sous-marine contenant 864 serveurs. Le datacenter était ensuite immergé en juin 2018 près des côtes écossaises pour une période de deux ans.

Le concept permettait d’utiliser directement l’eau de mer pour le refroidissement, baissant drastiquement la consommation énergétique de l’ensemble. En outre, l’énergie était fournie par les courants marins et le soleil, rendant la capsule autonome. Beaucoup de questions restaient cependant en suspens, notamment quoi faire en cas de panne matérielle, la récupération du matériel usé au bout de 20 ans (durée de vie estimée par Microsoft) et l’impact écologique.

Après deux ans d’immersion, Microsoft fait le point, vidéo à l'appui. Sur les questions de fiabilité, le verdict est sans appel : 1/8e à peine du taux d’erreur d’un centre sur terre ferme. Selon l’entreprise, la régularité de la température sous l’eau permet une réduction drastique de la corrosion engendrée par l’oxygène et les variations thermiques en temps normal.

Ce point, cumulé à l’utilisation d’énergies renouvelables, rend le projet écologiquement intéressant, même si la question du réchauffement de l’eau n’a pas été abordée. La firme est certaine que sa solution impacte beaucoup moins l’environnement qu’un datacenter classique, qui réclame de la surface au sol et des dépenses élevées pour la gestion de la température, augmentant la consommation de l’ensemble.

En outre, la construction d’un centre peut prendre jusqu’à deux ans, là où Microsoft peut préparer une capsule en trois mois. 50 % de la population mondiale vivant à moins de 200 km des côtes, le déploiement peut se faire là où il est nécessaire, et pas uniquement où la place le permet, avec une influence positive sur la latence. 

Ce premier centre sous-marin a notamment été exploité dans les recherches sur le SARS-CoV-2 dans le cadre des projets Folding@Home et World Community Grid. Mais les tests continueront encore plusieurs années. Prochaine étape, travailler sur la rapidité de retrait des capsules et le recyclage de l’ensemble une fois la durée de vie atteinte. Un point sur lequel l’entreprise est attendue au tournant.

Rappelons que ses intentions en matière de bilan carbone sont ambitieuses : un bilan carbone négatif d’ici 2030 (plus de retrait que d’émissions), pour viser d’ici 2050 le retrait de tout le carbone que la société aurait produit depuis ses débuts.

22

Tiens, en parlant de ça :

Photo d'un immeuble troué de part en part

Règlement sur la cyber-résilience : les instances européennes en passe de conclure un accord

Cyber résilience 2.0

10:10 DroitSécu 5
lexique IA parodie

AGI, GPAI, modèles de fondation… de quoi on parle ?

B.I.A Bia

08:40 IA 3
livre dématérialisé

Des chercheurs ont élaboré une technique d’extraction des données d’entrainement de ChatGPT

Toxique de répétition

17:15 IAScience 3
Photo d'un immeuble troué de part en part

Règlement sur la cyber-résilience : les instances européennes en passe de conclure un accord

DroitSécu 5
lexique IA parodie

AGI, GPAI, modèles de fondation… de quoi on parle ?

IA 3

#LeBrief : logiciels libres scientifiques, fermeture de compte Google, « fabriquer » des femmes pour l’inclusion

livre dématérialisé

Des chercheurs ont élaboré une technique d’extraction des données d’entrainement de ChatGPT

IAScience 3
Un chien avec des lunettes apprend sur une tablette

Devenir expert en sécurité informatique en 3 clics

Sécu 11
Logo ownCloud

ownCloud : faille béante dans les déploiements conteneurisés utilisant graphapi

Sécu 16
Le SoC Graviton4 d’Amazon AWS posé sur une table

Amazon re:invent : SoC Graviton4 (Arm), instance R8g et Trainium2 pour l’IA

Hard 5
Logo Comcybergend

Guéguerre des polices dans le cyber (OFAC et ComCyberMi)

Sécu 10

#LeBrief : faille 0-day dans Chrome, smartphones à Hong Kong, 25 ans de la Dreamcast

Mur d’OVHcloud à Roubaix, avec le logo OVHcloud

OVHcloud Summit 2023 : SecNumCloud, IA et Local Zones

HardWeb 2
algorithmes de la CAF

Transparence, discriminations : les questions soulevées par l’algorithme de la CAF

IASociété 60

Plainte contre l’alternative paiement ou publicité comportementale de Meta

DroitIA 33
Nuage (pour le cloud) avec de la foudre

Économie de la donnée et services de cloud : l’Arcep renforce ses troupes

DroitWeb 0
De vieux ciseaux posés sur une surface en bois

Plus de 60 % des demandes de suppression reçues par Google émanent de Russie

Société 4
Une vieille boussole posée sur un plan en bois

La Commission européenne et Google proposent deux bases de données de fact-checks

DroitWeb 3

#LeBrief : des fichiers Google Drive disparaissent, FreeBSD 14, caméras camouflées, OnePlus 12

Le poing Dev – round 6

Next 148

Produits dangereux sur le web : nouvelles obligations en vue pour les marketplaces

Droit 9
consommation de l'ia

Usages et frugalité : quelle place pour les IA dans la société de demain ?

IA 12

La NASA établit une liaison laser à 16 millions de km, les essais continuent

Science 17
Concept de CPU

Semi-conducteurs : un important accord entre l’Europe et l’Inde

Hard 7

#LeBrief : PS5 Slim en France, Valeo porte plainte contre NVIDIA, pertes publicitaires X/Twitter

Un mélange entre une réunion d’Anonymous et de tête d’ampoules, pour le meilleur et le pire

651e édition des LIDD : Liens Intelligents Du Dimanche

Web 30
Bannière de Flock avec des bomes sur un fond rouge

#Flock, le grand remplacement par les intelligences artificielles

Flock 34
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #9 : LeBrief 2.0, ligne édito, dossiers de fond

Next 65
Pilule rouge et bleue avec des messages codés

Encapsulation de clés et chiffrement d’enveloppes

Sécu 31
Empreinte digital sur une capteur

Empreintes digitales : les capteurs Windows Hello loin d’être exemplaires

Sécu 20

#LeBrief : succès du test d’Ariane 6, réparer plutôt que remplacer, Broadcom finalise le rachat de VMware

Puces en silicium

Apple ne paierait que peu de royalties à Arm pour ses puces

Hard 34

Des logiciels libres scientifiques français à l’honneur

SoftScience 4

Une femme dont le visage se reflète en morceaux dans une série de miroirs.

Pourquoi inclure des femmes si on peut les fabriquer ?

Société 19

Logo de Google sur un ordinateur portable

Google commencera son ménage dans les comptes non utilisés le 1er décembre

Web 5

22

Commentaires (22)


Idiogène
Il y a 3 ans

Reste à savoir à quelle distance se situe la limite avec les eaux internationales pour les croire sur parole. :D


Z-os Abonné
Il y a 3 ans

On va avoir droit à de nouvelles attaques par canal auxiliaire. 😎


skan
Il y a 3 ans

Pollution loin des yeux, loin du coeur…



Bon, le rendement de la clim est top. Mais cette économie comptable ne doit pas non plus leur permettre de faire de la marge sur les dégagements de chaleur provoqué par des machines à rendement plus faible.



/me qui vient de lancer un commit d’1 ligne pour mettre à jour la version du SDK publicitaire et qui relance les 2h de tests intégrals…



Oui, il y a des économies d’échelle à faire avant de cibler MS sur le réchauffement des océans!


Arcy Abonné
Il y a 3 ans

Ca reste un POC mais c’est pas idiot comme solution.
Avec un bâtiment dans l’eau et les serveurs directement en contact avec les murs (eux-même en contact avec l’eau), ça pourrait être une bonne solution.



Après tout, c’est ni plus ni moins que l’équivalent aquatique du choix d’OVH


loser Abonné
Il y a 3 ans

[quote] la récupération du matériel usé au bout de 20 ans (durée de vie estimée par Microsoft) [/quote]



le matériel ne sera t’il pas obsolète bien avant ces 20 ans? et donc remplacé par un autre data center?


yvan Abonné
Il y a 3 ans

On peut supposer qu’ils prévoient de sortir la capsule et d’actualiser le hardware plusieurs fois durant les 20 ans…


loser Abonné
Il y a 3 ans

yvan

On peut supposer qu’ils prévoient de sortir la capsule et d’actualiser le hardware plusieurs fois durant les 20 ans…

On peut supposer que oui, mais c’est pas clair ni dans la brève ni dans l’article sur le site de MS.


Jarodd Abonné
Il y a 3 ans

La maintenance est tout aussi facile qu’avec un datacenter “sur terre” ? Car s’il faut un sous-marin pour changer un disque, on n’est pas top sur le bilan carbone :D


tazvld Abonné
Il y a 3 ans

J’ai l’impression que la maintenance se résume à “Ho non… tant pis”



Un tel système doit en effet être pensé pour être résilient à la panne.


Nozalys Abonné
Il y a 3 ans

tazvld

J’ai l’impression que la maintenance se résume à “Ho non… tant pis”

Un tel système doit en effet être pensé pour être résilient à la panne.

Je ne suis absolument pas inquiet sur les problèmes de fiabilité d’un système immergé :



Ça fait 30 ans qu’on sait fabriquer et poser des câbles à fibre optique transocéaniques qui sont garantis 25 ans (il y a de l’électronique dans les câbles, c’est pas juste un toron de fibres), et qui reposent à des profondeurs largement supérieures. Ça fait 50 ans qu’on sait fabriquer des satellites ayant une durée de vie démentielle qui se compte en décennies.
Il n’y a pas de raison pour que les composants d’un DC échappent à la règle !


tazvld Abonné
Il y a 3 ans

Nozalys

Je ne suis absolument pas inquiet sur les problèmes de fiabilité d’un système immergé :

Ça fait 30 ans qu’on sait fabriquer et poser des câbles à fibre optique transocéaniques qui sont garantis 25 ans (il y a de l’électronique dans les câbles, c’est pas juste un toron de fibres), et qui reposent à des profondeurs largement supérieures. Ça fait 50 ans qu’on sait fabriquer des satellites ayant une durée de vie démentielle qui se compte en décennies. Il n’y a pas de raison pour que les composants d’un DC échappent à la règle !

Dans l’article, il disent avoir eu 18 du taux de pannes qu’il aurai sur un datacenter sur terre ferme, il y a donc des pannes.



Et personnellement, je pense que la panne est prise en compte dans l’exploitation de la capsule. C’est certainement calculé pour qu’elle reste globalement fonctionnelle pour toutes la durée de vie de l’exploitation.



Après, je ne pense pas que le matos informatique soit exploité pendant 20ans : au bout de 10ans il va peut être être intéressant de le remplacer entièrement pour quelque chose de plus récent.


fry Abonné
Il y a 3 ans

tazvld

Dans l’article, il disent avoir eu 18 du taux de pannes qu’il aurai sur un datacenter sur terre ferme, il y a donc des pannes.

Et personnellement, je pense que la panne est prise en compte dans l’exploitation de la capsule. C’est certainement calculé pour qu’elle reste globalement fonctionnelle pour toutes la durée de vie de l’exploitation.

Après, je ne pense pas que le matos informatique soit exploité pendant 20ans : au bout de 10ans il va peut être être intéressant de le remplacer entièrement pour quelque chose de plus récent.

à priori, ils ont mis dans la capsule la même chose que dans un DC “normal” et ont eu moins de panne.
soit le taux est acceptable sans maintenance, soit comme le dit Nozalys, on sait faire des choses plus robustes et il “suffira” de spécialiser un poil le matos pour qu’il atteigne des taux acceptables


La Mangouste
Il y a 3 ans

Microsoft s’est déjà penché sur la question pour ses datacenters sur terre. Aujourd’hui les serveurs sont livrés cablés dans des containers. Ils ne changent rien à l’intérieur quand ça tombe en panne, Ils retire le container entier quand il y a trop d’éléments HS.



Là c’est le même fonctionnement je pense.


Zod
Il y a 3 ans

Jarodd a dit:


La maintenance est tout aussi facile qu’avec un datacenter “sur terre” ? Car s’il faut un sous-marin pour changer un disque, on n’est pas top sur le bilan carbone :D




Ils prévoient juste plus de spares sur tous les composants. Dans ce genre de DC, je ne pense pas que tu trouveras de serveurs individuels, juste des clusters de serveurs redondés assez de fois pour que théoriquement la panne soit évitée


espritordu
Il y a 3 ans

Jarodd a dit:


La maintenance est tout aussi facile qu’avec un datacenter “sur terre” ? Car s’il faut un sous-marin pour changer un disque, on n’est pas top sur le bilan carbone :D




Si l’environnement de déploiement est aussi stable en température comme en alimentation il y aura aussi moins de chances d’avoir de la panne matérielle.



Et puis comme le bouzin a 0 frais de maintenance si au bout de 10 ans les 34 des serveurs fonctionnent encore c’est toujours bon à prendre, idem au bout de 20 ans s’il n’y en a plus qu’14 de fonctionnels.


127.0.0.1
Il y a 3 ans

C’est pour éviter de griller les serveurs.



:humour:


John-Ib Abonné
Il y a 3 ans

Et sinon, si le DC est immergé dans les eaux internationales, quelle est la législation applicable concernant les données hébergée là dedans ?



Parce que si c’est la nationalité de la société possédant le DC qui prend, on risque de voir arriver un certain nombre de “paradis numérique”….


Thylia Abonné
Il y a 3 ans

Pour la maintenance si le conteneur n’est pas trop profond, un technicien avec une compétence de plongeur pourrait très intervenir si un sas est prévu à cet effet !


AhLeBatord Abonné
Il y a 3 ans

“Rappelons que ses intentions en matière de bilan carbone sont ambitieuses : un bilan carbone négatif d’ici 2030 (plus de retrait que d’émissions), pour viser d’ici 2050 le retrait de tout le carbone que la société aurait produit depuis ses débuts.”



Très franchement, comment évaluer l’empreinte carbone de Windows millenium ?


TheKillerOfComputer Abonné
Il y a 3 ans

AhLeBatord a dit:



Très franchement, comment évaluer l’empreinte carbone de Windows millenium ?




Ce serait plutôt celui de Windows 10 que j’aimerai évaluer. Entre les mises à jour à gigaoctets en passant donc par les serveurs à faire tourner pour leur déploiement, la puissance sur nos ordinateurs donc la consommation électrique pour les appliquer, etc.



Même en 2050 ils n’auront pas retiré le centième de ce qu’ils auront réellement réalisé depuis leurs débuts.



L’externalisation de la gène, c’est tellement pratique…


woodcutter Abonné
Il y a 3 ans

Je trouve ça excellent comme solution si cela permet moins de consommation et plus écologique, ce qui aurait l’air d’être le cas ici.


loser Abonné
Il y a 3 ans

D’après cet article ils prévoient de changer les serveurs tous les 5 ans.