votre avatar Premium

Duleunien

est avec nous depuis le 4 juin 2010 ❤️

37 commentaires

Pourtant il y a bien le format EDSFF E3 en 4 tailles différentes

On ne parle là que de HDD magnétique. Pas de flash, toujours trop cher pour stocker des exabytes de données tièdes/froides.
C'est ce que demande les hyperscaler depuis 10 ans.
Mais l'oligopole (plus que 3) des fabriquants HDD n'ont pas osé se lancer dans ce nouveau format par peur de l'investissement initial et son manque de compatibilité avec les baies de stockage existante, qui représente toujours plus que les commandes des 8 CSP géants.

Les CSEs des boites concernées devraient surveiller et se prononcer sur le sujet non?
J'ai l'impression que cette vague est assez récente comme une conséquence de la diminution du volume d'affaire en IT.
Quelqu'un peut confirmer?

Mis bout à bout, les chiffres d'affaire des différentes multinationales du compute, du storage, du network et des software (vaste domaine) sont tous en augmentation. 2023 était une année record au dessus des années pré covid et 2024 l'a battu. 2025 s'annonce encore meilleur.

Il y a bien evidemment quelques boites qui baissent, mais le trend global est en net augmentation.

Ça fait quand même autour de dix ans qu'il y a du refroidissement adiabatique, et ça, ça consomme de l'eau. Si tu reste en refroidissement clim classique, tu as un COP dégueulasse, et ça plus personne n'en veut.
Encore une fois je fais que lire Next, sans savoir plus profond. Oui ça existe mais peu de gens s'en sert. Donc ça a peu d'impact.

Le refroidissement adiabatique n’est pas encore une réalité industrielle (à peine 1% des serveurs dans le monde). A savoir que l’immense majorité des datacenters tourne encore à la clim comventionnelle pour des raisons économique. L’adiabatique est encore trop cher à mettre en place et pas obligatoire par régulation.
IBM, Intel, la liste est longue...
Mais je ne sais pas si c'est la volonté in fine de Free içi.

Les Guignols me manquent 😭

Pas mieux.
Ce sont des qbits physique.
C'est toujours mon lecteur audio et celui de la plupart de mes connaissance.
Je serais curieux de savoir si il y a un monitoring quelconque du nombre d'install ou de download ?

Le 30/04/2024 à 14h19

412
Bravo pour la nouvelle version.
Dommage pour le brief.
C'était vraiment pratique d'avoir un florilège des news le matin pour les lire en mode batch. Là, on revient au mode info en continu que je fuis de presque tout les sites. Peut-être ne peut-on pas échapper à notre époque.

Signé: Un vieux con.

Ou au choix:
Un abonné fidèle (qui compte le rester)

Est-ce que tu vas parler de GPFS ?


SebGF a dit:


(en même temps si c’est de la bande, c’est pas étonnant : c’est pas le plus rapide et demande de la logistique).


Excellent post Seb.
Je précise ce petit point; il n’y a pas de logistique, tout est automatisé (avec des robots).
Le SLA a été mis en place par prudence dans un premier temps pour être sure de l’honorer notamment en cas de nombreuses demandes d’accès simultanées/massives car comme tu le dit la bande à un très gros temps d’accès à la donnée comparé au Flash ou HDD (le débit est ok, 400 MB/s par lecteur).
Par exemple, sur mon dernier essai il y a 2 semaines (en beta, mais c’était déjà l’infra de prod identique à aujourd’hui), on était à 10 minutes pour restaurer 1 TB. Mais cela va monter avec l’afflue d’utilisateurs. A voir ce que va devenir le SLA moyen et le SLA max constaté.

Notre champion du cloud qui grandit !
L’offre AWS Glacier a déjà passé le milliard de $ de chiffre d’affaire annuel, il était temps que quelqu’un les attaque frontalement.

Bon courage pour la suite !

Super format, je suis tout les jours dessus !
Continuez, s’il vous plait !

MisterDams a raison ;)
OVH change de technologie et passe sur de la Tape pour cette nouvelle offre LTA dans des datacenters dédié avec la partie électrique isolé dans une alvéole bétonnée.
Le 100% secure n’existe pas mais il change de dimension de sécurité !

Allez, /rand 100 !

Un concours facile, même pas de question !

Félicitations pour tout ce chemin !
Pourquoi ne pas demander à Mediapart qui fonctionne comme vous quelques conseils sur ces sujets de financements ?

Excellente communication d’OVH.
Leur projet hyper-résilience lancé en 2019 va commencer son déploiement en production cet été dans 4 datacenters indépendants.
Il est heureux qu’Octave Klaba est lui même lancé ce projet se sachant vulnérable sur ce point, et dommage qu’il ne soit pas arrivé avant l’incident de Strasbourg.
De plus, il font d’une pierre 2 coups en proposant une offre compétitive face à Glacier, bref du tout bon.



PS: Pour Jean, la mini région évoqué est la France pour les 4 mini-DC qui seront tous dans l’hexagone ^^


(quote:1870822:dvr-x)
On ne peut pas dire que la première offre de Scaleway était intéressante, et je pense qu’ils se sont tiré une balle dans le pied du coup…


C’est exactement cela, le juge l’a rappelé à l’oral.
Honnêtement, c’est la meilleure chose qui pouvait arriver à Shadow même si déposer un bilan est une très mauvaise passe.
D’autant plus qu’Octave Klaba a décidé de lâcher quelques fonctions chez OVH pour se consacrer un peu plus à Jezby et donc Shadow en partie.

Ils ont fait des efforts pour la dissipation thermique et l’énergie dépensé par le bâtiment, ce qui ne peut être que loué. Mais ils ont fermé la porte à l’utilisation de la Tape qui est la technologie la plus économe d’énergie dans un datacenter. Ca fait quand même 2 discours différents…


balancer un coup de laser ne pose aucun problème si ça ne dure que qq nanosecondes sur qq nanomètres


Hélas si, même cela, c’est un gros problème.
Les premières expérimentations en 2014 pour le HAMR nous donne des lasers qui grille au bout de 1 ns, ce qui correspondait à une chauffe…
On a évidemment beaucoup progressé pour avoir des lasers viables mais ceux qu’on met dans le premier HDD HAMR qui va être release le mois prochain sont très couteux, trop par rapport à la capacité qu’il font gagner (data density).
Nous n’avons donc toujours pas des lasers qui tiennent le coup et qui sont économiquement intéressant, cela devrait être réglé en Q1Y2022.

On notera que pour le moment, les technologies HAMR et MAMR sont moins rentables (ou cost efficient) que le PMR.
Seagate a annoncé il y a 2 semaines que le HAMR ne sera plus intéressant qu’une fois les 24 TB par HDD atteint, ce qu’il prévoit sur Q1Y2022.

Très bon article David, comme d’habitude.


KP2 a dit:


ah oui ?? tout ça quand même ? wow, je suis vachement surpris… je les voyais pas dépasser une micro-niche de 1% max… ~J’avais zappé la dernière phrase…


IBM ne vends plus de x86 (–>Lenovo), donc ce chiffre ne se fait que sur 2 architecture; Power & Mainframe.
Il est tout à fait normal de penser que ce chiffre devrait être très faible car le processeur Power est un processeur de niche, pas adapté aux particuliers et aux PME, donc on ne le voit jamais.



Mais quand ton plus gros client c’est Google qui fait tourner tout son moteur de recherche sur tes serveurs Power, tu fais un beau chiffre d’affaire sans que personne ne s’en rende compte.







SebGF a écrit :



C’est un calcul à faire, mais perso je pense que les services en ligne sont vraiment devenus plus intéressants pour une sauvegarde fiable et peu onéreuse.





Et c’est bien là le problème, de nombreux prestataires (la majorité en fait, mais il y en a toujours plein qui font cela bien) ne sont pas aussi fiable qu’on pourrait le penser car ils utilisent les mêmes technologies que tu décris, sans plus de sécurité (par exemple tout sur un site, le jour où il y a un désastre, tout disparait).

De même certains font des réplications entre site sans check auparavant l’intégrité des données, donc cela leur arrive de répliquer des données déjà corrompus.

Je passe sur ceux qui utilisent du matériel bas de gamme en le duplique en pensant que les 2 ne tomberont jamais ensemble.


Excellent article, il y a eu pas mal de travail pour pondre cela ;)

Sachez

que certains de ces acteurs cherche encore à réaliser des grilles tel

que présentés de manière synthétique sans y arriver aussi bien que vous !

 







Rowin a écrit :



Petite

question technique : concrètement, ça marche comment le stockage à

froid ? Quand on parle de plusieurs heures pour récupérer les données,

je m’imagine un mec payé pour aller chercher des disques durs rangés

dans un placard pour recopier les données, mais je suis presque certain

que c’est pas ça <img data-src=" />





Il

y a eu de nombreux commentaires/questions à ce sujet et tout autant de

réponse (généralement bonne) car il existe de très nombreuses méthodes.

Elle se démarquent en fonctions de leur facilité d’installation (set

up), de leur facilité d’opération (coté user particulièrement), leur

prix et leur technologie.



Ta question met l’accent sur la technologie et vu que c’est mon quotidien, je peux apporter une réponse claire.

Le stockage froid aujourd’hui chez les plus gros hyperscaler, c’est de la Tape (le truc comme la VHS).

Plus

tu as de données (on parle de Pétabyte (PB), voir de l’Exabyte (EB)

dans le cas de Google, Azur et AWS), plus cette technologie est

rentable. Google est à ce jour le plus gros utilisateur de bande/Tape

(cela peut sembler étrange pour une société “jeune”).

Ces cassettes

(on dit cartouches) sont géré par des bras robotisés qui les insert dans

des lecteurs (les “magnétoscopes”) pour les lire et les écrire, aucune

intervention humaine dans tout cela. D’où la lenteur et les délais pour

accéder aux données (90 sec en moyenne, plusieurs heures si tu en veut

beaucoup beaucoup beaucoup).

Voilà une illustration:

https://developer.ibm.com/storage/videos/ibm-ts4500-tape-library-dual-robotics-i…



Pour

ceux qui ne sont pas sur ces tailles démesurés, le stockage à froid

reste des équivalents NAS, à savoir des baies avec des dizaines, voir

centaines de disques dures lents 5400 tpm (car moins cher).

Tout est aussi automatisé et branché sur le réseau via des SAN/switch.



Évidemment,

là on parle de Hardware, et la couche software est tout aussi

intéressante car il existe pas mal d’application, d’OS ou de file system

qui gère cela différemment.


Aucune réel news.

Tout les ans, un plan social est voté chez tout les acteurs majeurs de l’IT pour dégresser les effectifs ; Oracle, HPE, IBM, DELL EMC







EricB a écrit :



faut il rappeler qu IBM a racheté RedHat en 2018 à prix d’or.

Quelle est la conséquence de ce rachat dans leurs finances? Ou n est ce pas encore intégré car en attente d accord final pour le rachat?





La datte d’IBM est passé à \(50 milliard, l'achat de Red Hat en est pour \)34 milliard.

Par rapport à son chiffre d’affaire et ses bénéfices, la société est considéré comme moyennement endetté et personne n’est inquiet à ce sujet là sur les marchés.



Le vrai problème est la fonte des secteurs historiques (systèmes, services) qui n’est pas compensé par les nouveaux piliers stratégique (AI, Cloud).

&nbsp;

Il ne faut pas perdre de vue que comme tout les grands groupes possédé par les bourses, les Execs d’IBM sont piloté et récompensé pour une rentabilité court-termiste et n’ont que faire du future à 1020 ans.


Pas de compte Facebook, pas de participation.

Assez moyen pour une experience citoyenne…

Je ne post pas souvent mais ca fait plaisir de voir des bons journalistes vivre de leur passion.

&nbsp;Bravo et continuez !

Je pense que comme beaucoup de boite, ils ont supprimé la bande et avait tout sur disque.

Le probleme c’est que le backup et l’archivage sur disque peuvent être touché par un virus ou grillés par un simple court jus quand la bande est plus sure.



D’ailleurs on me dit que StorageTek fait 35% de chiffres en plus d’année en année…

Y a plus qu’a attendre les résultats de l’expérimentation Finlandaise pour voir ce que ca donne concrétement…

linkedin.com LinkedIn



Ils sont partit sur 550 euros/mois alors que le cout de la vie est plus élevé chez eux qu’en France sauf à Paris.

Peut-etre aussi une mesure pour désengorger les centres villes et forcer les “pauvres” à aller vivre en campagne?

Pas très original.

Mais c’est bien de faire l’effort ^^

Ah enfin, il est évident que le film Matrix représentre notre avenir.

Merci Sébastien, tu me fais réver ce 1er Avril !

Petite demande de précision concernant la partie gestion unifiée, tu écris:

“Les administrateurs pourront enfin manipuler des machines virtuelles hybrides via Hyper-V en les déplaçant de manière transparente d’un serveur local vers Azure”

Est-ce que l’inverse est également vrai (ca ne l’était pas jusque la) ?

A savoir peut-on enfin déplacer des machines virtuelles qui sont sur le cloud Azure vers son Cloud privé ?