votre avatar Abonné

Duleunien

est avec nous depuis le 4 juin 2010 ❤️

31 commentaires

Le 02/10/2024 à 00h 59

Ce sont des qbits physique.

Le 20/05/2024 à 11h 21

C'est toujours mon lecteur audio et celui de la plupart de mes connaissance.
Je serais curieux de savoir si il y a un monitoring quelconque du nombre d'install ou de download ?

Le 30/04/2024 à 14h 19

Bravo pour la nouvelle version.
Dommage pour le brief.
C'était vraiment pratique d'avoir un florilège des news le matin pour les lire en mode batch. Là, on revient au mode info en continu que je fuis de presque tout les sites. Peut-être ne peut-on pas échapper à notre époque.

Signé: Un vieux con.

Ou au choix:
Un abonné fidèle (qui compte le rester)

Le 23/06/2023 à 10h 25

Est-ce que tu vas parler de GPFS ?

Le 05/05/2023 à 11h 36


SebGF a dit:


(en même temps si c’est de la bande, c’est pas étonnant : c’est pas le plus rapide et demande de la logistique).


Excellent post Seb.
Je précise ce petit point; il n’y a pas de logistique, tout est automatisé (avec des robots).
Le SLA a été mis en place par prudence dans un premier temps pour être sure de l’honorer notamment en cas de nombreuses demandes d’accès simultanées/massives car comme tu le dit la bande à un très gros temps d’accès à la donnée comparé au Flash ou HDD (le débit est ok, 400 MB/s par lecteur).
Par exemple, sur mon dernier essai il y a 2 semaines (en beta, mais c’était déjà l’infra de prod identique à aujourd’hui), on était à 10 minutes pour restaurer 1 TB. Mais cela va monter avec l’afflue d’utilisateurs. A voir ce que va devenir le SLA moyen et le SLA max constaté.

Le 03/05/2023 à 09h 36

As-tu déjà essayé :
https://www.veeam.com/agent-for-windows-community-edition.html



J’ai jamais testé avec du S3 mais c’est censé le faire:
https://helpcenter.veeam.com/docs/agentforwindows/userguide/backup_job_object_storage_s3.html?ver=60

Le 03/05/2023 à 09h 13

Notre champion du cloud qui grandit !
L’offre AWS Glacier a déjà passé le milliard de $ de chiffre d’affaire annuel, il était temps que quelqu’un les attaque frontalement.

Le 05/05/2022 à 18h 16

Bon courage pour la suite !

Le 05/04/2022 à 09h 57

Super format, je suis tout les jours dessus !
Continuez, s’il vous plait !

Le 08/10/2021 à 12h 28

MisterDams a raison ;)
OVH change de technologie et passe sur de la Tape pour cette nouvelle offre LTA dans des datacenters dédié avec la partie électrique isolé dans une alvéole bétonnée.
Le 100% secure n’existe pas mais il change de dimension de sécurité !

Le 15/09/2021 à 18h 01

Allez, /rand 100 !

Le 12/09/2021 à 12h 20

Un concours facile, même pas de question !

Le 05/05/2021 à 17h 03

Félicitations pour tout ce chemin !
Pourquoi ne pas demander à Mediapart qui fonctionne comme vous quelques conseils sur ces sujets de financements ?

Le 05/05/2021 à 16h 52

Excellente communication d’OVH.
Leur projet hyper-résilience lancé en 2019 va commencer son déploiement en production cet été dans 4 datacenters indépendants.
Il est heureux qu’Octave Klaba est lui même lancé ce projet se sachant vulnérable sur ce point, et dommage qu’il ne soit pas arrivé avant l’incident de Strasbourg.
De plus, il font d’une pierre 2 coups en proposant une offre compétitive face à Glacier, bref du tout bon.



PS: Pour Jean, la mini région évoqué est la France pour les 4 mini-DC qui seront tous dans l’hexagone ^^

Le 01/05/2021 à 11h 31


(quote:1870822:dvr-x)
On ne peut pas dire que la première offre de Scaleway était intéressante, et je pense qu’ils se sont tiré une balle dans le pied du coup…


C’est exactement cela, le juge l’a rappelé à l’oral.
Honnêtement, c’est la meilleure chose qui pouvait arriver à Shadow même si déposer un bilan est une très mauvaise passe.
D’autant plus qu’Octave Klaba a décidé de lâcher quelques fonctions chez OVH pour se consacrer un peu plus à Jezby et donc Shadow en partie.

Le 10/12/2020 à 09h 53

Ils ont fait des efforts pour la dissipation thermique et l’énergie dépensé par le bâtiment, ce qui ne peut être que loué. Mais ils ont fermé la porte à l’utilisation de la Tape qui est la technologie la plus économe d’énergie dans un datacenter. Ca fait quand même 2 discours différents…

Le 06/11/2020 à 09h 45


balancer un coup de laser ne pose aucun problème si ça ne dure que qq nanosecondes sur qq nanomètres


Hélas si, même cela, c’est un gros problème.
Les premières expérimentations en 2014 pour le HAMR nous donne des lasers qui grille au bout de 1 ns, ce qui correspondait à une chauffe…
On a évidemment beaucoup progressé pour avoir des lasers viables mais ceux qu’on met dans le premier HDD HAMR qui va être release le mois prochain sont très couteux, trop par rapport à la capacité qu’il font gagner (data density).
Nous n’avons donc toujours pas des lasers qui tiennent le coup et qui sont économiquement intéressant, cela devrait être réglé en Q1Y2022.

Le 05/11/2020 à 23h 45

On notera que pour le moment, les technologies HAMR et MAMR sont moins rentables (ou cost efficient) que le PMR.
Seagate a annoncé il y a 2 semaines que le HAMR ne sera plus intéressant qu’une fois les 24 TB par HDD atteint, ce qu’il prévoit sur Q1Y2022.

Le 28/10/2020 à 12h 59

Très bon article David, comme d’habitude.

Le 17/08/2020 à 10h 46


KP2 a dit:


ah oui ?? tout ça quand même ? wow, je suis vachement surpris… je les voyais pas dépasser une micro-niche de 1% max… ~J’avais zappé la dernière phrase…


IBM ne vends plus de x86 (–>Lenovo), donc ce chiffre ne se fait que sur 2 architecture; Power & Mainframe.
Il est tout à fait normal de penser que ce chiffre devrait être très faible car le processeur Power est un processeur de niche, pas adapté aux particuliers et aux PME, donc on ne le voit jamais.



Mais quand ton plus gros client c’est Google qui fait tourner tout son moteur de recherche sur tes serveurs Power, tu fais un beau chiffre d’affaire sans que personne ne s’en rende compte.

Le 21/05/2020 à 20h 05







SebGF a écrit :



C’est un calcul à faire, mais perso je pense que les services en ligne sont vraiment devenus plus intéressants pour une sauvegarde fiable et peu onéreuse.





Et c’est bien là le problème, de nombreux prestataires (la majorité en fait, mais il y en a toujours plein qui font cela bien) ne sont pas aussi fiable qu’on pourrait le penser car ils utilisent les mêmes technologies que tu décris, sans plus de sécurité (par exemple tout sur un site, le jour où il y a un désastre, tout disparait).

De même certains font des réplications entre site sans check auparavant l’intégrité des données, donc cela leur arrive de répliquer des données déjà corrompus.

Je passe sur ceux qui utilisent du matériel bas de gamme en le duplique en pensant que les 2 ne tomberont jamais ensemble.


Le 21/05/2020 à 18h 23

Excellent article, il y a eu pas mal de travail pour pondre cela ;)

Sachez

que certains de ces acteurs cherche encore à réaliser des grilles tel

que présentés de manière synthétique sans y arriver aussi bien que vous !

 







Rowin a écrit :



Petite

question technique : concrètement, ça marche comment le stockage à

froid ? Quand on parle de plusieurs heures pour récupérer les données,

je m’imagine un mec payé pour aller chercher des disques durs rangés

dans un placard pour recopier les données, mais je suis presque certain

que c’est pas ça <img data-src=" />





Il

y a eu de nombreux commentaires/questions à ce sujet et tout autant de

réponse (généralement bonne) car il existe de très nombreuses méthodes.

Elle se démarquent en fonctions de leur facilité d’installation (set

up), de leur facilité d’opération (coté user particulièrement), leur

prix et leur technologie.



Ta question met l’accent sur la technologie et vu que c’est mon quotidien, je peux apporter une réponse claire.

Le stockage froid aujourd’hui chez les plus gros hyperscaler, c’est de la Tape (le truc comme la VHS).

Plus

tu as de données (on parle de Pétabyte (PB), voir de l’Exabyte (EB)

dans le cas de Google, Azur et AWS), plus cette technologie est

rentable. Google est à ce jour le plus gros utilisateur de bande/Tape

(cela peut sembler étrange pour une société “jeune”).

Ces cassettes

(on dit cartouches) sont géré par des bras robotisés qui les insert dans

des lecteurs (les “magnétoscopes”) pour les lire et les écrire, aucune

intervention humaine dans tout cela. D’où la lenteur et les délais pour

accéder aux données (90 sec en moyenne, plusieurs heures si tu en veut

beaucoup beaucoup beaucoup).

Voilà une illustration:

https://developer.ibm.com/storage/videos/ibm-ts4500-tape-library-dual-robotics-i…



Pour

ceux qui ne sont pas sur ces tailles démesurés, le stockage à froid

reste des équivalents NAS, à savoir des baies avec des dizaines, voir

centaines de disques dures lents 5400 tpm (car moins cher).

Tout est aussi automatisé et branché sur le réseau via des SAN/switch.



Évidemment,

là on parle de Hardware, et la couche software est tout aussi

intéressante car il existe pas mal d’application, d’OS ou de file system

qui gère cela différemment.


Le 06/10/2019 à 07h 51

Aucune réel news.

Tout les ans, un plan social est voté chez tout les acteurs majeurs de l’IT pour dégresser les effectifs ; Oracle, HPE, IBM, DELL EMC

Le 19/04/2019 à 08h 27







EricB a écrit :



faut il rappeler qu IBM a racheté RedHat en 2018 à prix d’or.

Quelle est la conséquence de ce rachat dans leurs finances? Ou n est ce pas encore intégré car en attente d accord final pour le rachat?





La datte d’IBM est passé à \(50 milliard, l'achat de Red Hat en est pour \)34 milliard.

Par rapport à son chiffre d’affaire et ses bénéfices, la société est considéré comme moyennement endetté et personne n’est inquiet à ce sujet là sur les marchés.



Le vrai problème est la fonte des secteurs historiques (systèmes, services) qui n’est pas compensé par les nouveaux piliers stratégique (AI, Cloud).

&nbsp;

Il ne faut pas perdre de vue que comme tout les grands groupes possédé par les bourses, les Execs d’IBM sont piloté et récompensé pour une rentabilité court-termiste et n’ont que faire du future à 1020 ans.


Le 19/04/2017 à 10h 04

Pas de compte Facebook, pas de participation.

Assez moyen pour une experience citoyenne…

Le 27/07/2016 à 09h 20

Je ne post pas souvent mais ca fait plaisir de voir des bons journalistes vivre de leur passion.

&nbsp;Bravo et continuez !

Le 23/06/2016 à 08h 18

Je pense que comme beaucoup de boite, ils ont supprimé la bande et avait tout sur disque.

Le probleme c’est que le backup et l’archivage sur disque peuvent être touché par un virus ou grillés par un simple court jus quand la bande est plus sure.



D’ailleurs on me dit que StorageTek fait 35% de chiffres en plus d’année en année…

Le 13/04/2016 à 07h 40

Y a plus qu’a attendre les résultats de l’expérimentation Finlandaise pour voir ce que ca donne concrétement…

linkedin.com LinkedIn



Ils sont partit sur 550 euros/mois alors que le cout de la vie est plus élevé chez eux qu’en France sauf à Paris.

Peut-etre aussi une mesure pour désengorger les centres villes et forcer les “pauvres” à aller vivre en campagne?

Le 01/04/2016 à 14h 21

Pas très original.

Mais c’est bien de faire l’effort ^^

Le 01/04/2016 à 07h 16

Ah enfin, il est évident que le film Matrix représentre notre avenir.

Merci Sébastien, tu me fais réver ce 1er Avril !

Le 16/01/2013 à 10h 46

Petite demande de précision concernant la partie gestion unifiée, tu écris:

“Les administrateurs pourront enfin manipuler des machines virtuelles hybrides via Hyper-V en les déplaçant de manière transparente d’un serveur local vers Azure”

Est-ce que l’inverse est également vrai (ca ne l’était pas jusque la) ?

A savoir peut-on enfin déplacer des machines virtuelles qui sont sur le cloud Azure vers son Cloud privé ?