GLI : « Nous n’avons perdu aucune donnée, mais la baie est en panne »
La tornade est passée, on fait le point
Le 24 juin 2016 à 14h40
4 min
Internet
Internet
Après une semaine assez animée, le groupe GLI communique quelques informations sur la panne qui touche le service d'abonnement de plusieurs titres de la presse française. Et la société se veut rassurante.
Depuis quelques jours, certains éditeurs français subissent une période de stress intense : le prestataire qui a en charge une bonne partie de leurs abonnements, le groupe GLI, a subi une panne informatique. Résultat : les donnés de facturation des abonnés ainsi que le service d'abonnement en ligne sont inaccessibles.
La panne est intervenue dimanche et les éditeurs ont été rapidement prévenus. Mais mercredi, personne ne semblait encore avoir de solution. Si nous avions déjà fait un premier point selon les retours des éditeurs, GLI restait injoignable. Le groupe a néanmoins décidé de commencer à livrer sa version et à répondre à nos questions alors qu'une réunion est organisée avec ses clients ce soir.
Plusieurs copies des données, aucune n'est vraiment utilisable pour le moment
C'est Marylou Pernaut, de l'agence Corpcom, qui est en charge du dossier. Elle nous a fait savoir que « Bien évidemment, les données sont triplement sauvegardées et la plupart des clients de GLI ont également une réplication des données sauvegardées ». C'est semble-t-il le cas de Valeurs actuelles, selon l'AFP, mais aussi du Point comme l'indique Jean-Michel DeMarchi, rédacteur en chef de la lettre spécialisée Mind.
« Mais une vraie sauvegarde, c'est quelque chose que l'on peut exploiter immédiatement, pas quelque chose que l'on ne peut pas utiliser chez soi parce que ça passe par un outil propriétaire » ironise un proche du dossier. Et c'est bien là tout le problème actuel. C'est pour cela qu'une partie des éditeurs se penche actuellement sur la troisième piste : celle des données récupérées à travers un outil de Business Intelligence, qui sont brutes, et qu'il faut donc remettre en forme.
Néanmoins, aucune donnée n'est perdue selon les représentants de GLI. Celles-ci sont présentes au sein de deux baies distinctes : « Il y a une première baie qui dispose de 100 % des données, et c'est cette baie qui est en panne, donc on ne peut pas l'utiliser. [...] Il y a une deuxième baie qui a les données. Elle n'est pas en panne. Pour l'instant on ne souhaite pas la brancher sans avoir identifié le problème. On veut trouver le problème avant de la réactiver. »
La remise en route se prépare, sur fond de diagnostic technique
La cause de la panne n'est en effet pas encore connue, et il faudra attendre encore un peu avant d'en savoir plus : « Pour le moment on est en diagnostic, on est en train de rechercher l'origine de la panne. Pour l'instant on ne sait pas vraiment ce qui s'est passé. Peut être un micro-code ». La piste du piratage semble exclue pour le moment, la remise en place du service est annoncée pour dans un mois.
En attendant d'en savoir plus et de pouvoir éventuellement faire redémarrer l'une ou l'autre de ses baies, GLI continue donc de travailler avec les éditeurs, et de gérer les abonnements via d'autres canaux que le web. « On peut toujours faire des abonnements par mail, par téléphone, etc. C'est juste sur le web que l'on ne peut pas récolter les données » nous précise-t-on.
Reste la question de la remise en route dela facturation et des abonnements. « Concernant les facturations, tout sera fonctionnel dès lundi », nous indiqué Marylou Pernaut, alors que les versions diffèrent encore selon les éditeurs que nous avons pu interroger sur ce point.
« Nous sommes en contact avec les éditeurs, on organise une réunion ce soir donc on est vraiment transparents avec eux. » Une réunion qui s'annonce animée, certains nous indiquant que « la course à celui qui aura droit à un traitement prioritaire » est déjà lancée. Il devrait aussi être question du manque à gagner pour ces jours d'indisponibilité partielle, et des responsabilités de chacun. Nous tenterons bien entendu de faire un nouveau point dès que nous aurons pu obtenir de nouvelles informations.
Entretien réalisé par Guénael Pépin
GLI : « Nous n’avons perdu aucune donnée, mais la baie est en panne »
-
Plusieurs copies des données, aucune n'est vraiment utilisable pour le moment
-
La remise en route se prépare, sur fond de diagnostic technique
Commentaires (119)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 24/06/2016 à 15h25
Si tu perds des données, tu as deux choix : soit tu as eu un problème matériel, soit les données ont été effacées alors qu’elles ne le devraient pas.
Du coup, si t’es dans le deuxième cas (ce qui est probable vu leur refus de mettre en place la sauvegarde sans comprendre, genre risquer un second effacement), pouvoir jeter un coup d’oeil dans le code peut aider.
Maintenant, le code open-source a beau être open, tu l’utilises la plupart du temps sans faire une analyse de code. Sauf dans ce genre de cas, et encore faut’il ne pas trouver la cause par d’autres biais, souvent bien plus rapides que de faire du code review d’un truc de milliers de ligne avec des techniques de code et un langage que tu ne maitrises probablement pas…
Le 24/06/2016 à 15h26
c’est marrant la com de la boite ça me rappelle le début d’aliens (alien 2) :
“Ne vous inquiétez pas ripley on a envoyé une colonie sur la planète où vous disiez avoir vu des aliens, tout ça bien”
2 jours plus tard :
“en fait y’a un légers soucis de cafard on va vous y renvoyer avec une bombe de begon et une douzaine de marines au cas ou”
Le 24/06/2016 à 15h27
En tout cas, si ils coulent pas après ça, ils auront sacrément de la chance…
Le 24/06/2016 à 15h31
Le 24/06/2016 à 15h32
J’ai un peu de mal à comprendre aussi qu’on parle d’une baie en panne, si c’est une baie équalogic et que les disques ne montent plus pour un environnement virtualisé, ou en montage Iscsi sous l’OS, il suffirait de copier les données des LUN de Backup sur un nouveau volume puis remonter l’ensemble mais en foutant une prod dégradé sur une baie de sauvegarde, mais au moins fonctionnelle.
Donc à mon avis le backup du backup n’est plus fonctionnel, la tâche n’a pas du être correctement supervisée et personne n’a rien vu jusqu’au moment ou ça pète.
En tout cas le coup de la panne matérielle j’y crois vraiment moyen, ce genre d’équipement est redondé normalement.
A mon avis ça sent un putain se rançonware pris dans la gueule, ou alors on parle pour des raisons de budget de nas Synology non mis à jour avec une brèche ouverte sur la web pour un petit rançonware, ce qui oblige à inspecter les données de la baie de backup avant remise en prod…
Mais le coup du micro code c’est bizarre on fait sur la QA d’abord pour valider une montée de version via un refresh de la prod en QA.
Vu le temps restauration on peu dire qu’il étaient bien à poil ….
Le 24/06/2016 à 15h35
Il gère le soucis informatique à leur sauce (bonne ou mauvaise) et prenne une agence de communication, pour la communication avec la presse et leur client.
Je pense qu’ils sont conscient que l’entreprise est en péril donc faut sauver les meubles. Et je crois pas qu’en 1semaine on s’improvise communicant.
Le 24/06/2016 à 15h36
Le 24/06/2016 à 15h37
Ah, du beau pipeautron de classe mondiale ! " />
(Je bosse dans un datacenter, donc bon, je connais un peu. " />)
Le 24/06/2016 à 15h38
Le 24/06/2016 à 15h40
Le 24/06/2016 à 15h41
S’ils ne retrouvent aucune donnée, la boite est morte, mensonge ou pas. Et même si j’avais la certitude qu’ils vont les retrouver, je leur prêterais pas de l’argent " />
D’ailleurs, qu’est-ce qui te dit qu’ils mentent?
Le 24/06/2016 à 15h43
Le 24/06/2016 à 15h44
Le 24/06/2016 à 15h52
Résumé :
-On a un failover mais on ne veut pas s’en servir
-On a des backups partout : mais on ne veut pas s’en servir
Apparemment le service rendu n’est pas si critique que çà alors " />
Le 24/06/2016 à 15h57
Le 24/06/2016 à 16h00
Oui bon l’open source, ça ne garanti absolument rien.
Il y a 2 ans nos Nexenta sont tombés en panne suite à une màj foireuse d’un switch (donc à priori aucun rapport).
Personne chez Nexenta n’a été en mesure de les faire repartir dans des délais raisonnables (12h, pour nous).
On a tout basculé dur du Dell Proprio du coup. Avec un vrai support qui tient la route.
L’inverse aurait aussi été possible. Des fois ça tient plus aux professionnels qu’on peut avoir à disponibilité, plus qu’autre chose.
Le 26/06/2016 à 17h19
Le 26/06/2016 à 19h17
Vous vivez où les mecs ? Y’a plein de petites boites qui ont eu du bol, des opportunités, qui n’ont pas géré la croissance et la montée en charge, et qui raisonnent tranquillement comme quand ils bricolaient avec des TPE / PMEs.
Parfois, ils ont même payé un accompagnement fort cher par une SSII qui a mis 2 stagiaires. Et tout le monde s’est congratulé sur cette entreprise avec une croissance à 2 chiffres.
Et bien sûr, mis en lumière par telle SSII (ou l’expert réseau est en fait un ex stagiaire qui n’a pas eu son diplôme mais qui a été embauché à cause du manque de ressources), les gros clients ont afflués. Les démos sont biens, ils ne connaissent pas forcément l’écosystème, tout le monde trouve la solution sympa. Et même dans le cas où y’a des gens compétents, le business n’attend pas…. Sauf que le crash peut se trouver juste avant le déploiement d’un truc vraiment solide.
Y’a pas que des gros nazes: l’aspect solidité technique, c’est 1⁄3 du business. Ici on va geeker et y aller tous de notre conseil “lol noob !” mais des exemples d’amateurismes (ou de boites qui ont eu les yeux plus gros que le ventre, que ca soit pour prendre un risque temporairement calculé ou par méconnaissance totale), j’en ai plein dans la tête " />
Le 27/06/2016 à 06h13
ouai une petite boîte de 5 salariés tout au plus .
Petite boite qui a 27 ans et 12 millions € de CA en 2014 et avec un capital sociale de 1.5Millions d’€ .
Non mais tu nous prendrais pas pour des chats ? :o
Le 27/06/2016 à 07h49
owi owi l’arguement de l’opensource en mousse.
Et donc ca aurait apporte quoi l’opensource ? a part ne pas avoir de support du tout sans contrat ?
Le 27/06/2016 à 07h58
Ne jamais répondre à un vieux troll, l’attente l’a mis en appétit…
Le 27/06/2016 à 08h04
celle des données récupérées à travers un outil de Business Intelligence, qui sont brutes, et qu’il faut donc remettre en forme.
Omg " />
Je vois tout a fait
“nan mais vous inquiétez pas on avait enregistré des rapports BO, suffit de récupérer les données et de les réinjecter dans les tables…”
PAN
" />
Pour l’instant on ne souhaite pas la brancher sans avoir identifié le problème. On veut trouver le problème avant de la réactiver.
ca c’est pas faux
1er disque qui pete “pas grave j’en ai un 2eme”
brancher le 2eme, pète aussi. “oops”.
Le 27/06/2016 à 08h09
Le 27/06/2016 à 08h14
Et sinon, question à la con ,pourquoi ne pas faire une sauvegarde de la Baie de Secours, de la mettre en route et de la restaurer en cas de problème ?
Le 27/06/2016 à 11h11
Possibles interconnexion avec d’autres data propres, principe de précaution.
Le 27/06/2016 à 12h18
Le 27/06/2016 à 12h37
Dois-je comprendre que NXi est touché aussi ?
Le 27/06/2016 à 15h30
Non, pourquoi ? On ne fait ni d’abonnement papier, ni d’externalisation sur des services essentiels ;) (mais bon en web c’est pas tellement la même problématique).
Le 24/06/2016 à 14h45
Ca sent le bullshit cette explication…
Le 24/06/2016 à 14h47
+1
Le 24/06/2016 à 14h47
Je n’y connais rien dans le business du développement informatique, du codage et de la sauvegarde (hors cas du particulier), mais 1 mois pour remettre en route le service, voire une semaine pour diagnostiquer la cause de la panne des baies, ça me paraît énorme…
Le 24/06/2016 à 14h51
+1 pour le bullshit.
1 mois pour remettre tout en marche ? Hahaha, quelle blague !
Le 24/06/2016 à 14h52
Pour avoir vécu la perte d’une baie primaire, le constructeur peut vérifier/garantir que le données n’ont pas été perdues (bien écrite sur la baie secondaire).
Je comprends qu’ils hésitent à basculer sur la baie secondaire, mais il ne faut pas 1 mois pour repartir sur la baie primaire!!
Je me demande ce qu’ils ont comme matos et fournisseur…
Le 24/06/2016 à 14h53
oh que oui
Le 24/06/2016 à 14h53
Le 24/06/2016 à 14h54
Il reste un fichier csv c’est cool ça " />
Le 24/06/2016 à 14h55
“Pour l’instant on ne sait pas vraiment ce qui s’est passé. Peut être un micro-code “.
“la remise en place du service est annoncée pour dans un mois” MAIS “Concernant les facturations, tout sera fonctionnel dès lundi” " />
Franchement ils me tuent !
On a les données mais on peut pas les lire et on flippe tellement qu’on préfère pas redémarrer par contre les facture pas de soucis…! (Vous allez me dire : qu’ils prennent les précautions maintenant mais il fallait le faire AVANT ! )
Et je pourrais continuer a citer la moitié de l’article !
Je ne voit pas cette société perdurer dans le temps.
Le 24/06/2016 à 14h55
Quand on délègue une agence conseil spécialisée dans la réputation pour expliquer un problème technique… Comment dire ça gentiment ? Non, rien.
Le 24/06/2016 à 14h55
Le 24/06/2016 à 14h57
Ça dépend. J’ai déjà vu des pannes sur des baies de stockage: le constructeur de la baie a envoyé spécialement un ingénieur depuis le Japon dès que la panne fut identifiée (donc quelques dizaines d’heures). Ils ont même payé l’hélicoptère depuis l’aéroport pour aller plus vite. Le gars est resté toute la nuit à taper des commandes de Gourou pour tenter de remonter la baie.
La baie contenait des données bancaires: interdiction de la part du constructeur de démarrer la baie PRA parce qu’il n’était pas sûr du résultat.
Le 25/06/2016 à 05h20
Ils n’ont certainement jamais testé la validité des backup. J’ai souvent vu ça. On sauvegarde… on croit que…
Le 25/06/2016 à 06h52
Non sur un kimousse(kimsufi) " />
Le 25/06/2016 à 07h01
Faut pas forcement accusé les sysadmin voir la DSI si y’en a une.
Parfois (souvent) l’IT cherche a sécuriser le SI mais la direction dit “cay trop cher” même en leur expliquant les risques a base de “si ca plante on a plus d’activité ça coûtera sans doute encore plus cher” et on te répond “oui mais c’est cher donc on fait pas”
Le 25/06/2016 à 07h43
Ben en fait c’est la ou je suis pas d’accord, ce mal est ultra français aka les “experts/gens qui savent/qui réfléchissent” ne doivent JAMAIS être écoutés (y a même des gens qui font des bouquins la dessus).
Sauf qu’une bonne DSi aurait du poser ses couilles sur la table et dire ok on fait de la merde par contre tu le signes en quatre exemplaire avec une clause disculpant la DSi de toute faute grave.
Et la ta direction en général change de ton et d’attitude parce qu’elle sait qu’elle sera en faute vis à vis des actionnaires et des utilisateurs. (ou elle vire la DSi sur le chmap pour mettre des incompétents à la place :p)
Le 25/06/2016 à 09h10
Le 25/06/2016 à 09h26
Incompétence au minimum d’un des services : celui qui fait ou celui qui paie. Après le monde étant souvent gris plutôt que noir et blanc, les deux sont probablement en partie responsables.
Est-ce qu’une entreprise avec un PRA qui dure un mois peut être prise au sérieux dans le monde numérique actuel ?
Le 25/06/2016 à 09h51
Si j’ai bien compris (lu en diago-café), ils avaient deux baies normalement redondantes mais avec l’une d’elles déjà en panne depuis un certain temps et tout ça sans solution de backup viable en parallèle c’est ça ?
J’avoue avoir du mal à comprendre comment, pour une boîte de cette ampleur, on peut en arriver à une situation pareille alors que les données stockées constituent le cœur de métier.
Le 25/06/2016 à 09h53
Le 25/06/2016 à 12h38
Le 25/06/2016 à 16h28
Un mois pour récupérer, une baie que l’on ne veut pas brancher …
Hmm données cryptées semble effectivement le fond du problème, je me demande si on peut s’en sortir sans payer ? Encore qu’ils disposent d’une grosse puissance de calcul pour tenter le truc …
Le 25/06/2016 à 18h10
Laisse moi deviner: Les disques du RAID identiques (même marque/modèle et acheté en même temps?) Comme ca quand un disque lâche il y a de forte chance que les autres aient le même “défaut” et lâchent à la reconstruction…
Le 25/06/2016 à 18h20
Faut un peut de piment dans la vie " />
Le 25/06/2016 à 18h23
Le 25/06/2016 à 18h29
Le 25/06/2016 à 20h35
Le 26/06/2016 à 06h13
Vu la remarque de votre contact, et sans avoir lu les 107 post précédents, ça sent gros le cryptolocker sur la baie principale, et ils ne savent pas si le crypto a été répliqué (et dans quelle mesure il à fonctionner) usr la seconde baie.
Parce que là, c’est visiblement pas un problème matériel.
Le 24/06/2016 à 14h59
N’oubliez pas que la quantité de données est assez importante et que la criticité du problème est maximale.
Quand c’est la totalité de votre business qui est en jeu, vous ne vous précipitez pas comme ça…
Le 24/06/2016 à 14h59
Heureusement que les experts de l’interweb sont là, ils vont résoudre, pardon, solutionner, le problème sans même le connaître " />
Le 24/06/2016 à 15h00
Le 24/06/2016 à 15h02
Mieux, on va le disrupter à coup de blockchain " />
" />
Le 24/06/2016 à 15h04
Le 24/06/2016 à 15h07
micro-code: code écrit en police de taille 5 ou moins
Le 24/06/2016 à 15h11
+1 je veux pas avoir le meme
n’empeche que je penche aussi pour la these du cryptovirus qui a tout crypter (donnée+backup)
Le 24/06/2016 à 15h11
CORPCOM est une agence conseil en stratégie de communication, est spécialisée en communication corporate, communication financière et communication de crise…
Donc les mecs sont dans la M… jusqu’au coup et la première action qu’ils font c’est de passer par une agence de communication pour se faire briffer et annoncer que tout va bien et qu’aucune data n’est perdue…
Ils doivent vraiment être dans la M…
Le 24/06/2016 à 15h13
« Nous n’avons perdu aucune donnée, mais la baie est en panne.»
Comme ils ont besoin d’un miracle pour récupérer les données, si l’abbé est en panne, personne ne pourra intercéder auprès de Dieu en leur faveur.
Le 24/06/2016 à 15h14
Le 24/06/2016 à 15h15
D’où l’intérêt des solutions opensources… Mais bon, les décideurs ont besoin de “marques” pour être rassuré.
Un peu comme Stallergenes (grand fabricant de produits antiallergie et antivenin) qui s’est vautré avec SAP :
http://www.lemondeinformatique.fr/actualites/lire-un-projet-sap-hana-dans-les-ch…
(Mauvais destinataire, mauvais dosages…)
Ils ont mis 6 mois à détecter que leur process avait complètement foiré, il a fallu une interdiction de mise sur le marché pour les faire bouger, la prod a repris en mars 2016 (foirage en aout 2015…)
Le 24/06/2016 à 15h16
+1
GLI tente de sauver ses fesses en passant par une agence de com. (je viens de voir que je me suis fait BBQED " />)
Y a des journaux qui ont des triples sauvegardes mais pas tous, surtout les petits journaux.
Et bon une “baie en panne” ce se change vite si tu as des vrais datacenters, cette histoire c’est de l’amateurisme puissance X-trem.
Le 24/06/2016 à 15h16
Le 24/06/2016 à 15h17
C’est quoi le rapport avec la choucroute là ?
Le problème là c’est le stockage des données pas le code.
Le 24/06/2016 à 15h18
Le 24/06/2016 à 15h20
En même temps, vu l’ampleur que ça à pris via les site d’infos et les enjeux économique, vaut mieux prendre ses précautions et passer par des pro.
J’aime bien les commentaires d’ici… Si on écoute tout le monde une entreprise est multi casquette alors qu’il en est rien ! J’ai des notions de compta mais si j’ai un contrôle fiscal, je passerai par un expert comptable parce que c’est son job.
Le 24/06/2016 à 16h01
Non, ça ça se tient. Comme dans mon commentaire précédent, nous avons allumé la seconde Nwxenta, qui est aussi tombé en panne après la première. Si on l’avait laissé éteinte, on en aurait pas autant chi* à remonter le tout en catastrophe.
C’était un pari, on a perdu.
Le 24/06/2016 à 16h08
Le 24/06/2016 à 16h16
Qu’ils ne veulent pas prendre le risque de tout exploser, je le comprends, mais le délai annoncé d’un mois me parait complétement démesuré.
Il s’agit sans doute d’un délai maxi, mais je ne sais pas ça me laisse penser qu’il y a en réalité un très gros soucis (genre perte de données, au moins partielle) potentiel.
Et le coup des backups qu’ils ne peuvent pas restaurer ça me semble assez fumeux aussi.
Le 24/06/2016 à 16h20
Moi j’ai lu l’agence “POPCORN” ….
La fatigue ^^”
Le 24/06/2016 à 16h20
Le 24/06/2016 à 16h27
Le 24/06/2016 à 16h28
Surtout qu’on peut toujours dupliquer les backups et remonter une archi relativement rapidement avec la virtualisation de nos jours, quitte à avoir un service dégradé pendant un temps.
Le 24/06/2016 à 16h37
Il y a une différence entre mentir et ne pas tout dire.
Mon impression est qu’on est dans la comm’ floue visant à dire quelque chose de rassurant en s’avançant le moins possible, ce qui sans aider apporter grand chose, n’est pas non plus du mensonge.
Après, je suis peut-être naïf " />
Le 24/06/2016 à 16h37
Il n’a pas été spécifié dans la news précédente ; que même le code source était perdu ?
D’ailleurs l’excuse de la baie de sauvegarde est en panne, en lisant ça , je me suis étouffé .. Coup du sort ? elle est en panne depuis quand leur baie ?? “Tout va bien Madame la Marquise ; notre baie est infaillible ”
Ta baie de sauvegarde tombe en panne comme par hasard le jour de la perte des données " />
Le 24/06/2016 à 16h42
lol, je suis certain qu’ils ne possèdent aucune baie… ils essaient de jouer les professionnels, cela serait fun qu’un employé “anonyme” du sous-traitant nous raconte vraiment ce qu’il en est ^^
Leur première version, c’était qu’ils n’avaient plus les données, ni eux, ni leur sous-traitant, jamais ils n’ont parlé d’une seconde baie…
La “première baie” serait en panne à cause d’un micro-code… lol , ce qui est bien, c’est qu’ils sous-entendent qu’un type a tout cassé volontairement. Ils ont viré leur seul et unique administrateur réseau qui est parti en laissant une petite bombe derrière lui… c’est assez marrant ^^ et c’est ce qui arrive quand on traite comme de la merde l’employé qui fait marcher la base de la boutique (suis déjà passé derrière un type comme ça, c’est fun à réparer, un peu comme une chasse au trésor organisée par le prédécesseur ^^).
Le 24/06/2016 à 16h46
Pour le moment on a encore des retours assez contradictoires sur certains point, mais ça commence à s’éclaircir. La réunion de ce soir devrait être l’occasion de tout mettre à plat. On verra ce qu’il en est une fois que tout le monde aura pu juger sur pièce pour la remise en route des facturation, des prélèvements, et éventuellement de l’abonnement, que ce soit avec la dernière version de l’outil ou une version antérieure retrouvée quelque part.
Le 24/06/2016 à 16h49
L’équipe de Next Inpact participe aux réunions ?
Vous êtes directement concernés par ce problème ? :/
Le 24/06/2016 à 16h49
C’est pas ce qu’ils disent ils disent juste “que ca met du temps c’est une solution pro”, que je lis plus (car des solutions de backup pro j’en utilise pas qu’une) en : en fait nos serveurs était sauvegardé mais pas trop donc là on est en train de remonter les journaux de transactions (qui est effectivement très très long) pour récupérer les données et à côté on a envoyé nos HDDs a une solution pro de récupération de données.
Le 24/06/2016 à 16h51
Le 24/06/2016 à 17h13
Je suis d’accord : 1 mois c’est super louche.
Toujours en rapport avec la perte de nos Nexenta, on a récupéré et migré nos backups sur du Dell neuf en moins de 24H. Mais c’est sûr qu’il a fallu sortir le carnet de chèque pour acheter et se faire livrer la machine aussi rapidement. Et on a pas beaucoup dormi…
Le 24/06/2016 à 17h20
Non, une mise à jour foireuse d’un firmware d’une machine à priori sans rapport peut faire bien des dégâts en cascade.
c.f. mes commentaires à propos de Nexenta.
Je ne les disculpe pas, mais je comprends que tout une infra peut tomber en un claquement de doigt. Le tout est d’avoir un plan testé de “Disaster recovery” et de savoir (et oser) l’appliquer.
Des fois, on espère qu’on va pouvoir réparer -c’est le premier reflexe- mais ce faisant, on s’enfonce. C’est là qu’il faut être lucide et dire “stop, on applique le plan d’urgence”, pour repartir le business. Et ensuite on analyse et on finalise la récup.
Le 24/06/2016 à 21h04
Le 24/06/2016 à 21h13
Le 24/06/2016 à 21h44
Je suis cette news et tous les commentaires avec un mélange de fascination et d’incompréhension.
D’incompréhension car c’est un domaine que je connais absolument pas à cause de mon niveau (baies, PLA, marques de serveurs…) J’ai des images de datacenters nickels et de pauvres serveurs avec 3 cm de poussière dessus et 20 dedans qui me viennent en tête.
Et de fascination car j’ai l’impression d’assister à une convention d’astrophysiciens qui parlent de choses super importantes avec des termes (j’imagine par exemple que ca parle de point de convergence gravitationnel, équilibre quantique, conséquences en cascade multi-univers, déphasage des dimensions espace-temps… evidemment, je raconte n’importe quoi) que je comprend pas mais qui font parti notre monde actuel.
Je voudrais juste apporter ma petite suggestion, le temps pour la remise en route annoncée d’un mois vient peut être qu’il faille envoyer les disques durs dans une entreprise spécialisée dans la récupération de données
Le 24/06/2016 à 21h55
Le 24/06/2016 à 22h19
Le 24/06/2016 à 22h29
Trop tard pour éditer, donc j’avais oublier les pénalités (financières) en cas de pannes et de non respect des délais contractuelles qui chiffres trèèèès vite si les délais sont pas respectés.
Le 24/06/2016 à 22h37
Je crois que l’on peut résumer ça en “une (trop) grosse partie des applications publiques ou d’entreprise reposent sur un château de cartes”, qu’il soit :
* matériel (ex. : serveur qui prend la poussière, matériel fragile, etc … ça fonctionne bien, jusqu’au jour où …)
* logiciel (ex. : code critique pondu par un stagiaire et vérifié par l’autre stagiaire, optimisé à la truelle, qui fonctionne jusqu’au jour où ça tombe sur un cas pas prévu …)
* organisationnel (ex. : pas de bonne politique de gestion de sauvegardes, on vire le seul type capable de bosser sur tel projet, ça fonctionne bien jusqu’au jour où …) - j’ai pas de meilleur mot que “organisationnel” pour celui-ci
* ou un mix des trois ! " />
Pauvres utilisateurs que nous sommes, nous n’avons aucune idée des bases des logiciels/sites web qu’on utilise, auxquels on confie des données parfois importantes. Et je crois bien que si on le savait, on prendrait peur.
Pour tous les gros mots techniques, c’est sans doute pour ça que beaucoup d’entreprises préfèrent faire appel à un prestataire. " />
Le 24/06/2016 à 23h56
Petite supposition, ne connaissant ni le secteur ni les acteurs qui le composent:
Le secteur de la presse, en ligne et papier, souffre depuis de nombreuses années. Des budgets à la baisse pourraient avoir justifié l’émergence de solutions à prix discount, assorties du genre de conséquences que l’on constate aujourd’hui.
Le 25/06/2016 à 00h04
Au grand jeu de Mme Irma, moi j’opte pour la thèse que “format proprio” sorti de la bouche d’un communiquant, c’est la version publique de “chiffré par un ransomware” ; la trouille de relancer le backup pour qu’il subisse le même sort irait dans ce sens.
Le 25/06/2016 à 01h05
Ça a le mérite d’être crédible, mais ça n’excuse pas l’absence de backup.
Le 25/06/2016 à 01h14
Vous allez voir que dans 24H on découvrira qu’ils hébergeaient tout ceci sur une dedibox à 5€…
Le 25/06/2016 à 01h31
Mauvaise langue…
Je suis sûr qu’ils on au moins poussé jusqu’à un SoYouStart à 20€ avec 100Go de backup offerts " />
Le 25/06/2016 à 01h34
Le 25/06/2016 à 04h49
Meme notre server minecraft fait un back-up sur un serv extérieur toutes les deux heures on parle la d’un jeu tellement bien codé que pour faire tourner tu ne peux pas utiliser la version officielle (corruption, maj foireuses etc…).
Je vois mal des pro avec de telle donnée critique et dont leur existence est financé par l’état ne pas avoir une solution pro pour gérer leur donner.
Le 25/06/2016 à 04h52
Je bosse dans le stockage depuis plus de 8 ans, j’ai jamais vu un truc pareil. Données non perdues, réplication sur 2nde baie et on sait pas redémarrer le service plus d’une semaine après. Je me demande quel est le constructeur, en tout cas si c’était le constructeur pour lequel je travaille, au vu de ma position, je pense que je serais dans les réunions de crise en ce moment !
Le 25/06/2016 à 05h19
Ils ont la même agence de com que çavamieux
Le 24/06/2016 à 17h27
gros +1 aussi.
Un petit test P.C.A. (plan de continuité d’activité) et P.R.A. (plan de reprise d’activité) régulièrement ça ne mange pas de pain (mais c’est chiant!), ça permet de valider les procédures et de roder les équipes en cas de vrai pépin.
J’aimerais pas être admin système chez GLI en ce moment (petite pensée pour eux " />
)
Le 24/06/2016 à 17h28
Le 24/06/2016 à 17h41
Haha, énorme, en gros les mecs ont pas de backups propres, mais comptent extraire les data depuis une DB de BI. C’est tellement sale.
Le 24/06/2016 à 17h58
La précédente news est en partie fausse, ou pas, ou un peu, ou pas du tout. " />
D’ailleurs, s’ils peuvent reprendre une partie dès lundi c’est que tout n’est pas perdu finalement…
Le 24/06/2016 à 17h58
C’est quand même une bonne grosse blague cette affaire " />
En plus je suis sûr que les éditeurs payent tellement cher pour ce service en carton. Je suis à peu près sûr qu’il y a des tas de prestataires bien moins chers et sérieux avec qui ça ne serait pas arrivé.
Externaliser n’est pas un problème en soit, mais quand ça concerne une partie critique de ton business tu t’assures de savoir comment bosse ton presta et tu t’assures qu’ils aient des comptes à rendre et que tout soit carré, voir tu bosses avec plusieurs au cas où.
Le 24/06/2016 à 18h12
On a des backup mais on a entièrement perdu le logiciel propriétaire et la clé de codage des données, oups.
Mais on vous jure les données sont là, ou une mise à jour mal branlé qui a fait sauté le raid et ils ont trop peur de relancer l’autre baie.
D’un autre côté si ils n’ont pas non plus de version stable pré-gros-cafouillage ils vont mettre du temps à tout remettre en place.
C’est la fautes des stagiaires !
C’est la fautes de la femmes de ménages !
Vu la communication ils n’ont clairement aucune idée de ce qui à bien pu ce passer.
Le 24/06/2016 à 18h34
Pour une fois que Pierre-Alain a sous-traité… " />
Le 24/06/2016 à 18h35
Je crois savoir sur quoi ils vont se baser pendant 1 mois :
« C’est extrêmement handicapant, mais on n’a pas tout perdu, a nuancé Francis Morel, directeur du groupe Les Échos. Les abonnés vont continuer à recevoir leur journal, car on a encore les listings de service de la semaine dernière. »
Et avec un regroupement des paiements tu pourras annoncer une perte partielle des données
D’autre declaration du journal:
“ On ne les a pas perdues définitivement, a précisé Francis Morel, la base principale ne fonctionne plus mais les informations sont disséminées dans un certain nombre de bases secondaires. ”
“Les médias touchés « réfléchissent à des solutions de secours temporaires et travaillent à récupérer les informations disséminées à droite et à gauche »”-LeMonde.fr
En gros sa sent le croisement de donnée bancaire et autre quand l’éditeur n’a pas de donnée
Le 24/06/2016 à 19h01
c’est pas mal mais j’espere que la CNIL va mettre son nez dedans ! le croisement de fichier bancaire avec des adresse physique surtout si ce n’est pas déclarer. j’imagine les fichiers excel en pièce jointe par mail, non chiffré, beurk
m’envais envoyer un courrier dénonciation a la CNIL pour bien apprendre a ces amateurs à vivre dans un état de droit.
Le 24/06/2016 à 19h04
Comme pour vous deux, je trouve que c’est juste impossible d’être dans une telle situation. Quand je vois toutes les méthodes existante pour répliquer en temps réel (ou quasi) des infra sur des sites de secours, toutes les méthodes possibles pour remonter une machine en urgence (quand ce sont des applis non sensibles), c’est juste incroyable de lire une justification pareille.. surtout quand il s’agit de leur cœur de métier !
Après.. on sait bien aussi que l’on ne file pas toujours les budgets pour, qu’on fait survivre des infras comme on peut “parce l’info, c’est une centre de coût” et que c’est trop cher…
Le 24/06/2016 à 19h52
Le 24/06/2016 à 20h03
Le 24/06/2016 à 20h03
l’application “le monde” sur store windows ne reçoit plus aucune mise à jour depuis le 20 juin sur mon pc, y a un rapport????
(je ne suis pas abonné)
Le 24/06/2016 à 20h54
Bah ça me rappelle un truc c’est un client en décembre (pas encore client à l’epoque, devenu client suite à la panne)
Ça vaut son pesant de cacahuètes : perte de toutes les données car le hotspare et 2 disques du raid 5 son partis en live, backup sur le même raid, personne ne s’est inquiété des lumières oranges et pas de contrat de maintenance… 2 mois en centre de récup de données, puis récup du backup sur un coup de bol.
Le 24/06/2016 à 20h54