GLI : « Nous n'avons perdu aucune donnée, mais la baie est en panne »

GLI : « Nous n’avons perdu aucune donnée, mais la baie est en panne »

La tornade est passée, on fait le point

121

GLI : « Nous n'avons perdu aucune donnée, mais la baie est en panne »

Après une semaine assez animée, le groupe GLI communique quelques informations sur la panne qui touche le service d'abonnement de plusieurs titres de la presse française. Et la société se veut rassurante.

Depuis quelques jours, certains éditeurs français subissent une période de stress intense : le prestataire qui a en charge une bonne partie de leurs abonnements, le groupe GLI, a subi une panne informatique. Résultat : les donnés de facturation des abonnés ainsi que le service d'abonnement en ligne sont inaccessibles.

La panne est intervenue dimanche et les éditeurs ont été rapidement prévenus. Mais mercredi, personne ne semblait encore avoir de solution. Si nous avions déjà fait un premier point selon les retours des éditeurs, GLI restait injoignable. Le groupe a néanmoins décidé de commencer à livrer sa version et à répondre à nos questions alors qu'une réunion est organisée avec ses clients ce soir.

Plusieurs copies des données, aucune n'est vraiment utilisable pour le moment

C'est Marylou Pernaut, de l'agence Corpcom, qui est en charge du dossier. Elle nous a fait savoir que « Bien évidemment, les données sont triplement sauvegardées et la plupart des clients de GLI ont également une réplication des données sauvegardées ». C'est semble-t-il le cas de Valeurs actuelles, selon l'AFP, mais aussi du Point comme l'indique Jean-Michel DeMarchi, rédacteur en chef de la lettre spécialisée Mind

« Mais une vraie sauvegarde, c'est quelque chose que l'on peut exploiter immédiatement, pas quelque chose que l'on ne peut pas utiliser chez soi parce que ça passe par un outil propriétaire » ironise un proche du dossier. Et c'est bien là tout le problème actuel. C'est pour cela qu'une partie des éditeurs se penche actuellement sur la troisième piste : celle des données récupérées à travers un outil de Business Intelligence, qui sont brutes, et qu'il faut donc remettre en forme.

Néanmoins, aucune donnée n'est perdue selon les représentants de GLI. Celles-ci sont présentes au sein de deux baies distinctes : « Il y a une première baie qui dispose de 100 % des données, et c'est cette baie qui est en panne, donc on ne peut pas l'utiliser. [...] Il y a une deuxième baie qui a les données. Elle n'est pas en panne. Pour l'instant on ne souhaite pas la brancher sans avoir identifié le problème. On veut trouver le problème avant de la réactiver. »

La remise en route se prépare, sur fond de diagnostic technique

La cause de la panne n'est en effet pas encore connue, et il faudra attendre encore un peu avant d'en savoir plus : « Pour le moment on est en diagnostic, on est en train de rechercher l'origine de la panne. Pour l'instant on ne sait pas vraiment ce qui s'est passé. Peut être un micro-code ». La piste du piratage semble exclue pour le moment, la remise en place du service est annoncée pour dans un mois.

En attendant d'en savoir plus et de pouvoir éventuellement faire redémarrer l'une ou l'autre de ses baies, GLI continue donc de travailler avec les éditeurs, et de gérer les abonnements via d'autres canaux que le web. « On peut toujours faire des abonnements par mail, par téléphone, etc. C'est juste sur le web que l'on ne peut pas récolter les données » nous précise-t-on.

Reste la question de la remise en route dela facturation et des abonnements. « Concernant les facturations, tout sera fonctionnel dès lundi », nous indiqué Marylou Pernaut, alors que les versions diffèrent encore selon les éditeurs que nous avons pu interroger sur ce point. 

« Nous sommes en contact avec les éditeurs, on organise une réunion ce soir donc on est vraiment transparents avec eux. » Une réunion qui s'annonce animée, certains nous indiquant que « la course à celui qui aura droit à un traitement prioritaire » est déjà lancée. Il devrait aussi être question du manque à gagner pour ces jours d'indisponibilité partielle, et des responsabilités de chacun. Nous tenterons bien entendu de faire un nouveau point dès que nous aurons pu obtenir de nouvelles informations.

Entretien réalisé par Guénael Pépin

Commentaires (121)


Ca sent le bullshit cette explication…


+1


Je n’y connais rien dans le business du développement informatique, du codage et de la sauvegarde (hors cas du particulier), mais 1 mois pour remettre en route le service, voire une semaine pour diagnostiquer la cause de la panne des baies, ça me paraît énorme…


+1 pour le bullshit.

1 mois pour remettre tout en marche ? Hahaha, quelle blague !


Pour avoir vécu la perte d’une baie primaire, le constructeur peut vérifier/garantir que le données n’ont pas été perdues (bien écrite sur la baie secondaire).

Je comprends qu’ils hésitent à basculer sur la baie secondaire, mais il ne faut pas 1 mois pour repartir sur la baie primaire!!

Je me demande ce qu’ils ont comme matos et fournisseur…


oh que oui








Valeryan_24 a écrit :



Je n’y connais rien dans le business du développement informatique, du codage et de la sauvegarde (hors cas du particulier), mais 1 mois pour remettre en route le service, voire une semaine pour diagnostiquer la cause de la panne des baies, ça me paraît énorme…







C’est énorme…

Si les mecs avaient de “vraies” sauvegardes et une vraie procédure de restauration, ca n’aurait pas du prendre plus de 24h. Et 24h, c’est déjà beaucoup…



Pour moi, là, ils sont à la limite de la la perte de données bien qu’ils disent que ce n’est pas le cas. Car ils ont des backups mais ils ne sont pas en mesure de les restaurer, c’est comme si ils n’avaient rien en fait…

Si ils doivent redémarrer la baie ou en racheter une pour relancer le bazar, ca veut dire aussi qu’ils n’ont aucun secours en fait…



Il reste un fichier csv c’est cool ça <img data-src=" />


&nbsp;“Pour l’instant on ne sait pas vraiment ce qui s’est passé. Peut être un micro-code “.

“la remise en place du service est annoncée pour dans un mois” MAIS “Concernant les facturations, tout sera fonctionnel dès lundi” &nbsp; <img data-src=" />

Franchement ils me tuent !

On a les données mais on peut pas les lire et on flippe tellement qu’on préfère pas redémarrer par contre les facture pas de soucis…! (Vous allez me dire :&nbsp; qu’ils prennent les précautions maintenant mais il fallait le faire AVANT ! )

Et je pourrais continuer a citer la moitié de l’article !

Je ne voit pas cette société perdurer dans le temps.


Quand on délègue une agence conseil spécialisée dans la réputation pour expliquer un problème technique… Comment dire ça gentiment ? Non, rien.








jedipc a écrit :



Pour avoir vécu la perte d’une baie primaire, le constructeur peut vérifier/garantir que le données n’ont pas été perdues (bien écrite sur la baie secondaire).

Je comprends qu’ils hésitent à basculer sur la baie secondaire, mais il ne faut pas 1 mois pour repartir sur la baie primaire!!

Je me demande ce qu’ils ont comme matos et fournisseur…







Après, si les mecs n’ont pas de contrat de support, le temps de lâcher le pognon et remettre les contrats a plat, ça met du temps. Et si les mecs ont une vieille baie hors support, ils sont dans une belle merde.

Et visiblement, le secours est bien pourri aussi si ils n’osent même pas le remettre en route.




Ça dépend. J’ai déjà vu des pannes sur des baies de stockage: le constructeur de la baie a envoyé spécialement un ingénieur depuis le Japon dès que la panne fut identifiée (donc quelques dizaines d’heures). Ils ont même payé l’hélicoptère depuis l’aéroport pour aller plus vite. Le gars est resté toute la nuit à taper des commandes de Gourou pour tenter de remonter la baie.



La baie contenait des données bancaires: interdiction de la part du constructeur de démarrer la baie PRA parce qu’il n’était pas sûr du résultat.


N’oubliez pas que la quantité de données est assez importante et que la criticité du problème est maximale.

Quand c’est la totalité de votre business qui est en jeu, vous ne vous précipitez pas comme ça…


Heureusement que les experts de l’interweb sont là, ils vont résoudre, pardon, solutionner, le problème sans même le connaître <img data-src=" />








jedipc a écrit :



Je me demande ce qu’ils ont comme matos





? ??



Mieux, on va le disrupter à coup de blockchain <img data-src=" />



<img data-src=" />








Laurent_Chemla a écrit :



Quand on délègue une agence conseil spécialisée dans la réputation pour expliquer un problème technique… Comment dire ça gentiment ? Non, rien.





Y’avait deja gens qui trouvaient ça dingue de passer par un prestataire pour stocker les infos relatives aux abonnements sur la news precedente… &nbsp;Ca devient un peu inception leur histoire…



micro-code: code écrit en police de taille 5 ou moins


+1 je veux pas avoir le meme



n’empeche que je penche aussi pour la these du cryptovirus qui a tout crypter (donnée+backup)


CORPCOM est une agence conseil en stratégie de communication, est spécialisée en communication corporate, communication financière et communication de crise…



Donc les mecs sont dans la M… jusqu’au coup et la première action qu’ils font c’est de passer par une agence de communication pour se faire briffer et annoncer que tout va bien et qu’aucune data n’est perdue…



Ils doivent vraiment être dans la M…


« Nous n’avons perdu aucune donnée, mais la baie est en panne.»



Comme ils ont besoin d’un miracle pour récupérer les données, si l’abbé est en panne, personne ne pourra intercéder auprès de Dieu en leur faveur.








zogG a écrit :



Heureusement que les experts de l’interweb sont là, ils vont résoudre, pardon, solutionner, le problème sans même le connaître <img data-src=" />







Je suis désolé mais en tant que sysadmin, la gestion des backups, du stockage et de la restauration des données, c’est le B-A-BA du métier. Ton job, c’est ça avant tout.

Avant les problématiques de mises à jour, avant les problématiques de sécurité, avant même de s’assurer que le SI fonctionne.



Visiblement, les mecs ont un secours mais il fonctionne pas. Autrement dit, ils ont pas de secours.

Visiblement aussi, ils ont des backups mais ils ne sont pas exploitable. Autrement dit, ils ont pas de backups.

Et encore heureux que les données concernées ne sont pas trop périssables car 1 mois pour les restaurer, dans certains cas, c’est tellement long que ça ne sert plus à rien de le faire…



En tout cas, quelque soit le business, le volume de données, le type de service, etc mettre autant de temps pour restaurer le service, c’est complètement fou.

Il n’y a eu visiblement aucune étude de risque ni aucune étude sur le niveau de maitrise des équipes en place.

Même avec une loi de Murphy, on peut pas en arriver là. Y’a forcément qqch de plus qu’un (ou plusieurs) bête(s) problème(s) technique(s).



D’où l’intérêt des solutions opensources… Mais bon, les décideurs ont besoin de “marques” pour être rassuré.



Un peu comme Stallergenes (grand fabricant de produits antiallergie et antivenin) qui s’est vautré avec SAP :

http://www.lemondeinformatique.fr/actualites/lire-un-projet-sap-hana-dans-les-ch…

(Mauvais destinataire, mauvais dosages…)

&nbsp;

Ils ont mis 6 mois à détecter que leur process avait complètement foiré, il a fallu une interdiction de mise sur le marché pour les faire bouger, la prod a repris en mars 2016 (foirage en aout 2015…)


+1



GLI tente de sauver ses fesses en passant par une agence de com. (je viens de voir que je me suis fait BBQED <img data-src=" />)



Y a des journaux qui ont des triples sauvegardes mais pas tous, surtout les petits journaux.

&nbsp;

Et bon une “baie en panne” ce se change vite si tu as des vrais datacenters, cette histoire c’est de l’amateurisme puissance X-trem.








vloz a écrit :



Y’avait deja gens qui trouvaient ça dingue de passer par un prestataire pour stocker les infos relatives aux abonnements sur la news precedente… &nbsp;Ca devient un peu inception leur histoire…







C’est le monde de la prestation de services…



T’es la société A, tu perds un appel d’offre au profit de B. B fait appel à C pour réaliser une partie du projet qu’elle ne se pas traiter. C fait appel à A.



Et hop tu te retrouves à bosser sur un projet à la grande surprise du client (qui s’en fout parce qu’il a pris le moins cher des projets).



Inception à côté de certains projets IT c’est du conte pour nourrisson !




C’est quoi le rapport avec la choucroute là ?



Le problème là c’est le stockage des données pas le code.








cesame a écrit :



Donc les mecs sont dans la M… jusqu’au coup et la première action qu’ils font c’est de passer par une agence de communication pour se faire briffer et annoncer que tout va bien et qu’aucune data n’est perdue…







A mon avis, c’est pas con du tout cette façon de faire… L’affaire est publique donc autant prendre des expert de la comm’ pour gerer la comm’ justement. C’est un peu comme prendre un avocat dès qu’on entre en garde à vue.



Et puis bon, qqsoit les boites, c’est pas le patron qui va reparer donc autant qu’il s’occupe autrement avec ses avocats et des communicants. Et laisser le job technique aux informaticiens. Chacun son job.



En même temps, vu l’ampleur que ça à pris via les site d’infos et les enjeux économique, vaut mieux prendre ses précautions et passer par des pro.



J’aime bien les commentaires d’ici… Si on écoute tout le monde une entreprise est multi casquette alors qu’il en est rien ! J’ai des notions de compta mais si j’ai un contrôle fiscal, je passerai par un expert comptable parce que c’est son job.


Si tu perds des données, tu as deux choix : soit tu as eu un problème matériel, soit les données ont été effacées alors qu’elles ne le devraient pas.



Du coup, si t’es dans le deuxième cas (ce qui est probable vu leur refus de mettre en place la sauvegarde sans comprendre, genre risquer un second effacement), pouvoir jeter un coup d’oeil dans le code peut aider.



Maintenant, le code open-source a beau être open, tu l’utilises la plupart du temps sans faire une analyse de code. Sauf dans ce genre de cas, et encore faut’il ne pas trouver la cause par d’autres biais, souvent bien plus rapides que de faire du code review d’un truc de milliers de ligne avec des techniques de code et un langage que tu ne maitrises probablement pas…


c’est marrant la com de la boite ça me rappelle le début d’aliens (alien 2) :



“Ne vous inquiétez pas ripley on a envoyé une colonie sur la planète où vous disiez avoir vu des aliens, tout ça bien”



2 jours plus tard :



“en fait y’a un légers soucis de cafard on va vous y renvoyer avec une bombe de begon et une douzaine de marines au cas ou”


En tout cas, si ils coulent pas après ça, ils auront sacrément de la chance…








k43l a écrit :



En même temps, vu l’ampleur que ça à pris via les site d’infos et les enjeux économique, vaut mieux prendre ses précautions et passer par des pro.



J’aime bien les commentaires d’ici… Si on écoute tout le monde une entreprise est multi casquette alors qu’il en est rien ! J’ai des notions de compta mais si j’ai un contrôle fiscal, je passerai par un expert comptable parce que c’est son job.





oui enfin la c’est un soucis informatique, c’est comme si pour ton soucis de comta tu appelais un maçon



J’ai un peu de mal à comprendre aussi qu’on parle d’une baie en panne, si c’est une baie équalogic et que les disques ne montent plus pour un environnement virtualisé, ou en montage Iscsi sous l’OS, il suffirait de copier les données des LUN de Backup sur un nouveau volume puis remonter l’ensemble mais en foutant une prod dégradé sur une baie de sauvegarde, mais au moins fonctionnelle.



Donc à mon avis le backup du backup n’est plus fonctionnel, la tâche n’a pas du être correctement supervisée et personne n’a rien vu jusqu’au moment ou ça pète.



En tout cas le coup de la panne matérielle j’y crois vraiment moyen, ce genre d’équipement est redondé normalement.



A mon avis ça sent un putain se rançonware pris dans la gueule, ou alors on parle pour des raisons de budget de nas Synology non mis à jour&nbsp; avec une brèche ouverte sur la web pour un petit rançonware, ce qui oblige à inspecter les données de la baie de backup avant remise en prod…



Mais le coup du micro code c’est bizarre on fait sur la QA d’abord pour valider une montée de version via un refresh de la prod en QA.



Vu le temps restauration on peu dire qu’il étaient bien à poil ….


Il gère le soucis informatique à leur sauce (bonne ou mauvaise) et prenne une agence de communication, pour la communication avec la presse et leur client.

Je pense qu’ils sont conscient que l’entreprise est en péril donc faut sauver les meubles. Et je crois pas qu’en 1semaine on s’improvise communicant.








darkbeast a écrit :



c’est comme si pour ton soucis de comta tu appelais un maçon





et tu dira au fisc : “ma compta, c’est du béton”.



Ah, du beau pipeautron de classe mondiale ! <img data-src=" />

(Je bosse dans un datacenter, donc bon, je connais un peu. <img data-src=" />)








k43l a écrit :



Il gère le soucis informatique à leur sauce (bonne ou mauvaise) et prenne une agence de communication, pour la communication avec la presse et leur client.

Je pense qu’ils sont conscient que l’entreprise est en péril donc faut sauver les meubles. Et je crois pas qu’en 1semaine on s’improvise communicant.





Ouais mais je ne crois pas qu’en mentant on sauve la boite. Surtout qu’aujourd’hui tout est retrouvable (enfin sauf les données de gli), et que s’ils ne retrouvent aucune donnée la boite est définitivement morte (déjà que là elle est dans un coma profond).









picatrix a écrit :



et tu dira au fisc : “ma compta, c’est du béton”.





avec ta moustache et une super bock à la main



S’ils ne retrouvent aucune donnée, la boite est morte, mensonge ou pas. Et même si j’avais la certitude qu’ils vont les retrouver, je leur prêterais pas de l’argent <img data-src=" />

D’ailleurs, qu’est-ce qui te dit qu’ils mentent?








XMalek a écrit :



C’est quoi le rapport avec la choucroute là ?





Ils ne peuvent pas restaurer le bousin car il est visiblement dans un format proprio… Soit un dev interne, soit celui d’une grosse boite, en tout cas probablement pas une solution open source…









Zerdligham a écrit :



S’ils ne retrouvent aucune donnée, la boite est morte, mensonge ou pas.

D’ailleurs, qu’est-ce qui te dit qu’ils mentent?





Relit leur communiqué ça fait communiqué d’agence de com qui tente de camoufler une carabistouille (et on fait de la com dans ma boite alors&nbsp; ce discours je connais).



Résumé :

-On a un failover mais on ne veut pas s’en servir

-On a des backups partout : mais on ne veut pas s’en servir



Apparemment le service rendu n’est pas si critique que çà alors <img data-src=" />








KP2 a écrit :



Je suis désolé mais en tant que sysadmin, la gestion des backups, du stockage et de la restauration des données, c’est le B-A-BA du métier. Ton job, c’est ça avant tout.

Avant les problématiques de mises à jour, avant les problématiques de sécurité, avant même de s’assurer que le SI fonctionne.



Visiblement, les mecs ont un secours mais il fonctionne pas. Autrement dit, ils ont pas de secours.

Visiblement aussi, ils ont des backups mais ils ne sont pas exploitable. Autrement dit, ils ont pas de backups.

Et encore heureux que les données concernées ne sont pas trop périssables car 1 mois pour les restaurer, dans certains cas, c’est tellement long que ça ne sert plus à rien de le faire…



En tout cas, quelque soit le business, le volume de données, le type de service, etc mettre autant de temps pour restaurer le service, c’est complètement fou.

Il n’y a eu visiblement aucune étude de risque ni aucune étude sur le niveau de maitrise des équipes en place.

Même avec une loi de Murphy, on peut pas en arriver là. Y’a forcément qqch de plus qu’un (ou plusieurs) bête(s) problème(s) technique(s).



Tout +1, ça me&nbsp;parait juste hallucinant d’en arriver là.

Et le refus d’utiliser le seconde baie tant que le problème n’est pas identifié sur la première, ça me semble quand même bizarre.



Et je ne parle même pas du délai donné de 1 mois, c’est pas croyable.



Je leur souhaite bien du courage pour se maintenir à flot après un truc pareil. :/



Oui bon l’open source, ça ne garanti absolument rien.

Il y a 2 ans nos Nexenta sont tombés en panne suite à une màj foireuse d’un switch (donc à priori aucun rapport).

Personne chez Nexenta n’a été en mesure de les faire repartir dans des délais raisonnables (12h, pour nous).

On a tout basculé dur du Dell Proprio du coup. Avec un vrai support qui tient la route.



L’inverse aurait aussi été possible. Des fois ça tient plus aux professionnels qu’on peut avoir à disponibilité, plus qu’autre chose.


Non, ça ça se tient. Comme dans mon commentaire précédent, nous avons allumé la seconde Nwxenta, qui est aussi tombé en panne après la première. Si on l’avait laissé éteinte, on en aurait pas autant chi* à remonter le tout en catastrophe.

C’était un pari, on a perdu.








bilbonsacquet a écrit :



Ils ne peuvent pas restaurer le bousin car il est visiblement dans un format proprio… Soit un dev interne, soit celui d’une grosse boite, en tout cas probablement pas une solution open source…









  • Différence entre open-source et développement interne ? Dans les deux cas on a accès aux sources.

  • Restaurer tout un ensemble de systèmes, même avec des solutions open-sources n’est pas toujours évident.



Qu’ils ne veulent pas prendre le risque de tout exploser, je le comprends, mais le délai annoncé d’un mois me parait complétement démesuré.



Il s’agit sans doute d’un délai maxi, mais je ne sais pas ça me laisse penser qu’il y a en réalité un très gros soucis (genre perte de données, au moins partielle) potentiel.



Et le coup des backups qu’ils ne peuvent pas restaurer ça me semble assez fumeux aussi.


Moi j’ai lu l’agence “POPCORN” ….

La fatigue ^^”








Aloyse57 a écrit :



Non, ça ça se tient. Comme dans mon commentaire précédent, nous avons allumé la seconde Nwxenta, qui est aussi tombé en panne après la première. Si on l’avait laissé éteinte, on en aurait pas autant chi* à remonter le tout en catastrophe.

C’était un pari, on a perdu.







Après, ça dépend de plein de choses (dont le budget évidemment) mais on essaye généralement de faire les backups sur un support différent de la prod. Différent matériellement et technologiquement…

Et puis bon, normalement, on fait aussi attention au format pour pouvoir récuperer les fichiers manuellement au pire du pire. Et dans tous les cas, ça prend pas 1 mois…. même avec des centaines de To à restaurer..









CryoGen a écrit :





  • Différence entre open-source et développement interne ? Dans les deux cas on a accès aux sources.





    Bah si ton code est “non publié” et qu’il n’est que sur ta baie en rade et non sur github (entre autre), c’est moche… Dans le cas opensource, j’entends aussi format des données, un format ouvert est plus facilement récupérable qu’un proprio.



Surtout qu’on peut toujours dupliquer les backups et remonter une archi relativement rapidement avec la virtualisation de nos jours, quitte à avoir un service dégradé pendant un temps.


Il y a une différence entre mentir et ne pas tout dire.

Mon impression est qu’on est dans la comm’ floue visant à dire quelque chose de rassurant en s’avançant le moins possible, ce qui sans aider apporter grand chose, n’est pas non plus du mensonge.

Après, je suis peut-être naïf <img data-src=" />


Il n’a pas été spécifié dans la news précédente ; que même le code source était perdu ?





D’ailleurs l’excuse de la baie de sauvegarde est en panne, en lisant ça , je me suis étouffé .. Coup du sort ? elle est en panne depuis quand leur baie ?? “Tout va bien Madame la Marquise ; notre baie est infaillible ”



Ta baie de sauvegarde tombe en panne comme par hasard le jour de la perte des données <img data-src=" />


lol, je suis certain qu’ils ne possèdent aucune baie… ils essaient de jouer les professionnels, cela serait fun qu’un employé “anonyme” du sous-traitant nous raconte vraiment ce qu’il en est ^^&nbsp;

Leur première version, c’était qu’ils n’avaient plus les données, ni eux, ni leur sous-traitant, jamais ils n’ont parlé d’une seconde baie…&nbsp;



La “première baie” serait en panne à cause d’un micro-code… lol , ce qui est bien, c’est qu’ils sous-entendent qu’un type a tout cassé volontairement. Ils ont viré leur seul et unique administrateur réseau qui est parti en laissant une petite bombe derrière lui… c’est assez marrant ^^&nbsp;et c’est ce qui arrive quand on traite comme de la merde l’employé qui fait marcher la base de la boutique (suis déjà passé derrière un type comme ça, c’est fun à réparer, un peu comme une chasse au trésor organisée par le prédécesseur ^^).


Pour le moment on a encore des retours assez contradictoires sur certains point, mais ça commence à s’éclaircir. La réunion de ce soir devrait être l’occasion de tout mettre à plat. On verra ce qu’il en est une fois que tout le monde aura pu juger sur pièce pour la remise en route des facturation, des prélèvements, et éventuellement de l’abonnement, que ce soit avec la dernière version de l’outil ou une version antérieure retrouvée quelque part.


L’équipe de Next Inpact participe aux réunions ?



Vous êtes directement concernés par ce problème ? :/


C’est pas ce qu’ils disent ils disent juste “que ca met du temps c’est une solution pro”, que je lis plus (car des solutions de backup pro j’en utilise pas qu’une) en : en fait nos serveurs était sauvegardé mais pas trop donc là on est en train de remonter les journaux de transactions (qui est effectivement très très long) pour récupérer les données et à côté on a envoyé nos HDDs a une solution pro de récupération de données.








Juju251 a écrit :



L’équipe de Next Inpact participe aux réunions ?



Vous êtes directement concernés par ce problème ? :/







c’est une réunion, pas une conférence de presse&nbsp;



Je suis d’accord : 1 mois c’est super louche.

Toujours en rapport avec la perte de nos Nexenta, on a récupéré et migré nos backups sur du Dell neuf en moins de 24H. Mais c’est sûr qu’il a fallu sortir le carnet de chèque pour acheter et se faire livrer la machine aussi rapidement. Et on a pas beaucoup dormi…


Non, une mise à jour foireuse d’un firmware d’une machine à priori sans rapport peut faire bien des dégâts en cascade.

c.f. mes commentaires à propos de Nexenta.



Je ne les disculpe pas, mais je comprends que tout une infra peut tomber en un claquement de doigt. Le tout est d’avoir un plan testé de “Disaster recovery” et de savoir (et oser) l’appliquer.

Des fois, on espère qu’on va pouvoir réparer -c’est le premier reflexe- mais ce faisant, on s’enfonce. C’est là qu’il faut être lucide et dire “stop, on applique le plan d’urgence”, pour repartir le business. Et ensuite on analyse et on finalise la récup.


gros +1 aussi.

Un petit test P.C.A. (plan de continuité d’activité) et P.R.A. (plan de reprise d’activité) régulièrement ça ne mange pas de pain (mais c’est chiant!), ça permet de valider les procédures et de roder les équipes en cas de vrai pépin.

J’aimerais pas être admin système chez GLI en ce moment (petite pensée pour eux <img data-src=" />

)








CryoGen a écrit :





  • Différence entre open-source et développement interne ? Dans les deux cas on a accès aux sources.



    visiblement pas dans ce cas, selon la précédente news :

    &nbsp;

    Résultat : toutes les données ont été perdues.&nbsp;« Même les codes sources » précisent plusieurs de nos interlocuteurs.





    &nbsp;

    &nbsp;

    ne vous inquiétez pas le code source du programme qui sert à lire la base de données est sauvegardé sur le même serveur, on ne risque donc rien. <img data-src=" />



Haha, énorme, en gros les mecs ont pas de backups propres, mais comptent extraire les data depuis une DB de BI. C’est tellement sale.


La précédente news est en partie fausse, ou pas, ou un peu, ou pas du tout. <img data-src=" />

D’ailleurs, s’ils peuvent reprendre une partie dès lundi c’est que tout n’est pas perdu finalement…


C’est quand même une bonne grosse blague cette affaire <img data-src=" />



En plus je suis sûr que les éditeurs payent tellement cher pour ce service en carton. Je suis à peu près sûr qu’il y a des tas de prestataires bien moins chers et sérieux avec qui ça ne serait pas arrivé.



Externaliser n’est pas un problème en soit, mais quand ça concerne une partie critique de ton business tu t’assures de savoir comment bosse ton presta et tu t’assures qu’ils aient des comptes à rendre et que tout soit carré, voir tu bosses avec plusieurs au cas où.


On a des backup mais on a entièrement perdu le logiciel propriétaire et la clé de codage des données, oups.



Mais on vous jure les données sont là, ou une mise à jour mal branlé qui a fait sauté le raid et ils ont trop peur de relancer l’autre baie.



D’un autre côté si ils n’ont pas non plus de version stable pré-gros-cafouillage ils vont mettre du temps à tout remettre en place.



C’est la fautes des stagiaires !



C’est la fautes de la femmes de ménages !



Vu la communication ils n’ont clairement aucune idée de ce qui à bien pu ce passer.


Pour une fois que Pierre-Alain a sous-traité… <img data-src=" />


Je crois savoir sur quoi ils vont se baser pendant 1 mois :

« C’est extrêmement handicapant, mais on n’a pas tout perdu, a nuancé Francis Morel, directeur du groupe Les Échos. Les abonnés vont continuer à recevoir leur journal, car on a encore les listings de service de la semaine dernière. »

Et avec un regroupement des paiements tu pourras annoncer une perte partielle des données





D’autre declaration du journal:

“ On ne les a pas perdues définitivement, a précisé Francis Morel, la base principale ne fonctionne plus mais les informations sont disséminées dans un certain nombre de bases secondaires. ”

“Les médias touchés « réfléchissent à des solutions de secours temporaires et travaillent à récupérer les informations disséminées à droite et à gauche »”-LeMonde.fr



En gros sa sent le croisement de donnée bancaire et autre quand l’éditeur n’a pas de donnée


c’est pas mal mais j’espere que la CNIL va mettre son nez dedans ! le croisement de fichier bancaire avec des adresse physique surtout si ce n’est pas déclarer. j’imagine les fichiers excel en pièce jointe par mail, non chiffré,&nbsp; beurk



m’envais envoyer un courrier dénonciation a la CNIL&nbsp; pour bien&nbsp; apprendre a ces amateurs à vivre dans un état de droit.


Comme pour vous deux, je trouve que c’est juste impossible d’être dans une telle situation. Quand je vois toutes les méthodes existante pour répliquer en temps réel (ou quasi) des infra sur des sites de secours, toutes les méthodes possibles pour remonter une machine en urgence (quand ce sont des applis non sensibles), c’est juste incroyable de lire une justification pareille.. surtout quand il s’agit de leur cœur de métier !

Après.. on sait bien aussi que l’on ne file pas toujours les budgets pour, qu’on fait survivre des infras comme on peut “parce l’info, c’est une centre de coût” et que c’est trop cher…








XMalek a écrit :



“en fait nos serveurs était sauvegardé mais pas trop donc là on est en train de remonter les journaux de transactions (qui est effectivement très très long) pour récupérer les données et à côté on a envoyé nos HDDs a une solution pro de récupération de données.”







Ouais, c’est un peu ce que je me dis aussi… A mon avis, le coup de l’envoi des disques en récupération de données, ça ne m’étonnerait pas du tout…









Skiz Ophraine a écrit :



gros +1 aussi.

Un petit test P.C.A. (plan de continuité d’activité) et P.R.A. (plan de reprise d’activité) régulièrement ça ne mange pas de pain (mais c’est chiant!), ça permet de valider les procédures et de roder les équipes en cas de vrai pépin.







Encore faut il en avoir mis en place…







Skiz Ophraine a écrit :



J’aimerais pas être admin système chez GLI en ce moment







Encore faut il en avoir un… Vu la situation, je ne serais pas étonné non plus d’apprendre qu’ils ont viré leur dernier sysadmin y’a 6 mois et qu’ils fonctionnaient uniquement avec les supports constructeurs et éditeurs (si ils en avaient).







ticoss a écrit :



Comme pour vous deux, je trouve que c’est juste impossible d’être dans une telle situation. Quand je vois toutes les méthodes existante pour répliquer en temps réel (ou quasi) des infra sur des sites de secours,







Ouais mais justement, c’est traitre ce genre de chose. C’est comme le raid, la replication n’est pas un backup. Il y a trop de boites qui comptent la dessus et qui se rendent compte que la replication a aussi repliqué la suppression involontaire d’une LUN entiere. Oups.







ticoss a écrit :



surtout quand il s’agit de leur cœur de métier !







Ben non justement, leur coeur de métier, c’est de fournir une solution de gestion d’abonnés, pas de faire de l’hébergement.

C’est grace aux boites qui se rendent compte de cette difference que je vis…



l’application “le monde” sur store windows ne reçoit plus aucune mise à jour depuis le 20 juin sur mon pc, y&nbsp; a un rapport????

(je ne suis pas abonné)


Bah ça me rappelle un truc c’est un client en décembre (pas encore client à l’epoque, devenu client suite à la panne)



Ça vaut son pesant de cacahuètes : perte de toutes les données car le hotspare et 2 disques du raid 5 son partis en live, backup sur le même raid, personne ne s’est inquiété des lumières oranges et pas de contrat de maintenance… 2 mois en centre de récup de données, puis récup du backup sur un coup de bol.








KP2 a écrit :



Ben non justement, leur coeur de métier, c’est de fournir une solution de gestion d’abonnés, pas de faire de l’hébergement.

C’est grace aux boites qui se rendent compte de cette difference que je vis…





Sous-entendu : “et tout mettre en œuvre pour fournir cette solution” (au moment demandé par le client).



&nbsp;On n’a pas encore assez d’éléments pour savoir ce qu’il s’est passé … mais je sens bien venir le ransomware qui a bousillé la prod, et qu’ils n’osent pas brancher la baie secondaire de peur que ça se propage là bas aussi&nbsp;<img data-src=" />&nbsp;… (Seriously, ya pas moyen de mettre en place une autre machine toute neuve d’ici un mois ?)









Aloyse57 a écrit :



Je suis d’accord : 1 mois c’est super louche.

Toujours en rapport avec la perte de nos Nexenta, on a récupéré et migré nos backups sur du Dell neuf en moins de 24H. Mais c’est sûr qu’il a fallu sortir le carnet de chèque pour acheter et se faire livrer la machine aussi rapidement. Et on a pas beaucoup dormi…





C’est sûr que dans un cas pareil, quand t’as du critique et que tu veux sauver le business, &nbsp;ça coute chaud et faut pas avoir peur de faire des heures, mais bon, au moins ça repart, parce que dans le cas de GLI, vu le délai annoncé j’imagine que certains doivent déjà faire ce qu’il faut pour migrer.



&nbsp;



Aloyse57 a écrit :



Je ne les disculpe pas, mais je comprends que tout une infra peut tomber en un claquement de doigt. Le tout est d’avoir un plan testé de “Disaster recovery” et de savoir (et oser) l’appliquer.

Des fois, on espère qu’on va pouvoir réparer -c’est le premier reflexe- mais ce faisant, on s’enfonce. C’est là qu’il faut être lucide et dire “stop, on applique le plan d’urgence”, pour repartir le business. Et ensuite on analyse et on finalise la récup.



En effet, quand tout est planté, il vaut&nbsp;souvent mieux appliquer la procédure prévue (enfin, quand il y en a une … ) plutôt que de jouer au devin et essayer de bricoler un truc.









KP2 a écrit :



&nbsp;Ouais mais justement, c’est traitre ce genre de chose. C’est comme le raid, la replication n’est pas un backup. Il y a trop de boites qui comptent la dessus et qui se rendent compte que la replication a aussi repliqué la suppression involontaire d’une LUN entiere. Oups.





Ah, le RAID, en effet, ça&nbsp;ne remplacera jamais une sauvegarde entre (je résume, parce que je sais que tu es au courant du problème, on en a déjà discuté sur un autre site) les manip logicielles qui impacte tous les disques, les disques restants (suite à un problème sur un disque) qui&nbsp;peuvent crasher lors de la reconstruction ou provoquer une erreur de lecture (dans un moment critique évidemment), etc …



Une réplication auto, un RAID? c’est bien pour la continuité de service, mais ça ne remplacera JAMAIS une copie de sauvegarde …



Et beaucoup ont tendance à l’oublier.



Je suis cette news et tous les commentaires avec un mélange de fascination et d’incompréhension.

D’incompréhension car c’est un domaine que je connais absolument pas à cause de mon niveau (baies, PLA, marques de serveurs…) J’ai des images de datacenters nickels et de pauvres serveurs avec 3 cm de poussière dessus et 20 dedans qui me viennent en tête.

Et de fascination car j’ai l’impression d’assister à une convention d’astrophysiciens qui parlent de choses super importantes avec des termes (j’imagine par exemple que ca parle de point de convergence gravitationnel, équilibre quantique, &nbsp;conséquences en cascade multi-univers, déphasage des dimensions espace-temps… evidemment, je raconte n’importe quoi) que je comprend pas &nbsp;mais qui font parti notre monde actuel.



Je voudrais juste apporter ma petite suggestion, le temps pour la remise en route annoncée d’un mois vient peut être qu’il faille envoyer les disques durs dans une entreprise spécialisée dans la récupération de données








Juju251 a écrit :



Ah, le RAID, en effet, ça ne remplacera jamais une sauvegarde entre (je résume, parce que je sais que tu es au courant du problème, on en a déjà discuté sur un autre site) les manip logicielles qui impacte tous les disques, les disques restants (suite à un problème sur un disque) qui peuvent crasher lors de la reconstruction ou provoquer une erreur de lecture (dans un moment critique évidemment), etc …



Une réplication auto, un RAID? c’est bien pour la continuité de service, mais ça ne remplacera JAMAIS une copie de sauvegarde …



Et beaucoup ont tendance à l’oublier.









Le RAID est juste le 1er niveau de sécurité des données (en plus des performances selon le mode), et effectivement cela n’est pas une sauvegarde.



quand j’entends dans ma boite dire qu’en RAID10 les données sont sauvegardées, j’étouffe.









Bball a écrit :



Je suis cette news et tous les commentaires avec un mélange de fascination et d’incompréhension.

D’incompréhension car c’est un domaine que je connais absolument pas à cause de mon niveau (baies, PLA, marques de serveurs…) J’ai des images de datacenters nickels et de pauvres serveurs avec 3 cm de poussière dessus et 20 dedans qui me viennent en tête.

Et de fascination car j’ai l’impression d’assister à une convention d’astrophysiciens qui parlent de choses super importantes avec des termes (j’imagine par exemple que ca parle de point de convergence gravitationnel, équilibre quantique, &nbsp;conséquences en cascade multi-univers, déphasage des dimensions espace-temps… evidemment, je raconte n’importe quoi) que je comprend pas &nbsp;mais qui font parti notre monde actuel.



Je voudrais juste apporter ma petite suggestion, le temps pour la remise en route annoncée d’un mois vient peut être qu’il faille envoyer les disques durs dans une entreprise spécialisée dans la récupération de données







Ouais mais le problème n’est pas là, dans ce genre de structure tu dois avoir obligatoirement une redondance des données, pour que, en cas de crash, tu puisse montrer une sauvegarde depuis un Back up, un système de secours, une sauvegarde distante sur un serveur dédié etc…pour réduire le temps de pannes.



Les prestataires comme cgi doivent avoir des obligation contractuelle de rétablissement en cas de panne avec des délais garanti.



La ça suggère un gros problème, mauvaise gestion a minima, et potentiellement de la négligence, et vu les délais de rétablissement qu’ils sont censer garantir ça va leurs coûter très très cher…



Trop tard pour éditer, donc j’avais oublier les pénalités (financières) en cas de pannes et de non respect des délais contractuelles qui chiffres trèèèès vite si les délais sont pas respectés.


Je crois que l’on peut résumer ça en “une (trop) grosse partie des applications publiques ou d’entreprise reposent sur un château de cartes”, qu’il soit :

*&nbsp;matériel (ex. : serveur qui prend la poussière, matériel fragile, etc … ça fonctionne bien, jusqu’au jour où …)

* logiciel (ex. : code critique pondu par un stagiaire et vérifié par l’autre stagiaire, optimisé à la truelle, qui fonctionne jusqu’au jour où ça tombe sur un cas pas prévu …)

* organisationnel (ex. : pas de bonne politique de gestion de sauvegardes, on vire le seul type capable de bosser sur tel projet, ça fonctionne bien jusqu’au jour où …) - j’ai pas de meilleur mot que “organisationnel” pour celui-ci

* ou un mix des trois !&nbsp;<img data-src=" />



Pauvres utilisateurs que nous sommes, nous n’avons aucune idée des bases des logiciels/sites web qu’on utilise, auxquels on confie des données parfois importantes. Et je crois bien que si on le savait, on prendrait peur.



Pour tous les gros mots techniques, c’est sans doute pour ça que beaucoup d’entreprises préfèrent faire appel à un prestataire.&nbsp;<img data-src=" />


Petite supposition, ne connaissant ni le secteur ni les acteurs qui le composent:

&nbsp;

Le secteur de la presse, en ligne et papier, souffre depuis de nombreuses années. Des budgets à la baisse pourraient avoir justifié l’émergence de solutions à prix discount, assorties du genre de conséquences que l’on constate aujourd’hui.


Au grand jeu de Mme Irma, moi j’opte pour la thèse que “format proprio” sorti de la bouche d’un communiquant, c’est la version publique de “chiffré par un ransomware” ; la trouille de relancer le backup pour qu’il subisse le même sort irait dans ce sens.


Ça a le mérite d’être crédible, mais ça n’excuse pas l’absence de backup.


Vous allez voir que dans 24H on découvrira qu’ils hébergeaient tout ceci sur une dedibox à 5€…


Mauvaise langue…



Je suis sûr qu’ils on au moins poussé jusqu’à un SoYouStart à 20€ avec 100Go de backup offerts <img data-src=" />








brazomyna a écrit :



Au grand jeu de Mme Irma, moi j’opte pour la thèse que “format proprio” sorti de la bouche d’un communiquant, c’est la version publique de “chiffré par un ransomware” ; la trouille de relancer le backup pour qu’il subisse le même sort irait dans ce sens.





Non, il ne faut pas 1 mois pour cloner les disques d’une baie et relancer la baie avec les clones pour voir ce qui se passe.



Meme notre server minecraft fait un back-up sur un serv extérieur toutes les deux heures on parle la d’un jeu tellement bien codé que pour faire tourner tu ne peux pas utiliser la version officielle (corruption, maj foireuses etc…).

Je vois mal des pro avec de telle donnée critique et dont leur existence est financé par l’état ne pas avoir une solution pro pour gérer leur donner.


Je bosse dans le stockage depuis plus de 8 ans, j’ai jamais vu un truc pareil. Données non perdues, réplication sur 2nde baie et on sait pas redémarrer le service plus d’une semaine après. Je me demande quel est le constructeur, en tout cas si c’était le constructeur pour lequel je travaille, au vu de ma position, je pense que je serais dans les réunions de crise en ce moment !


Ils ont la même agence de com que çavamieux


Ils n’ont certainement jamais testé la validité des backup. J’ai souvent vu ça. On sauvegarde… on croit que…


Non sur un kimousse(kimsufi) <img data-src=" />


Faut pas forcement accusé les sysadmin voir la DSI si y’en a une.

Parfois (souvent) l’IT cherche a sécuriser le SI mais la direction dit “cay trop cher” même en leur expliquant les risques a base de “si ca plante on a plus d’activité ça coûtera sans doute encore plus cher” et on te répond “oui mais c’est cher donc on fait pas”&nbsp;

&nbsp;


Le 25/06/2016 à 07h43