Après une semaine assez animée, le groupe GLI communique quelques informations sur la panne qui touche le service d'abonnement de plusieurs titres de la presse française. Et la société se veut rassurante.
Depuis quelques jours, certains éditeurs français subissent une période de stress intense : le prestataire qui a en charge une bonne partie de leurs abonnements, le groupe GLI, a subi une panne informatique. Résultat : les donnés de facturation des abonnés ainsi que le service d'abonnement en ligne sont inaccessibles.
La panne est intervenue dimanche et les éditeurs ont été rapidement prévenus. Mais mercredi, personne ne semblait encore avoir de solution. Si nous avions déjà fait un premier point selon les retours des éditeurs, GLI restait injoignable. Le groupe a néanmoins décidé de commencer à livrer sa version et à répondre à nos questions alors qu'une réunion est organisée avec ses clients ce soir.
Plusieurs copies des données, aucune n'est vraiment utilisable pour le moment
C'est Marylou Pernaut, de l'agence Corpcom, qui est en charge du dossier. Elle nous a fait savoir que « Bien évidemment, les données sont triplement sauvegardées et la plupart des clients de GLI ont également une réplication des données sauvegardées ». C'est semble-t-il le cas de Valeurs actuelles, selon l'AFP, mais aussi du Point comme l'indique Jean-Michel DeMarchi, rédacteur en chef de la lettre spécialisée Mind.
« Mais une vraie sauvegarde, c'est quelque chose que l'on peut exploiter immédiatement, pas quelque chose que l'on ne peut pas utiliser chez soi parce que ça passe par un outil propriétaire » ironise un proche du dossier. Et c'est bien là tout le problème actuel. C'est pour cela qu'une partie des éditeurs se penche actuellement sur la troisième piste : celle des données récupérées à travers un outil de Business Intelligence, qui sont brutes, et qu'il faut donc remettre en forme.
Néanmoins, aucune donnée n'est perdue selon les représentants de GLI. Celles-ci sont présentes au sein de deux baies distinctes : « Il y a une première baie qui dispose de 100 % des données, et c'est cette baie qui est en panne, donc on ne peut pas l'utiliser. [...] Il y a une deuxième baie qui a les données. Elle n'est pas en panne. Pour l'instant on ne souhaite pas la brancher sans avoir identifié le problème. On veut trouver le problème avant de la réactiver. »
La remise en route se prépare, sur fond de diagnostic technique
La cause de la panne n'est en effet pas encore connue, et il faudra attendre encore un peu avant d'en savoir plus : « Pour le moment on est en diagnostic, on est en train de rechercher l'origine de la panne. Pour l'instant on ne sait pas vraiment ce qui s'est passé. Peut être un micro-code ». La piste du piratage semble exclue pour le moment, la remise en place du service est annoncée pour dans un mois.
En attendant d'en savoir plus et de pouvoir éventuellement faire redémarrer l'une ou l'autre de ses baies, GLI continue donc de travailler avec les éditeurs, et de gérer les abonnements via d'autres canaux que le web. « On peut toujours faire des abonnements par mail, par téléphone, etc. C'est juste sur le web que l'on ne peut pas récolter les données » nous précise-t-on.
Reste la question de la remise en route dela facturation et des abonnements. « Concernant les facturations, tout sera fonctionnel dès lundi », nous indiqué Marylou Pernaut, alors que les versions diffèrent encore selon les éditeurs que nous avons pu interroger sur ce point.
« Nous sommes en contact avec les éditeurs, on organise une réunion ce soir donc on est vraiment transparents avec eux. » Une réunion qui s'annonce animée, certains nous indiquant que « la course à celui qui aura droit à un traitement prioritaire » est déjà lancée. Il devrait aussi être question du manque à gagner pour ces jours d'indisponibilité partielle, et des responsabilités de chacun. Nous tenterons bien entendu de faire un nouveau point dès que nous aurons pu obtenir de nouvelles informations.
Entretien réalisé par Guénael Pépin
Commentaires (121)
#1
Ca sent le bullshit cette explication…
#2
+1
#3
Je n’y connais rien dans le business du développement informatique, du codage et de la sauvegarde (hors cas du particulier), mais 1 mois pour remettre en route le service, voire une semaine pour diagnostiquer la cause de la panne des baies, ça me paraît énorme…
#4
+1 pour le bullshit.
1 mois pour remettre tout en marche ? Hahaha, quelle blague !
#5
Pour avoir vécu la perte d’une baie primaire, le constructeur peut vérifier/garantir que le données n’ont pas été perdues (bien écrite sur la baie secondaire).
Je comprends qu’ils hésitent à basculer sur la baie secondaire, mais il ne faut pas 1 mois pour repartir sur la baie primaire!!
Je me demande ce qu’ils ont comme matos et fournisseur…
#6
oh que oui
#7
#8
Il reste un fichier csv c’est cool ça " />
#9
“Pour l’instant on ne sait pas vraiment ce qui s’est passé. Peut être un micro-code “.
“la remise en place du service est annoncée pour dans un mois” MAIS “Concernant les facturations, tout sera fonctionnel dès lundi” " />
Franchement ils me tuent !
On a les données mais on peut pas les lire et on flippe tellement qu’on préfère pas redémarrer par contre les facture pas de soucis…! (Vous allez me dire : qu’ils prennent les précautions maintenant mais il fallait le faire AVANT ! )
Et je pourrais continuer a citer la moitié de l’article !
Je ne voit pas cette société perdurer dans le temps.
#10
Quand on délègue une agence conseil spécialisée dans la réputation pour expliquer un problème technique… Comment dire ça gentiment ? Non, rien.
#11
#12
Ça dépend. J’ai déjà vu des pannes sur des baies de stockage: le constructeur de la baie a envoyé spécialement un ingénieur depuis le Japon dès que la panne fut identifiée (donc quelques dizaines d’heures). Ils ont même payé l’hélicoptère depuis l’aéroport pour aller plus vite. Le gars est resté toute la nuit à taper des commandes de Gourou pour tenter de remonter la baie.
La baie contenait des données bancaires: interdiction de la part du constructeur de démarrer la baie PRA parce qu’il n’était pas sûr du résultat.
#13
N’oubliez pas que la quantité de données est assez importante et que la criticité du problème est maximale.
Quand c’est la totalité de votre business qui est en jeu, vous ne vous précipitez pas comme ça…
#14
Heureusement que les experts de l’interweb sont là, ils vont résoudre, pardon, solutionner, le problème sans même le connaître " />
#15
#16
Mieux, on va le disrupter à coup de blockchain " />
" />
#17
#18
micro-code: code écrit en police de taille 5 ou moins
#19
+1 je veux pas avoir le meme
n’empeche que je penche aussi pour la these du cryptovirus qui a tout crypter (donnée+backup)
#20
CORPCOM est une agence conseil en stratégie de communication, est spécialisée en communication corporate, communication financière et communication de crise…
Donc les mecs sont dans la M… jusqu’au coup et la première action qu’ils font c’est de passer par une agence de communication pour se faire briffer et annoncer que tout va bien et qu’aucune data n’est perdue…
Ils doivent vraiment être dans la M…
#21
« Nous n’avons perdu aucune donnée, mais la baie est en panne.»
Comme ils ont besoin d’un miracle pour récupérer les données, si l’abbé est en panne, personne ne pourra intercéder auprès de Dieu en leur faveur.
#22
#23
D’où l’intérêt des solutions opensources… Mais bon, les décideurs ont besoin de “marques” pour être rassuré.
Un peu comme Stallergenes (grand fabricant de produits antiallergie et antivenin) qui s’est vautré avec SAP :
http://www.lemondeinformatique.fr/actualites/lire-un-projet-sap-hana-dans-les-ch…
(Mauvais destinataire, mauvais dosages…)
Ils ont mis 6 mois à détecter que leur process avait complètement foiré, il a fallu une interdiction de mise sur le marché pour les faire bouger, la prod a repris en mars 2016 (foirage en aout 2015…)
#24
+1
GLI tente de sauver ses fesses en passant par une agence de com. (je viens de voir que je me suis fait BBQED " />)
Y a des journaux qui ont des triples sauvegardes mais pas tous, surtout les petits journaux.
Et bon une “baie en panne” ce se change vite si tu as des vrais datacenters, cette histoire c’est de l’amateurisme puissance X-trem.
#25
#26
C’est quoi le rapport avec la choucroute là ?
Le problème là c’est le stockage des données pas le code.
#27
#28
En même temps, vu l’ampleur que ça à pris via les site d’infos et les enjeux économique, vaut mieux prendre ses précautions et passer par des pro.
J’aime bien les commentaires d’ici… Si on écoute tout le monde une entreprise est multi casquette alors qu’il en est rien ! J’ai des notions de compta mais si j’ai un contrôle fiscal, je passerai par un expert comptable parce que c’est son job.
#29
Si tu perds des données, tu as deux choix : soit tu as eu un problème matériel, soit les données ont été effacées alors qu’elles ne le devraient pas.
Du coup, si t’es dans le deuxième cas (ce qui est probable vu leur refus de mettre en place la sauvegarde sans comprendre, genre risquer un second effacement), pouvoir jeter un coup d’oeil dans le code peut aider.
Maintenant, le code open-source a beau être open, tu l’utilises la plupart du temps sans faire une analyse de code. Sauf dans ce genre de cas, et encore faut’il ne pas trouver la cause par d’autres biais, souvent bien plus rapides que de faire du code review d’un truc de milliers de ligne avec des techniques de code et un langage que tu ne maitrises probablement pas…
#30
c’est marrant la com de la boite ça me rappelle le début d’aliens (alien 2) :
“Ne vous inquiétez pas ripley on a envoyé une colonie sur la planète où vous disiez avoir vu des aliens, tout ça bien”
2 jours plus tard :
“en fait y’a un légers soucis de cafard on va vous y renvoyer avec une bombe de begon et une douzaine de marines au cas ou”
#31
En tout cas, si ils coulent pas après ça, ils auront sacrément de la chance…
#32
#33
J’ai un peu de mal à comprendre aussi qu’on parle d’une baie en panne, si c’est une baie équalogic et que les disques ne montent plus pour un environnement virtualisé, ou en montage Iscsi sous l’OS, il suffirait de copier les données des LUN de Backup sur un nouveau volume puis remonter l’ensemble mais en foutant une prod dégradé sur une baie de sauvegarde, mais au moins fonctionnelle.
Donc à mon avis le backup du backup n’est plus fonctionnel, la tâche n’a pas du être correctement supervisée et personne n’a rien vu jusqu’au moment ou ça pète.
En tout cas le coup de la panne matérielle j’y crois vraiment moyen, ce genre d’équipement est redondé normalement.
A mon avis ça sent un putain se rançonware pris dans la gueule, ou alors on parle pour des raisons de budget de nas Synology non mis à jour avec une brèche ouverte sur la web pour un petit rançonware, ce qui oblige à inspecter les données de la baie de backup avant remise en prod…
Mais le coup du micro code c’est bizarre on fait sur la QA d’abord pour valider une montée de version via un refresh de la prod en QA.
Vu le temps restauration on peu dire qu’il étaient bien à poil ….
#34
Il gère le soucis informatique à leur sauce (bonne ou mauvaise) et prenne une agence de communication, pour la communication avec la presse et leur client.
Je pense qu’ils sont conscient que l’entreprise est en péril donc faut sauver les meubles. Et je crois pas qu’en 1semaine on s’improvise communicant.
#35
#36
Ah, du beau pipeautron de classe mondiale ! " />
(Je bosse dans un datacenter, donc bon, je connais un peu. " />)
#37
#38
#39
S’ils ne retrouvent aucune donnée, la boite est morte, mensonge ou pas. Et même si j’avais la certitude qu’ils vont les retrouver, je leur prêterais pas de l’argent " />
D’ailleurs, qu’est-ce qui te dit qu’ils mentent?
#40
#41
#42
Résumé :
-On a un failover mais on ne veut pas s’en servir
-On a des backups partout : mais on ne veut pas s’en servir
Apparemment le service rendu n’est pas si critique que çà alors " />
#43
#44
Oui bon l’open source, ça ne garanti absolument rien.
Il y a 2 ans nos Nexenta sont tombés en panne suite à une màj foireuse d’un switch (donc à priori aucun rapport).
Personne chez Nexenta n’a été en mesure de les faire repartir dans des délais raisonnables (12h, pour nous).
On a tout basculé dur du Dell Proprio du coup. Avec un vrai support qui tient la route.
L’inverse aurait aussi été possible. Des fois ça tient plus aux professionnels qu’on peut avoir à disponibilité, plus qu’autre chose.
#45
Non, ça ça se tient. Comme dans mon commentaire précédent, nous avons allumé la seconde Nwxenta, qui est aussi tombé en panne après la première. Si on l’avait laissé éteinte, on en aurait pas autant chi* à remonter le tout en catastrophe.
C’était un pari, on a perdu.
#46
#47
Qu’ils ne veulent pas prendre le risque de tout exploser, je le comprends, mais le délai annoncé d’un mois me parait complétement démesuré.
Il s’agit sans doute d’un délai maxi, mais je ne sais pas ça me laisse penser qu’il y a en réalité un très gros soucis (genre perte de données, au moins partielle) potentiel.
Et le coup des backups qu’ils ne peuvent pas restaurer ça me semble assez fumeux aussi.
#48
Moi j’ai lu l’agence “POPCORN” ….
La fatigue ^^”
#49
#50
#51
Surtout qu’on peut toujours dupliquer les backups et remonter une archi relativement rapidement avec la virtualisation de nos jours, quitte à avoir un service dégradé pendant un temps.
#52
Il y a une différence entre mentir et ne pas tout dire.
Mon impression est qu’on est dans la comm’ floue visant à dire quelque chose de rassurant en s’avançant le moins possible, ce qui sans aider apporter grand chose, n’est pas non plus du mensonge.
Après, je suis peut-être naïf " />
#53
Il n’a pas été spécifié dans la news précédente ; que même le code source était perdu ?
D’ailleurs l’excuse de la baie de sauvegarde est en panne, en lisant ça , je me suis étouffé .. Coup du sort ? elle est en panne depuis quand leur baie ?? “Tout va bien Madame la Marquise ; notre baie est infaillible ”
Ta baie de sauvegarde tombe en panne comme par hasard le jour de la perte des données " />
#54
lol, je suis certain qu’ils ne possèdent aucune baie… ils essaient de jouer les professionnels, cela serait fun qu’un employé “anonyme” du sous-traitant nous raconte vraiment ce qu’il en est ^^
Leur première version, c’était qu’ils n’avaient plus les données, ni eux, ni leur sous-traitant, jamais ils n’ont parlé d’une seconde baie…
La “première baie” serait en panne à cause d’un micro-code… lol , ce qui est bien, c’est qu’ils sous-entendent qu’un type a tout cassé volontairement. Ils ont viré leur seul et unique administrateur réseau qui est parti en laissant une petite bombe derrière lui… c’est assez marrant ^^ et c’est ce qui arrive quand on traite comme de la merde l’employé qui fait marcher la base de la boutique (suis déjà passé derrière un type comme ça, c’est fun à réparer, un peu comme une chasse au trésor organisée par le prédécesseur ^^).
#55
Pour le moment on a encore des retours assez contradictoires sur certains point, mais ça commence à s’éclaircir. La réunion de ce soir devrait être l’occasion de tout mettre à plat. On verra ce qu’il en est une fois que tout le monde aura pu juger sur pièce pour la remise en route des facturation, des prélèvements, et éventuellement de l’abonnement, que ce soit avec la dernière version de l’outil ou une version antérieure retrouvée quelque part.
#56
L’équipe de Next Inpact participe aux réunions ?
Vous êtes directement concernés par ce problème ? :/
#57
C’est pas ce qu’ils disent ils disent juste “que ca met du temps c’est une solution pro”, que je lis plus (car des solutions de backup pro j’en utilise pas qu’une) en : en fait nos serveurs était sauvegardé mais pas trop donc là on est en train de remonter les journaux de transactions (qui est effectivement très très long) pour récupérer les données et à côté on a envoyé nos HDDs a une solution pro de récupération de données.
#58
#59
Je suis d’accord : 1 mois c’est super louche.
Toujours en rapport avec la perte de nos Nexenta, on a récupéré et migré nos backups sur du Dell neuf en moins de 24H. Mais c’est sûr qu’il a fallu sortir le carnet de chèque pour acheter et se faire livrer la machine aussi rapidement. Et on a pas beaucoup dormi…
#60
Non, une mise à jour foireuse d’un firmware d’une machine à priori sans rapport peut faire bien des dégâts en cascade.
c.f. mes commentaires à propos de Nexenta.
Je ne les disculpe pas, mais je comprends que tout une infra peut tomber en un claquement de doigt. Le tout est d’avoir un plan testé de “Disaster recovery” et de savoir (et oser) l’appliquer.
Des fois, on espère qu’on va pouvoir réparer -c’est le premier reflexe- mais ce faisant, on s’enfonce. C’est là qu’il faut être lucide et dire “stop, on applique le plan d’urgence”, pour repartir le business. Et ensuite on analyse et on finalise la récup.
#61
gros +1 aussi.
Un petit test P.C.A. (plan de continuité d’activité) et P.R.A. (plan de reprise d’activité) régulièrement ça ne mange pas de pain (mais c’est chiant!), ça permet de valider les procédures et de roder les équipes en cas de vrai pépin.
J’aimerais pas être admin système chez GLI en ce moment (petite pensée pour eux " />
)
#62
#63
Haha, énorme, en gros les mecs ont pas de backups propres, mais comptent extraire les data depuis une DB de BI. C’est tellement sale.
#64
La précédente news est en partie fausse, ou pas, ou un peu, ou pas du tout. " />
D’ailleurs, s’ils peuvent reprendre une partie dès lundi c’est que tout n’est pas perdu finalement…
#65
C’est quand même une bonne grosse blague cette affaire " />
En plus je suis sûr que les éditeurs payent tellement cher pour ce service en carton. Je suis à peu près sûr qu’il y a des tas de prestataires bien moins chers et sérieux avec qui ça ne serait pas arrivé.
Externaliser n’est pas un problème en soit, mais quand ça concerne une partie critique de ton business tu t’assures de savoir comment bosse ton presta et tu t’assures qu’ils aient des comptes à rendre et que tout soit carré, voir tu bosses avec plusieurs au cas où.
#66
On a des backup mais on a entièrement perdu le logiciel propriétaire et la clé de codage des données, oups.
Mais on vous jure les données sont là, ou une mise à jour mal branlé qui a fait sauté le raid et ils ont trop peur de relancer l’autre baie.
D’un autre côté si ils n’ont pas non plus de version stable pré-gros-cafouillage ils vont mettre du temps à tout remettre en place.
C’est la fautes des stagiaires !
C’est la fautes de la femmes de ménages !
Vu la communication ils n’ont clairement aucune idée de ce qui à bien pu ce passer.
#67
Pour une fois que Pierre-Alain a sous-traité… " />
#68
Je crois savoir sur quoi ils vont se baser pendant 1 mois :
« C’est extrêmement handicapant, mais on n’a pas tout perdu, a nuancé Francis Morel, directeur du groupe Les Échos. Les abonnés vont continuer à recevoir leur journal, car on a encore les listings de service de la semaine dernière. »
Et avec un regroupement des paiements tu pourras annoncer une perte partielle des données
D’autre declaration du journal:
“ On ne les a pas perdues définitivement, a précisé Francis Morel, la base principale ne fonctionne plus mais les informations sont disséminées dans un certain nombre de bases secondaires. ”
“Les médias touchés « réfléchissent à des solutions de secours temporaires et travaillent à récupérer les informations disséminées à droite et à gauche »”-LeMonde.fr
En gros sa sent le croisement de donnée bancaire et autre quand l’éditeur n’a pas de donnée
#69
c’est pas mal mais j’espere que la CNIL va mettre son nez dedans ! le croisement de fichier bancaire avec des adresse physique surtout si ce n’est pas déclarer. j’imagine les fichiers excel en pièce jointe par mail, non chiffré, beurk
m’envais envoyer un courrier dénonciation a la CNIL pour bien apprendre a ces amateurs à vivre dans un état de droit.
#70
Comme pour vous deux, je trouve que c’est juste impossible d’être dans une telle situation. Quand je vois toutes les méthodes existante pour répliquer en temps réel (ou quasi) des infra sur des sites de secours, toutes les méthodes possibles pour remonter une machine en urgence (quand ce sont des applis non sensibles), c’est juste incroyable de lire une justification pareille.. surtout quand il s’agit de leur cœur de métier !
Après.. on sait bien aussi que l’on ne file pas toujours les budgets pour, qu’on fait survivre des infras comme on peut “parce l’info, c’est une centre de coût” et que c’est trop cher…
#71
#72
#73
l’application “le monde” sur store windows ne reçoit plus aucune mise à jour depuis le 20 juin sur mon pc, y a un rapport????
(je ne suis pas abonné)
#74
Bah ça me rappelle un truc c’est un client en décembre (pas encore client à l’epoque, devenu client suite à la panne)
Ça vaut son pesant de cacahuètes : perte de toutes les données car le hotspare et 2 disques du raid 5 son partis en live, backup sur le même raid, personne ne s’est inquiété des lumières oranges et pas de contrat de maintenance… 2 mois en centre de récup de données, puis récup du backup sur un coup de bol.
#75
#76
#77
#78
Je suis cette news et tous les commentaires avec un mélange de fascination et d’incompréhension.
D’incompréhension car c’est un domaine que je connais absolument pas à cause de mon niveau (baies, PLA, marques de serveurs…) J’ai des images de datacenters nickels et de pauvres serveurs avec 3 cm de poussière dessus et 20 dedans qui me viennent en tête.
Et de fascination car j’ai l’impression d’assister à une convention d’astrophysiciens qui parlent de choses super importantes avec des termes (j’imagine par exemple que ca parle de point de convergence gravitationnel, équilibre quantique, conséquences en cascade multi-univers, déphasage des dimensions espace-temps… evidemment, je raconte n’importe quoi) que je comprend pas mais qui font parti notre monde actuel.
Je voudrais juste apporter ma petite suggestion, le temps pour la remise en route annoncée d’un mois vient peut être qu’il faille envoyer les disques durs dans une entreprise spécialisée dans la récupération de données
#79
#80
#81
Trop tard pour éditer, donc j’avais oublier les pénalités (financières) en cas de pannes et de non respect des délais contractuelles qui chiffres trèèèès vite si les délais sont pas respectés.
#82
Je crois que l’on peut résumer ça en “une (trop) grosse partie des applications publiques ou d’entreprise reposent sur un château de cartes”, qu’il soit :
* matériel (ex. : serveur qui prend la poussière, matériel fragile, etc … ça fonctionne bien, jusqu’au jour où …)
* logiciel (ex. : code critique pondu par un stagiaire et vérifié par l’autre stagiaire, optimisé à la truelle, qui fonctionne jusqu’au jour où ça tombe sur un cas pas prévu …)
* organisationnel (ex. : pas de bonne politique de gestion de sauvegardes, on vire le seul type capable de bosser sur tel projet, ça fonctionne bien jusqu’au jour où …) - j’ai pas de meilleur mot que “organisationnel” pour celui-ci
* ou un mix des trois ! " />
Pauvres utilisateurs que nous sommes, nous n’avons aucune idée des bases des logiciels/sites web qu’on utilise, auxquels on confie des données parfois importantes. Et je crois bien que si on le savait, on prendrait peur.
Pour tous les gros mots techniques, c’est sans doute pour ça que beaucoup d’entreprises préfèrent faire appel à un prestataire. " />
#83
Petite supposition, ne connaissant ni le secteur ni les acteurs qui le composent:
Le secteur de la presse, en ligne et papier, souffre depuis de nombreuses années. Des budgets à la baisse pourraient avoir justifié l’émergence de solutions à prix discount, assorties du genre de conséquences que l’on constate aujourd’hui.
#84
Au grand jeu de Mme Irma, moi j’opte pour la thèse que “format proprio” sorti de la bouche d’un communiquant, c’est la version publique de “chiffré par un ransomware” ; la trouille de relancer le backup pour qu’il subisse le même sort irait dans ce sens.
#85
Ça a le mérite d’être crédible, mais ça n’excuse pas l’absence de backup.
#86
Vous allez voir que dans 24H on découvrira qu’ils hébergeaient tout ceci sur une dedibox à 5€…
#87
Mauvaise langue…
Je suis sûr qu’ils on au moins poussé jusqu’à un SoYouStart à 20€ avec 100Go de backup offerts " />
#88
#89
Meme notre server minecraft fait un back-up sur un serv extérieur toutes les deux heures on parle la d’un jeu tellement bien codé que pour faire tourner tu ne peux pas utiliser la version officielle (corruption, maj foireuses etc…).
Je vois mal des pro avec de telle donnée critique et dont leur existence est financé par l’état ne pas avoir une solution pro pour gérer leur donner.
#90
Je bosse dans le stockage depuis plus de 8 ans, j’ai jamais vu un truc pareil. Données non perdues, réplication sur 2nde baie et on sait pas redémarrer le service plus d’une semaine après. Je me demande quel est le constructeur, en tout cas si c’était le constructeur pour lequel je travaille, au vu de ma position, je pense que je serais dans les réunions de crise en ce moment !
#91
Ils ont la même agence de com que çavamieux
#92
Ils n’ont certainement jamais testé la validité des backup. J’ai souvent vu ça. On sauvegarde… on croit que…
#93
Non sur un kimousse(kimsufi) " />
#94
Faut pas forcement accusé les sysadmin voir la DSI si y’en a une.
Parfois (souvent) l’IT cherche a sécuriser le SI mais la direction dit “cay trop cher” même en leur expliquant les risques a base de “si ca plante on a plus d’activité ça coûtera sans doute encore plus cher” et on te répond “oui mais c’est cher donc on fait pas”
#95