M$ a montré l’exemple le 29 Février 2012 en oubliant que c’était une date valide et en causant l’arrêt complet d’Azzur !!! Et ils ont encore plus de moyens financiers que Mozilla.
Pour consoler ceux qui ont découvert le problème au cours de ces dernières heures, j’ai fait une mise à jour complète d’Avast la nuit dernière et j’ai cru ce matin que le problème venait d’Avast. J’ai donc cherché du côté d’Avast sans voir passer tout de suite les infos venant de Mozilla.
Bilan: 7 heures de travail perdues inutilement.
La probabilité qu’un tel problème survienne en même temps que l’on fait un update de l’antivirus est proche de 0 et pourtant ! …
—
Quant aux moteurs de recherche - Google, Qwant, & co - aucun n’a relayé l’information avant 16:30 !!!
Je ne sais pas d’où sortent ces chiffres - 1 milliard, 100 milliards, … pourquoi pas 1’000 milliards - cf. les fameux 360 millions de £ hebdomadaires du Brexit pour le NHS !!!
En revanche, ce qui est sûr, c’est qu’il est beaucoup plus difficile de négocier tout seul qu’à plusieurs. De nombreuses personnes - y compris politiques - idéalisent à tort la position de la Suisse. Les négociations entre la Suisse et l’UE ne sont pas un long fleuve tranquille et coûtent cher à la Suisse sans pour autant lui donner un droit de vote au sein de l’UE. En outre, nous sommes entre européens “civilisés”.
Après l’affaire de la frégate Vendémiaire arraisonnée par la marine chinoise dans le détroit de Taiwan, il y a quelques jours - alors même que la frégate n’était pas en mission militaire et se rendait à une manifestation maritime organisée par la Chine à la quelle la Marine Française avait été invitée - on peut aisément imaginer ce que serait le poids de la France “frexitée” dans des négociations commerciales ou fiscales avec la Chine !!! …
Il faut arrêter de rêver dans le monde des bisounours :
toi 1.3 milliard d’habitants et 2° puissance économique mondiale (bientôt 1° puissance), moi 64 millions d’habitants : moi dire à toi ce que je veux … et tu dois m’obéir … " />
Le
27/04/2019 à
08h
35
Il faut réviser le fonctionnement des institutions Européennes.
UE = Union Européenne, c-à-d. les 27⁄28
> Commission Européenne, aux ordres du conseil des ministres européen (c-à-d. selon les thèmes, les ministres concernés des 27⁄28 pays), sous le contrôle du Parlement Européen (Strasbourg/Bruxelles).
> Cour de justice de l’Union européenne (CJUE), Luxembourg
- La Cour veille à l’application du droit de l’Union et à l’uniformité de son interprétation sur le territoire de l’Union. À cette fin, elle contrôle la légalité des actes des institutions de l’Union européenne et statue sur le respect, par les États membres, des obligations qui découlent des traités. Elle interprète également le droit de l’Union à la demande des juges nationaux.
- La compétence de la Cour s’étend à toutes les questions concernant l’interprétation et l’application de la Convention et de ses protocoles additionnels
Les deux institutions sont indépendantes, même si tous les états membres de l’UE sont membres du Conseil de l’Europe et si les deux institutions coopèrent sur de nombreux sujets.
—
Concernant les questions de fiscalité, c’est au conseil des ministres des finances européen de définir un objectif à la Commission Européenne qui préparera - sous le contrôle du conseil des ministres européen - une proposition de directive ou de règlement qui sera ensuite amendé et approuvé (ou pas) par le Parlement Européen et ensuite - dans le cas d’ene directive - retranscrit dans le droit national de chaque pays membre par les parlements respectifs.
Il faut arrêter de râler contre “Bruxelles” - aka Commission Européenne - lorsque ce sont d’abord les états membres qui font preuve d’un manque de volonté évident.
Actuellement, les pouvoirs du Parlement Européen ne sont pas exceptionnels, mais ils ne sont pas pour autant négligeables. On a trop souvent tendance à parler des décisions mauvaises ou contestables (cf. par exemple l’article 13 concernant la propriété intellectuelle) pourtant de très nombreuses décisions européennes nous simplifient la vie et nous font faire des économies (cf. par exemple la suppression des coûts de roaming intracommunautaire en téléphonie mobile, l’harmonisation des procédures d’évaluation des médicaments, …).
1/ Pour être un utilisateur intensif (actuellement : 21 comptes courriel en parallèle, 25 GB de données, environ 135’000 messages stockés, environ 250 à 350 messages par jour) de la première heure - et quasiment exclusif - de Thunderbird après être initialement passé par Netscape, je ne peux en aucun cas me plaindre de l’outil. J’apprécierai seulement une gestion un peu plus souple de l’agenda, sinon, pour le reste, Thunderbird fait le job très correctement et de manière hautement fiable.
2/ Les solutions “cloud” sont pour moi un tabou non négociable, j’ai donc besoin d’un client courriel local qui sait retrouver les informations que je cherche, qui me permet d’utiliser mes courriels comme une base de connaissance.
2.a/ Alors même que les craintes (justifiées) de fuite de données n’ont jamais été aussi élevées, que le RGPD renforce clairement les obligations de protection des données, je constate qu’une grande majorité des commentaires font l’apologie du cloud !!!
C’est incompréhensible et cela montre l’immense manque de maturité des utilisateurs.
Parfois, il faut savoir être paranoïaque !!!
2.b/ Le cloud ne fiabilise en aucun cas les données ni l’accès à celles-ci. Je suis très souvent en déplacement professionnel : les connexions Internet des hôtels ne sont pas toujours fiables et j’ai encore des clients qui ne disposent pas de réseau “wifi de courtoisie”. J’ai donc besoin de pouvoir accéder à mes courriels “off-line”.
2.c/ La sécurisation des 25 GB de courriel ne coûte que 5 à 10 minutes par sauvegarde (sur NAS : au bureau / maison ; sur disque USB externe : lors de déplacement).
Je vois régulièrement des clients ne pas être en mesure de retrouver ou de trier correctement les messages dans Outlook.
À titre professionnel, j’ai dû également utiliser MS-Mail (1992 - 1996), Lotus Notes (1997 - 2000) et Outlook (chez des clients).
Après ces expériences, je ne peux qu’être satisfait de Thunderbird.
Je souhaite une longue vie à Thunderbird en espérant qu’il reste toujours aussi efficace.
J’espère seulement que ceux qui “jurent par le cloud” (à commencer par Office 365 et GMail) commencent à réaliser l’état avancé de dépendance dans lequel ils se sont mis, y compris la perte du contrôle de leurs données.
D’ailleurs, le 13° rapport des risques du Forum Économique Mondial (WEF) identifie entre autre la cyber-dépendance croissante (rising cyber dependency) comme un des risques économiques et sociétaux majeurs.
Je reste fasciné (pour ne pas écrire “éberlué”) par la capacité de certaines personnes à être dans le déni de la physique.
Nous avons notre lot de managers qui refusent de prendre en compte les “contraintes” en fait la réalité de la physique.
Maintenant, nous découvrons que des commissions de normalisation sont également dans un tel déni de la physique.
Pour avoir eu de nombreuses heures de cours en traitement du signal, pour avoir également pris certaines libertés calculées de câblage par rapport aux usages, je ne peux que recommander de retourner aux bases des calculs d’impédance et autres rapports signal/bruit.
Je ne comprends absolument pas le besoin d’un seul type de connecteur ; d’autant que les deux types de connecteur existent pour des prix très raisonnables.
En revanche, comme mentionné par d’autres lecteurs, les coûts de “debugging” (recherche de panne) vont exploser, car ce “câblage” dit universel ne peut - en l’état - satisfaire aux réalités de la physique.
Le rapport de TDF - qui date pourtant de plus d’un an - est très clair sur les problèmes électromagnétiques qui résultent de cette “hybridation” contre-nature.
En outre, j’en ai plus qu’assez d’entendre et de lire l’apologie du haut-débit qui serait soit disant disponible pour tous, alors qu’une grande majorité du pays est encore largement sous la barre des 10 Mbit/s voire même < 5 Mbit/s. Dans le même temps, on supprime des fréquences de la TNT au prétexte que l’on peut regarder les programmes TV via ADSL. Je ne parle même pas des changements de configuration des émetteurs qui sont réalisés sans aucune annonce et qui oblige l’intervention d’un installateur (changement de bande de fréquence et/ou de polarisation).
En 2000, nous avons vécu une “évolution industrielle” significative avec l’obligation de conformité électromagnétique (CEM) des équipements. Aujourd’hui, grâce à ces pseudo normes de câblage, nous faisons face à un véritable déni des lois de l’électro-magnétisme.
Pour ceux qui suivent “un peu” l’actualité, le Privacy Shield est virtuellement mort depuis le 25 Janvier 2017:
“Agencies shall, to the extent consistent with applicable law, ensure that their privacy policies exclude persons who are not United States citizens or lawful permanent residents from the protections of the Privacy Act regarding personally identifiable information.”
Executive order, 2017-01-25 - Enhancing Public Safety in the Interior of the United States, Sec. 14
Ce qui m’étonne, c’est le manque de réaction des différents gouvernements Européens, pas seulement de la Commission.
Pour moi, ce manque de réactivité démontre la méconnaissance du sujet de la part des politiques et, par voie de conséquence, d’un cruel manque d’anticipation.
Le site pour acheter les déambulateurs ne fonctionne que sous I.E.6.0, vous pouvez nous aider …
Il faut arrêter de délirer ou bien il faut se faire soigner !
Dans le pire des cas - I.E. 6.0. - il y a toujours moyen de virtualiser I.E. 6.0 (virtualisation d’application) sans obligatoirement maintenir un musée du logiciel.
Au niveau de l’imagerie médicale, il existe déjà des équipements qui nativement tournent sous Unix/Linux avec une interface utilisateur basée sur Qt. Si un environnement non Windows est souhaité, je pense que cela soulagerait de nombreux fabricants de dispositifs médicaux et d’éditeurs de logiciel.
Dès que l’on est dans le monde de l’embarqué (embedded system), Windows est une plaie. La stratégie de MS de changer le noyaux de W10 tous les 12 mois est une véritable catastrophe en termes d’effort de mise-à-jour, de revalidation, et de fiabilité.
Si une véritable stratégie est élaborée et déployée concernant le paysage informatique hospitalier, les éditeurs de solutions et les fabricants d’équipement sauront s’adapter.
Il faut “seulement” que la stratégie soit cohérente et que les différents partenaires s’y tiennent.
Le
26/02/2018 à
16h
49
Là tu parles de l’époque où les DSI jetaient l’argent par la fenêtre …
Pas obligatoirement.
Je suis assez d’accord qu’une ferme (server farm) bien virtualisée est plus souple, plus efficace et plus fiable que du HACMP (qui est lourdingue à configurer et à tester).
La haute disponibilité est requise pour les applications critiques ayant un impact sur la santé du patient (nous parlons de centre hospitalier).
Néanmoins, une plateforme de virtualisation bien équipée et correctement configurée est malgré tout relativement coûteuse aussi bien au niveau matériel que des licences logicielles (vSphere n’est pas donné, surtout s’il faut y ajouter des couches de gestion de fail-over de serveurs de bases de données).
En outre, pour des environnements logiciels issus du monde AS/400, une plateforme Power n’est pas stupide.
Pour des applications de bases de données qui seraient à créer / à développer, ma préférence va évidemment pour des plateformes Unix/Linux avec Postgres sur la base d’une plateforme virtualisée avec des clients web.
Le
25/02/2018 à
21h
54
“Sur les projets de 3 ou 4 millions d’euros que j’ai fréquenté, le coût d’acquisition des licences et infra c’était à peine 200 000 balles grand max”.
Nous n’avons pas dû fréquenter les mêmes projets, car sur de gros projets applicatifs relativement critiques, j’ai connu des montants de licences beaucoup plus importants : licences HACMP (cluster) licences Oracle DB enterprise sur une architecture Power, licences pour l’applicatif, licences flashcopy au niveau des unités de disques pour permettre des sauvegardes performantes et sûres de bases de données qui doivent tourner 24⁄7, logiciel de gestion des sauvegardes, …
Nous étions bien au delà des 200 K€.
Pour faire suite aux autres remarques et réponses : effectivement une migration complète nécessite du temps et de l’argent, mais ne jamais commencer ne permettra pas d’améliorer la situation.
Avec un minimum de compétences et de volonté, il devrait être possible d’élaborer une vision de ce que le paysage informatique hospitalier devrait être dans 3, 5, 7 et 10 ans.
Sur la base de cette vision (qui doit être neutre : c’est-à-dire ne pas être basée sur des marques ou des produits commerciaux), il est possible d’élaborer une roadmap avec des étapes pertinentes (c’est-à-dire sans dépendance bloquante) et d’évaluer les solutions les plus adaptées (par rapport aux exigences et aux contraintes, en particulier réglementaires et de pérennité des données) et les moyens et ressources nécessaires à la mise en œuvre de chaque étape.
J’ai l’impression en écrivant ces lignes d’enfoncer des portes ouvertes, pourtant il ne s’agit que de bon sens et de B-A-BA d’une ingénierie raisonnée.
Au milieu des années 60, il a été possible de concevoir et de construire le premier B747 quasiment sans aide informatique significative.
Outre les missions Apollo et les navettes spatiales, il a été possible de concevoir et de faire voler Concorde dès le milieu des années 70 et Ariane à la fin des années 70.
De même la conception des A320 dans les années 80, la conception de l’A380 lors de la première décennie de ce XXI° siècle, nous prouvent que si l’on veut, on peut !
Cela ne va pas sans mal ; il faut surmonter des difficultés, mais c’est possible.
Alors, rien ne devrait nous empêcher de faire preuve d’un peu d’ambition pour améliorer l’informatique hospitalière et la rendre plus sûre et plus efficace.
Le
24/02/2018 à
13h
52
Entre les obligations d’efficacité et de performances, les exigences du type GDPR, de validation informatique pour les applications ayant un impact sur la santé du patient, la cybersécurité et la pérennisation des investissements, je pense qu’il est grand temps de réinventer le paysage informatique hospitalier de demain.
Cela ne se fera pas en un jour.
Cela demande du temps, de l’énergie, de la volonté et … des compétences.
En tout état de cause, ne rien changer, faire comme on a toujours fait (“c’est bien ce que l’on te reproche Amonbofis”), continuer de souscrire des accords cadre sans se remettre en cause, … sont bien le meilleurs moyen pour manquer les occasions de progresser et de s’améliorer … et également de limiter les coûts.
Je trouve scandaleux que le personnel soignant soit sur-employé (heures supplémentaires, incapacité à prendre des congés) et sous-payé tandis que l’on est incapable de mutualiser des ressources de support pour être plus efficaces.
À l’échelle du pays, il est tout à fait possible de faire beaucoup mieux avec un peu moins.
Mais la condition est de faire de l’innovation et non pas des usines à gaz (cf. Louvois, les pseudo-clouds institutionnels, …).
Je pense que des entreprises comme BlueMind, OVH, … sont plus à même de proposer, dans leur domaine de compétences, des solutions plus efficaces que bien des “grandes SSII” qui font d’abord du copinage, de la sous-évaluation des coûts pour obtenir le marché et de la vente de chair fraîche (consultants juniors souvent peu compétent car inexpérimenté) pour faire du chiffre.
Il faut un changement de paradigme.
Je sais : je suis un grand naïf et un idéaliste.
Le
24/02/2018 à
11h
28
Puisque Wannacry est mentionné : il faudrait justement se poser des questions quant à la monoculture technologique des infrastructures et des plateformes informatiques qui les rendent en fait très vulnérables, surtout si la cybersécurité et la résilience ne sont pas prises en compte dans l’architecture des infrastructures et des systèmes.
Arrêtons de dire n’importe quoi quant aux “applications métiers”. Il n’y a aucune raison valable aujourd’hui de développer des applications métier avec des clients lourds, une approche par client web est beaucoup plus vertueuse car, économe en ressources, elle permet justement de s’affranchir de postes de travail sous Windows; Linux/Ubuntu/ … faisant très bien l’affaire avec Firefox ou Vivaldi.
La messagerie peut être aisément implémentée avec une bonne application de web mail (cf. BlueMind qui est Français) ou au moyen de Thurnderbird.
Toutes les fonctionnalités d’agenda, de carnet d’adresse, etc. peuvent également être réalisées au moyen d’outils web (cf. BlueMind).
Au delà des problèmes de pérennité (lisibilité) des données avec la suite MS-Office, il serait quand même temps de reconnaître que ces outils induisent de très grande perte d’efficacité (de productivité) du fait de leur complexité : aucun utilisateur standard dans un hôpital ou dans une entreprise utilise plus que 1 ou 2 % des fonctionnalités de Word; quant à Excel, la bienséance m’empêche de dire ce que je pense de la folie du tableur qui justifie n’importe quelle décision, surtout si elle est mauvaise, et qui est de toute façon utilisé pour ce qu’Excel n’est pas : un logiciel comptable, de reporting, ou une base de données.
Je n’ai jamais été fan de M$, mais le blocage des mises à jour de Windows 7 sur les processeurs de nouvelle génération est absolument inadmissible et induit des failles de sécurité conséquentes.
Quant à Windows 10, à moins d’avoir une version Enterprise hors de prix, même la version Pro ne permet plus de garder le contrôle des mises-à-jour ni des données.
—
PS: Je ne travaille pas pour BlueMind et je n’ai pas d’action de BlueMind.
La semaine j’ai un site à faire pour une amie je lui propose donc 1500€ au lieu de 600€ ? Elle refusera.
—
Je partage à 100% le point de vue d’aeris22. Les mauvaises pratiques des uns menacent potentiellement l’intégrité des autres, ou à tout le moins, elles perturbent leur bon fonctionnement.
Si tu veux faire des sites pas cher, tu prends Notepad++ et tu écrits du code HTML propre pour un site statique (ce n'est pas un déshonneur, c'est juste efficace et sûr si cela est bien fait).
Si tu dois répéter régulièrement ce genre d'opération, tu t'écris un template que tu customises pour chaque site (ré-utilisabilité du code et optimisation de l'effort).
Si tu souhaites t'améliorer et un peu automatiser la génération du site statique tu élabores un framework XML/XSL, toujours avec Notepad++ ou Brackets.
Il n'y a AUCUNE excuse ni justification valable à ne pas assurer la maintenance d'un site, en particulier en ce qui concerne la sécurité.
Lorsque l'on choisit un CMS on réfléchit et on anticipe pour pouvoir gérer au mieux les évolutions futures, y compris les montées en version et les mises à jour de sécurité.
Le
26/01/2018 à
14h
46
C’est malheureusement la triste réalité.
On n’imaginerait pas un comportement similaire pour installer du gaz ou réaliser une installation électrique.
La plupart des projets web périclitent pour des raisons de coûts de maintenance, la plupart du temps, délibérément ignorés. Il en va de même avec les applications mobiles : les coûts de maintenance sont beaucoup plus élevés que les coûts du développement initial. Ne pas mettre à jour les applications mobiles est impardonnable.
Le problème est que beaucoup d’entreprises (pas seulement des TPE) ont pris trop souvent l’habitude de ne pas regarder la réalité en face quant aux coûts inforrmatiques réels. De toute façon, il y a toujours quelqu’un qui passe et qui dit qu’il peut le faire pour bien moins cher voire pour “trois fois rien”.
Cela fait plus de 30 ans que je suis dans le métier et j’ai toujours connu ce genre de comportement qui, invariablement, finit en catastrophe.
Dans les années 80, c’était des “applications métier” programmées par un stagiaire en GW-Basic. Ensuite ce fût des pseudo-applications basées sur DBase III sans véritable désign et impossible à maintenir. Ensuite (années 90), ce fût les heures de gloire d’Excel promu au rang de “système de gestion de base de donnée” (si si, dans Excel il y a un menu “database”) et depuis le début des années 2000, nous répétons les mêmes erreurs avec les sites web, suivies par les applications mobiles dans les années 2010.
L’histoire de l’informatique est un éternel recommencement fait de médiocrité.
Le
26/01/2018 à
13h
41
Lorsque l’on gère des plateformes informatiques (web ou autres) il faut se donner la peine de gérer les évolutions et d’anticiper les mises-à-jour et les fins de vie des outils.
Effectivement, cela coûte du temps et le temps n’est pas gratuit ! …
La question n’est pas de “violenter” l’installation d’une version de PHP en fin de vie, mais bien de migrer vers la version 7.x qui est la version actuelle.
Se recroqueviller sur des vieilles versions au nom de la “sacro-sainte” compatibilité est le pire qui puisse se faire en termes de cybersécurité.
De plus, une telle attitude est tout sauf professionnelle.
L’obsolescence de PHP 5.x est annoncée depuis longtemps (ce n’est plus un scoop depuis belle lurette), ne pas l’avoir anticipée est une faute.
Le problème n’est pas Stretch, bien au contraire, puisque Debian, Ubuntu & Co. communiquent clairement dans les notes de version sur la baseline logicielle de la nouvelle distribution. C’est également la raison pour laquelle il y a un “tuilage” entre les versions, afin de laisser le temps aux administrateurs système de préparer correctement les changements de version.
@skankhunt42 : je ne sais pas si tu es amateur ou professionnel, mais dans le second cas , ton attitude relève de la faute professionnelle. Désolé de devoir être aussi direct.
Je viens de vérifier : les normes applicables (de manière contraignante) aux dispositifs médicaux ne sont pas en accès libre.
Le
22/08/2017 à
15h
35
Et en plus, il faut s’identifier !!!
Désolé, mais lorsque je consulte la législation européenne, je n’ai aucunement besoin de m’identifier.
L’AFNOR abuse !!!
Le
22/08/2017 à
15h
16
A ma connaissance, les normes relatives aux dispositifs médicaux ne sont pas gratuites bien que contraignantes pour l’industrie ; en plus, il n’y en a pas qu’une !!!
Le
22/08/2017 à
14h
55
Bien vu !!!
—————
Le prix des normes est indécent, surtout pour des PME qui, selon les cas, doivent acheter de nombreuses normes.
Les frais administratifs réels ne sont plus - à l’heure d’Internet - en relation avec les coûts facturés. Le travail d’élaboration des normes n’est pas payé par les organismes de normalisation mais par les entreprises qui mettent leurs collaborateurs à disposition des comités techniques.
Très franchement, sans être particulièrement favorable aux subventions, il ne me semblerait pas indécent que les organismes nationaux et européens de normalisation bénéficient de quelques aides de la part des ministères de chaque pays et de la Commission Européenne en échange de la gratuité des normes au format PDF ; la version papier restant payante.
Cela est possible pour les textes de loi, alors, pourquoi pas pour les normes ?
Certes la CEM de l’avionique s’est beaucoup améliorée depuis 20 ans. Néanmoins, l’électronique et les perturbations qui vont avec peuvent être perverses.
Pour une fois, je suis favorable au principe de précaution qui, au demeurant, n’impacte que le “confort”.
Je vole beaucoup - environ 60 vols par an - et j’ai un casque réducteur de bruit filaire. Je n’ai pas pris la version BT du casque pour deux raisons : incompatible avec le mode avion (car le mode avion implique la coupure de toute émission d’onde: Wifi, BT, GSM, …) et parce que l’autonomie du casque est plus que réduite en BT par rapport à un usage filaire avec réduction de bruit.
Les problèmes de CEM se retrouvent également dans le monde industriel (interdiction de tout équipement non approuvé) et pendant longtemps également dans les hôpitaux.
C’est bien de parler des claviers Canadien et Belge, pour ma part j’apprécie les claviers Suisse (CH-FR ou CH-DE).
Les touches mortes sont supportées - pratiques pour les ô, î, ù, etc. - les accents é, è, à sont en accès direct; via Caps-Lock, les majuscules correspondantes sont également accessibles.
Les ü, ö, ä ainsi que Ü, Ö, Ä sont également facilement accessibles.
$ est en accès direct.
Les chiffres sont en accès DIRECT !!!
J'aimerais trouver un CH-FR / CH-DE oss pour les ligatures et les caractères scandinaves qui (à ma connaissance) manquent ; merci d'avance pour un(des) tuyau(x) à ce sujet.
J'aimerais croire que pour une fois, les français n'auront pas l'arrogance d'ignorer délibérément des standards existant ailleurs en Europe qui ont le mérite d'exister et qui sont très efficaces, y compris pour la programmation.
À bon entendeur ! ...
---
PS: Je suis Français et je travaille avec des claviers CH depuis 35 ans, au début à cause des besoins dans les deux langues (DE, FR) et ensuite parce que les touches mortes sont supportées depuis très longtemps et parce que les chiffres sont en accès direct (pratique sur les portables sont pavé numérique).
---
PPS: Je hais la correction automatique car je travaille en permanence dans plusieurs langues simultanément !!!
C’est bien de râler après Free mais que dire des pratiques de BBox (Bouygues) qui black liste systématiquement tout ce qui vient d’OVH et de 1und1 ?
Depuis Janvier, je ne peux même plus répondre à un message qui vient d’un abonné BBox, cf. :
SMTP error from remote server for RCPT TO command, host: mx.bbox.fr (194.158.98.50) reason: 550 5.7.1 <mout.kundenserver.de
Visiblement je ne suis pas le seul à qui cela arrive et malheureusement certaines entreprises ont une adresse courriel du type [email protected]. Donc impossibilité de communiquer avec eux.
Orange est aussi coutumier du fait ; blocage sporadique (quelques jours) et aléatoire (sans raison particulière).
Pour info: je n’envoie pas de spam, il n’y a aucun lien douteux dans les messages, et si je dois envoyer des courriels à plusieurs personnes (p.ex. invitation à des réunions), j’utilise mailmerge de manière à faire un courriel pour chacun sans bcc ni destinataires multiples.
Je pense que certains sysadmins se complaisent dans une paresse (au minimum intellectuelle) totalement scandaleuse.
Le problème est qu’il faut parfois remplacer les PC après 5 à 7 années de service, et là, la réinstallation de Win7 risque d’être problématique.
Jusqu’à présent, une des solutions était de virtualiser. Si Win7 va regarder la référence du processeur de la plateforme de virtualisation (ce qu’il fait généralement), cela va être encore plus difficile à gérer.
Quant aux fournisseurs, je ne peux que leur reprocher d’être restés accrochés à Windows. Néanmoins, le mainstream (windows, visual basic, .Net, …) ne facilite pas la prise en compte sérieux d’une approche différente.
Les applications scientifiques de contrôle d’équipements analytiques ne sont pas particulièrement triviales et le temps de cycle de développement et de test est de plusieurs années. En outre, ces applications peuvent faire l’objet de qualification d’équipement et de validation informatique dans certains secteurs industriels (p.ex. pharma).
Concernant les applications d’automation, le passage de 32 à 64 bits a été pour certains éditeurs (et non des moindres) déjà très difficile et laborieux.
Le
17/03/2017 à
15h
02
Cette news est la goutte qui fait déborder le vase.
Lecteur régulier des news et des discussions associées, je viens de créer un compte juste à cause de M\(.
---
Micro\)oft a enfumé l’industrie depuis 25 ans, en faisant croire que Windows était “LA plateforme” pour les systèmes industriels - systèmes de contrôle-commande, gestion technique de bâtiment, contrôle d’équipements analytiques, etc.
Dès le début des années 90, j’ai vainement tenté de dissuader les entreprises de faire un tel choix. Mais … le management a toujours raison, en particulier quand c’est “put-a-click”.
Nous avons aujourd’hui des équipements industriels - qui représentent des investissements pour au minimum 15 ans voire plus de 20 ans - qui tournent encore sur XP (parfois même 2000 ou NT4) car les éditeurs de ces solutions achèvent seulement le portage sur Windows 7 (période de développement, tests inclus : environ 4 à 5 ans voire plus) ou bien parce que les éditeurs ne peuvent / ne veulent pas assurer la rétrocompatibilité de leurs logiciels de contrôle avec des équipements d’anciennes générations.
Nous parlons en l’occurrence d’équipements qui coûtent au minimum 300.- K€, pour la plupart plutôt entre 500.- K€ et 1 M€ voire plus pour des installations automatisées.
De qui se moque M$ ?
Déjà que les rolling releases et autres patchs cumulatifs (qui ont la mémoire courte) pourrissent la vie des administrateurs de tels systèmes, si maintenant des verrouillages bidons empêchent la maintenance des équipements, autant tout arrêter et aller élever des chèvres et des moutons dans la montagne.
Les entreprises ne peuvent se permettre de changer des équipements de plusieurs K€ à cause d’une telle mesure. De toute façon, le portage de ces applications vers Windows 10 demandera encore quelques années.
L’argument de la sécurité est irrecevable car tout automaticien raisonnable et professionnel ne mettra jamais de tels équipements dans des réseaux non-protégés.
Puisse cela aider les responsables a enfin prendre GNU/Linux et autres VxWorks en considération.
—
PS: J’ai eu la chance d’être un des premiers utilisateurs européens de VxWorks grâce au choix éclairé de collègues compétents et professionnels (1989-1990)
73 commentaires
Extensions inopérantes : second correctif pour Firefox
08/05/2019
Le 04/05/2019 à 14h 59
M$ a montré l’exemple le 29 Février 2012 en oubliant que c’était une date valide et en causant l’arrêt complet d’Azzur !!! Et ils ont encore plus de moyens financiers que Mozilla.
Pour consoler ceux qui ont découvert le problème au cours de ces dernières heures, j’ai fait une mise à jour complète d’Avast la nuit dernière et j’ai cru ce matin que le problème venait d’Avast. J’ai donc cherché du côté d’Avast sans voir passer tout de suite les infos venant de Mozilla.
Bilan: 7 heures de travail perdues inutilement.
La probabilité qu’un tel problème survienne en même temps que l’on fait un update de l’antivirus est proche de 0 et pourtant ! …
—
Quant aux moteurs de recherche - Google, Qwant, & co - aucun n’a relayé l’information avant 16:30 !!!
Pourquoi en appel, Google échappe encore à un redressement fiscal monstre
26/04/2019
Le 27/04/2019 à 08h 56
Je ne sais pas d’où sortent ces chiffres - 1 milliard, 100 milliards, … pourquoi pas 1’000 milliards - cf. les fameux 360 millions de £ hebdomadaires du Brexit pour le NHS !!!
En revanche, ce qui est sûr, c’est qu’il est beaucoup plus difficile de négocier tout seul qu’à plusieurs. De nombreuses personnes - y compris politiques - idéalisent à tort la position de la Suisse. Les négociations entre la Suisse et l’UE ne sont pas un long fleuve tranquille et coûtent cher à la Suisse sans pour autant lui donner un droit de vote au sein de l’UE. En outre, nous sommes entre européens “civilisés”.
Après l’affaire de la frégate Vendémiaire arraisonnée par la marine chinoise dans le détroit de Taiwan, il y a quelques jours - alors même que la frégate n’était pas en mission militaire et se rendait à une manifestation maritime organisée par la Chine à la quelle la Marine Française avait été invitée - on peut aisément imaginer ce que serait le poids de la France “frexitée” dans des négociations commerciales ou fiscales avec la Chine !!! …
Il faut arrêter de rêver dans le monde des bisounours :
Le 27/04/2019 à 08h 35
Il faut réviser le fonctionnement des institutions Européennes.
UE = Union Européenne, c-à-d. les 27⁄28
> Commission Européenne, aux ordres du conseil des ministres européen (c-à-d. selon les thèmes, les ministres concernés des 27⁄28 pays), sous le contrôle du Parlement Européen (Strasbourg/Bruxelles).
> Cour de justice de l’Union européenne (CJUE), Luxembourg
- La Cour veille à l’application du droit de l’Union et à l’uniformité de son interprétation sur le territoire de l’Union. À cette fin, elle contrôle la légalité des actes des institutions de l’Union européenne et statue sur le respect, par les États membres, des obligations qui découlent des traités. Elle interprète également le droit de l’Union à la demande des juges nationaux.
(cf. Wikipedia
Conseil de l’Europe
> Siège à Strasbourg
> Organisation intergouvernementale instituée le 5 mai 1949 par le traité de Londres, 47 états membres.>Cour Européenne des Droits de l’Homme (CEDH)
- La compétence de la Cour s’étend à toutes les questions concernant l’interprétation et l’application de la Convention et de ses protocoles additionnels
(cf. Wikipedia
Les deux institutions sont indépendantes, même si tous les états membres de l’UE sont membres du Conseil de l’Europe et si les deux institutions coopèrent sur de nombreux sujets.
—
Concernant les questions de fiscalité, c’est au conseil des ministres des finances européen de définir un objectif à la Commission Européenne qui préparera - sous le contrôle du conseil des ministres européen - une proposition de directive ou de règlement qui sera ensuite amendé et approuvé (ou pas) par le Parlement Européen et ensuite - dans le cas d’ene directive - retranscrit dans le droit national de chaque pays membre par les parlements respectifs.
Il faut arrêter de râler contre “Bruxelles” - aka Commission Européenne - lorsque ce sont d’abord les états membres qui font preuve d’un manque de volonté évident.
Actuellement, les pouvoirs du Parlement Européen ne sont pas exceptionnels, mais ils ne sont pas pour autant négligeables. On a trop souvent tendance à parler des décisions mauvaises ou contestables (cf. par exemple l’article 13 concernant la propriété intellectuelle) pourtant de très nombreuses décisions européennes nous simplifient la vie et nous font faire des économies (cf. par exemple la suppression des coûts de roaming intracommunautaire en téléphonie mobile, l’harmonisation des procédures d’évaluation des médicaments, …).
Thunderbird veut redéployer ses ailes dès cette année
03/01/2019
Le 04/01/2019 à 11h 17
La lecture des commentaires me laisse sans voix.
1/ Pour être un utilisateur intensif (actuellement : 21 comptes courriel en parallèle, 25 GB de données, environ 135’000 messages stockés, environ 250 à 350 messages par jour) de la première heure - et quasiment exclusif - de Thunderbird après être initialement passé par Netscape, je ne peux en aucun cas me plaindre de l’outil. J’apprécierai seulement une gestion un peu plus souple de l’agenda, sinon, pour le reste, Thunderbird fait le job très correctement et de manière hautement fiable.
2/ Les solutions “cloud” sont pour moi un tabou non négociable, j’ai donc besoin d’un client courriel local qui sait retrouver les informations que je cherche, qui me permet d’utiliser mes courriels comme une base de connaissance.
2.a/ Alors même que les craintes (justifiées) de fuite de données n’ont jamais été aussi élevées, que le RGPD renforce clairement les obligations de protection des données, je constate qu’une grande majorité des commentaires font l’apologie du cloud !!!
C’est incompréhensible et cela montre l’immense manque de maturité des utilisateurs.
Parfois, il faut savoir être paranoïaque !!!
2.b/ Le cloud ne fiabilise en aucun cas les données ni l’accès à celles-ci. Je suis très souvent en déplacement professionnel : les connexions Internet des hôtels ne sont pas toujours fiables et j’ai encore des clients qui ne disposent pas de réseau “wifi de courtoisie”. J’ai donc besoin de pouvoir accéder à mes courriels “off-line”.
2.c/ La sécurisation des 25 GB de courriel ne coûte que 5 à 10 minutes par sauvegarde (sur NAS : au bureau / maison ; sur disque USB externe : lors de déplacement).
Je vois régulièrement des clients ne pas être en mesure de retrouver ou de trier correctement les messages dans Outlook.
À titre professionnel, j’ai dû également utiliser MS-Mail (1992 - 1996), Lotus Notes (1997 - 2000) et Outlook (chez des clients).
Après ces expériences, je ne peux qu’être satisfait de Thunderbird.
Je souhaite une longue vie à Thunderbird en espérant qu’il reste toujours aussi efficace.
J’espère seulement que ceux qui “jurent par le cloud” (à commencer par Office 365 et GMail) commencent à réaliser l’état avancé de dépendance dans lequel ils se sont mis, y compris la perte du contrôle de leurs données.
D’ailleurs, le 13° rapport des risques du Forum Économique Mondial (WEF) identifie entre autre la cyber-dépendance croissante (rising cyber dependency) comme un des risques économiques et sociétaux majeurs.
Bonne année 2019 !
Câbles Grade 2 TV ou 3 TV, RJ45 et signal à 2,2 GHz : ce qu’il faut savoir du réseau résidentiel
30/10/2018
Le 01/11/2018 à 16h 34
Je reste fasciné (pour ne pas écrire “éberlué”) par la capacité de certaines personnes à être dans le déni de la physique.
Nous avons notre lot de managers qui refusent de prendre en compte les “contraintes” en fait la réalité de la physique.
Maintenant, nous découvrons que des commissions de normalisation sont également dans un tel déni de la physique.
Pour avoir eu de nombreuses heures de cours en traitement du signal, pour avoir également pris certaines libertés calculées de câblage par rapport aux usages, je ne peux que recommander de retourner aux bases des calculs d’impédance et autres rapports signal/bruit.
Je ne comprends absolument pas le besoin d’un seul type de connecteur ; d’autant que les deux types de connecteur existent pour des prix très raisonnables.
En revanche, comme mentionné par d’autres lecteurs, les coûts de “debugging” (recherche de panne) vont exploser, car ce “câblage” dit universel ne peut - en l’état - satisfaire aux réalités de la physique.
Le rapport de TDF - qui date pourtant de plus d’un an - est très clair sur les problèmes électromagnétiques qui résultent de cette “hybridation” contre-nature.
En outre, j’en ai plus qu’assez d’entendre et de lire l’apologie du haut-débit qui serait soit disant disponible pour tous, alors qu’une grande majorité du pays est encore largement sous la barre des 10 Mbit/s voire même < 5 Mbit/s. Dans le même temps, on supprime des fréquences de la TNT au prétexte que l’on peut regarder les programmes TV via ADSL. Je ne parle même pas des changements de configuration des émetteurs qui sont réalisés sans aucune annonce et qui oblige l’intervention d’un installateur (changement de bande de fréquence et/ou de polarisation).
En 2000, nous avons vécu une “évolution industrielle” significative avec l’obligation de conformité électromagnétique (CEM) des équipements. Aujourd’hui, grâce à ces pseudo normes de câblage, nous faisons face à un véritable déni des lois de l’électro-magnétisme.
Au Parlement européen, la commission Libe demande la suspension du Privacy Shield
12/06/2018
Le 14/06/2018 à 12h 52
Pour ceux qui suivent “un peu” l’actualité, le Privacy Shield est virtuellement mort depuis le 25 Janvier 2017:
“Agencies shall, to the extent consistent with applicable law, ensure that their privacy policies exclude persons who are not United States citizens or lawful permanent residents from the protections of the Privacy Act regarding personally identifiable information.”
Executive order, 2017-01-25 - Enhancing Public Safety in the Interior of the United States, Sec. 14
Ce qui m’étonne, c’est le manque de réaction des différents gouvernements Européens, pas seulement de la Commission.
Pour moi, ce manque de réactivité démontre la méconnaissance du sujet de la part des politiques et, par voie de conséquence, d’un cruel manque d’anticipation.
Un député s’élève contre le renouvellement du contrat entre Microsoft et des hôpitaux
23/02/2018
Le 26/02/2018 à 17h 05
Le site pour acheter les déambulateurs ne fonctionne que sous I.E.6.0, vous pouvez nous aider …
Il faut arrêter de délirer ou bien il faut se faire soigner !
Dans le pire des cas - I.E. 6.0. - il y a toujours moyen de virtualiser I.E. 6.0 (virtualisation d’application) sans obligatoirement maintenir un musée du logiciel.
Au niveau de l’imagerie médicale, il existe déjà des équipements qui nativement tournent sous Unix/Linux avec une interface utilisateur basée sur Qt. Si un environnement non Windows est souhaité, je pense que cela soulagerait de nombreux fabricants de dispositifs médicaux et d’éditeurs de logiciel.
Dès que l’on est dans le monde de l’embarqué (embedded system), Windows est une plaie. La stratégie de MS de changer le noyaux de W10 tous les 12 mois est une véritable catastrophe en termes d’effort de mise-à-jour, de revalidation, et de fiabilité.
Si une véritable stratégie est élaborée et déployée concernant le paysage informatique hospitalier, les éditeurs de solutions et les fabricants d’équipement sauront s’adapter.
Il faut “seulement” que la stratégie soit cohérente et que les différents partenaires s’y tiennent.
Le 26/02/2018 à 16h 49
Là tu parles de l’époque où les DSI jetaient l’argent par la fenêtre …
Pas obligatoirement.
Je suis assez d’accord qu’une ferme (server farm) bien virtualisée est plus souple, plus efficace et plus fiable que du HACMP (qui est lourdingue à configurer et à tester).
La haute disponibilité est requise pour les applications critiques ayant un impact sur la santé du patient (nous parlons de centre hospitalier).
Néanmoins, une plateforme de virtualisation bien équipée et correctement configurée est malgré tout relativement coûteuse aussi bien au niveau matériel que des licences logicielles (vSphere n’est pas donné, surtout s’il faut y ajouter des couches de gestion de fail-over de serveurs de bases de données).
En outre, pour des environnements logiciels issus du monde AS/400, une plateforme Power n’est pas stupide.
Pour des applications de bases de données qui seraient à créer / à développer, ma préférence va évidemment pour des plateformes Unix/Linux avec Postgres sur la base d’une plateforme virtualisée avec des clients web.
Le 25/02/2018 à 21h 54
“Sur les projets de 3 ou 4 millions d’euros que j’ai fréquenté, le coût d’acquisition des licences et infra c’était à peine 200 000 balles grand max”.
Nous n’avons pas dû fréquenter les mêmes projets, car sur de gros projets applicatifs relativement critiques, j’ai connu des montants de licences beaucoup plus importants : licences HACMP (cluster) licences Oracle DB enterprise sur une architecture Power, licences pour l’applicatif, licences flashcopy au niveau des unités de disques pour permettre des sauvegardes performantes et sûres de bases de données qui doivent tourner 24⁄7, logiciel de gestion des sauvegardes, …
Nous étions bien au delà des 200 K€.
Pour faire suite aux autres remarques et réponses : effectivement une migration complète nécessite du temps et de l’argent, mais ne jamais commencer ne permettra pas d’améliorer la situation.
Avec un minimum de compétences et de volonté, il devrait être possible d’élaborer une vision de ce que le paysage informatique hospitalier devrait être dans 3, 5, 7 et 10 ans.
Sur la base de cette vision (qui doit être neutre : c’est-à-dire ne pas être basée sur des marques ou des produits commerciaux), il est possible d’élaborer une roadmap avec des étapes pertinentes (c’est-à-dire sans dépendance bloquante) et d’évaluer les solutions les plus adaptées (par rapport aux exigences et aux contraintes, en particulier réglementaires et de pérennité des données) et les moyens et ressources nécessaires à la mise en œuvre de chaque étape.
J’ai l’impression en écrivant ces lignes d’enfoncer des portes ouvertes, pourtant il ne s’agit que de bon sens et de B-A-BA d’une ingénierie raisonnée.
Au milieu des années 60, il a été possible de concevoir et de construire le premier B747 quasiment sans aide informatique significative.
Outre les missions Apollo et les navettes spatiales, il a été possible de concevoir et de faire voler Concorde dès le milieu des années 70 et Ariane à la fin des années 70.
De même la conception des A320 dans les années 80, la conception de l’A380 lors de la première décennie de ce XXI° siècle, nous prouvent que si l’on veut, on peut !
Cela ne va pas sans mal ; il faut surmonter des difficultés, mais c’est possible.
Alors, rien ne devrait nous empêcher de faire preuve d’un peu d’ambition pour améliorer l’informatique hospitalière et la rendre plus sûre et plus efficace.
Le 24/02/2018 à 13h 52
Entre les obligations d’efficacité et de performances, les exigences du type GDPR, de validation informatique pour les applications ayant un impact sur la santé du patient, la cybersécurité et la pérennisation des investissements, je pense qu’il est grand temps de réinventer le paysage informatique hospitalier de demain.
Cela ne se fera pas en un jour.
Cela demande du temps, de l’énergie, de la volonté et … des compétences.
En tout état de cause, ne rien changer, faire comme on a toujours fait (“c’est bien ce que l’on te reproche Amonbofis”), continuer de souscrire des accords cadre sans se remettre en cause, … sont bien le meilleurs moyen pour manquer les occasions de progresser et de s’améliorer … et également de limiter les coûts.
Je trouve scandaleux que le personnel soignant soit sur-employé (heures supplémentaires, incapacité à prendre des congés) et sous-payé tandis que l’on est incapable de mutualiser des ressources de support pour être plus efficaces.
À l’échelle du pays, il est tout à fait possible de faire beaucoup mieux avec un peu moins.
Mais la condition est de faire de l’innovation et non pas des usines à gaz (cf. Louvois, les pseudo-clouds institutionnels, …).
Je pense que des entreprises comme BlueMind, OVH, … sont plus à même de proposer, dans leur domaine de compétences, des solutions plus efficaces que bien des “grandes SSII” qui font d’abord du copinage, de la sous-évaluation des coûts pour obtenir le marché et de la vente de chair fraîche (consultants juniors souvent peu compétent car inexpérimenté) pour faire du chiffre.
Il faut un changement de paradigme.
Je sais : je suis un grand naïf et un idéaliste.
Le 24/02/2018 à 11h 28
Puisque Wannacry est mentionné : il faudrait justement se poser des questions quant à la monoculture technologique des infrastructures et des plateformes informatiques qui les rendent en fait très vulnérables, surtout si la cybersécurité et la résilience ne sont pas prises en compte dans l’architecture des infrastructures et des systèmes.
Arrêtons de dire n’importe quoi quant aux “applications métiers”. Il n’y a aucune raison valable aujourd’hui de développer des applications métier avec des clients lourds, une approche par client web est beaucoup plus vertueuse car, économe en ressources, elle permet justement de s’affranchir de postes de travail sous Windows; Linux/Ubuntu/ … faisant très bien l’affaire avec Firefox ou Vivaldi.
La messagerie peut être aisément implémentée avec une bonne application de web mail (cf. BlueMind qui est Français) ou au moyen de Thurnderbird.
Toutes les fonctionnalités d’agenda, de carnet d’adresse, etc. peuvent également être réalisées au moyen d’outils web (cf. BlueMind).
Au delà des problèmes de pérennité (lisibilité) des données avec la suite MS-Office, il serait quand même temps de reconnaître que ces outils induisent de très grande perte d’efficacité (de productivité) du fait de leur complexité : aucun utilisateur standard dans un hôpital ou dans une entreprise utilise plus que 1 ou 2 % des fonctionnalités de Word; quant à Excel, la bienséance m’empêche de dire ce que je pense de la folie du tableur qui justifie n’importe quelle décision, surtout si elle est mauvaise, et qui est de toute façon utilisé pour ce qu’Excel n’est pas : un logiciel comptable, de reporting, ou une base de données.
Je n’ai jamais été fan de M$, mais le blocage des mises à jour de Windows 7 sur les processeurs de nouvelle génération est absolument inadmissible et induit des failles de sécurité conséquentes.
Quant à Windows 10, à moins d’avoir une version Enterprise hors de prix, même la version Pro ne permet plus de garder le contrôle des mises-à-jour ni des données.
—
PS: Je ne travaille pas pour BlueMind et je n’ai pas d’action de BlueMind.
Cozy Cloud ouvert à tous : on a testé la plateforme de stockage et de reprise en main des données
25/01/2018
Le 26/01/2018 à 14h 58
La semaine j’ai un site à faire pour une amie je lui propose donc 1500€ au lieu de 600€ ? Elle refusera.
—
Je partage à 100% le point de vue d’aeris22. Les mauvaises pratiques des uns menacent potentiellement l’intégrité des autres, ou à tout le moins, elles perturbent leur bon fonctionnement.
Le 26/01/2018 à 14h 46
C’est malheureusement la triste réalité.
On n’imaginerait pas un comportement similaire pour installer du gaz ou réaliser une installation électrique.
La plupart des projets web périclitent pour des raisons de coûts de maintenance, la plupart du temps, délibérément ignorés. Il en va de même avec les applications mobiles : les coûts de maintenance sont beaucoup plus élevés que les coûts du développement initial. Ne pas mettre à jour les applications mobiles est impardonnable.
Le problème est que beaucoup d’entreprises (pas seulement des TPE) ont pris trop souvent l’habitude de ne pas regarder la réalité en face quant aux coûts inforrmatiques réels. De toute façon, il y a toujours quelqu’un qui passe et qui dit qu’il peut le faire pour bien moins cher voire pour “trois fois rien”.
Cela fait plus de 30 ans que je suis dans le métier et j’ai toujours connu ce genre de comportement qui, invariablement, finit en catastrophe.
Dans les années 80, c’était des “applications métier” programmées par un stagiaire en GW-Basic. Ensuite ce fût des pseudo-applications basées sur DBase III sans véritable désign et impossible à maintenir. Ensuite (années 90), ce fût les heures de gloire d’Excel promu au rang de “système de gestion de base de donnée” (si si, dans Excel il y a un menu “database”) et depuis le début des années 2000, nous répétons les mêmes erreurs avec les sites web, suivies par les applications mobiles dans les années 2010.
L’histoire de l’informatique est un éternel recommencement fait de médiocrité.
Le 26/01/2018 à 13h 41
Lorsque l’on gère des plateformes informatiques (web ou autres) il faut se donner la peine de gérer les évolutions et d’anticiper les mises-à-jour et les fins de vie des outils.
Effectivement, cela coûte du temps et le temps n’est pas gratuit ! …
La question n’est pas de “violenter” l’installation d’une version de PHP en fin de vie, mais bien de migrer vers la version 7.x qui est la version actuelle.
Se recroqueviller sur des vieilles versions au nom de la “sacro-sainte” compatibilité est le pire qui puisse se faire en termes de cybersécurité.
De plus, une telle attitude est tout sauf professionnelle.
L’obsolescence de PHP 5.x est annoncée depuis longtemps (ce n’est plus un scoop depuis belle lurette), ne pas l’avoir anticipée est une faute.
Le problème n’est pas Stretch, bien au contraire, puisque Debian, Ubuntu & Co. communiquent clairement dans les notes de version sur la baseline logicielle de la nouvelle distribution. C’est également la raison pour laquelle il y a un “tuilage” entre les versions, afin de laisser le temps aux administrateurs système de préparer correctement les changements de version.
@skankhunt42 : je ne sais pas si tu es amateur ou professionnel, mais dans le second cas , ton attitude relève de la faute professionnelle. Désolé de devoir être aussi direct.
Le Conseil d’État annule des normes obligatoires car payantes sur le site de l’AFNOR
22/08/2017
Le 22/08/2017 à 15h 38
Je viens de vérifier : les normes applicables (de manière contraignante) aux dispositifs médicaux ne sont pas en accès libre.
Le 22/08/2017 à 15h 35
Et en plus, il faut s’identifier !!!
Désolé, mais lorsque je consulte la législation européenne, je n’ai aucunement besoin de m’identifier.
L’AFNOR abuse !!!
Le 22/08/2017 à 15h 16
A ma connaissance, les normes relatives aux dispositifs médicaux ne sont pas gratuites bien que contraignantes pour l’industrie ; en plus, il n’y en a pas qu’une !!!
Le 22/08/2017 à 14h 55
Bien vu !!!
—————
Le prix des normes est indécent, surtout pour des PME qui, selon les cas, doivent acheter de nombreuses normes.
Les frais administratifs réels ne sont plus - à l’heure d’Internet - en relation avec les coûts facturés. Le travail d’élaboration des normes n’est pas payé par les organismes de normalisation mais par les entreprises qui mettent leurs collaborateurs à disposition des comités techniques.
Très franchement, sans être particulièrement favorable aux subventions, il ne me semblerait pas indécent que les organismes nationaux et européens de normalisation bénéficient de quelques aides de la part des ministères de chaque pays et de la Commission Européenne en échange de la gratuité des normes au format PDF ; la version papier restant payante.
Cela est possible pour les textes de loi, alors, pourquoi pas pour les normes ?
Oui, Air France interdit l’utilisation d’un casque Bluetooth en vol… et ça n’a rien de nouveau
07/06/2017
Le 07/06/2017 à 21h 28
Certes la CEM de l’avionique s’est beaucoup améliorée depuis 20 ans. Néanmoins, l’électronique et les perturbations qui vont avec peuvent être perverses.
Pour une fois, je suis favorable au principe de précaution qui, au demeurant, n’impacte que le “confort”.
Je vole beaucoup - environ 60 vols par an - et j’ai un casque réducteur de bruit filaire. Je n’ai pas pris la version BT du casque pour deux raisons : incompatible avec le mode avion (car le mode avion implique la coupure de toute émission d’onde: Wifi, BT, GSM, …) et parce que l’autonomie du casque est plus que réduite en BT par rapport à un usage filaire avec réduction de bruit.
Les problèmes de CEM se retrouvent également dans le monde industriel (interdiction de tout équipement non approuvé) et pendant longtemps également dans les hôpitaux.
AZERTY : l’AFNOR veut votre avis sur le prochain clavier français
07/06/2017
Le 07/06/2017 à 21h 09
C’est bien de parler des claviers Canadien et Belge, pour ma part j’apprécie les claviers Suisse (CH-FR ou CH-DE).
Free ne peut blacklister une société, même accusée de spam envers ses abonnés
21/03/2017
Le 25/03/2017 à 16h 09
C’est bien de râler après Free mais que dire des pratiques de BBox (Bouygues) qui black liste systématiquement tout ce qui vient d’OVH et de 1und1 ?
Depuis Janvier, je ne peux même plus répondre à un message qui vient d’un abonné BBox, cf. :
Visiblement je ne suis pas le seul à qui cela arrive et malheureusement certaines entreprises ont une adresse courriel du type [email protected]. Donc impossibilité de communiquer avec eux.
Orange est aussi coutumier du fait ; blocage sporadique (quelques jours) et aléatoire (sans raison particulière).
Pour info: je n’envoie pas de spam, il n’y a aucun lien douteux dans les messages, et si je dois envoyer des courriels à plusieurs personnes (p.ex. invitation à des réunions), j’utilise mailmerge de manière à faire un courriel pour chacun sans bcc ni destinataires multiples.
Je pense que certains sysadmins se complaisent dans une paresse (au minimum intellectuelle) totalement scandaleuse.
Kaby Lake et Ryzen : les mises à jour de Windows 7 et 8.1 pourraient échouer
17/03/2017
Le 17/03/2017 à 15h 33
Le problème est qu’il faut parfois remplacer les PC après 5 à 7 années de service, et là, la réinstallation de Win7 risque d’être problématique.
Jusqu’à présent, une des solutions était de virtualiser. Si Win7 va regarder la référence du processeur de la plateforme de virtualisation (ce qu’il fait généralement), cela va être encore plus difficile à gérer.
Quant aux fournisseurs, je ne peux que leur reprocher d’être restés accrochés à Windows. Néanmoins, le mainstream (windows, visual basic, .Net, …) ne facilite pas la prise en compte sérieux d’une approche différente.
Les applications scientifiques de contrôle d’équipements analytiques ne sont pas particulièrement triviales et le temps de cycle de développement et de test est de plusieurs années. En outre, ces applications peuvent faire l’objet de qualification d’équipement et de validation informatique dans certains secteurs industriels (p.ex. pharma).
Concernant les applications d’automation, le passage de 32 à 64 bits a été pour certains éditeurs (et non des moindres) déjà très difficile et laborieux.
Le 17/03/2017 à 15h 02
Cette news est la goutte qui fait déborder le vase.
Lecteur régulier des news et des discussions associées, je viens de créer un compte juste à cause de M\(.
---
Micro\)oft a enfumé l’industrie depuis 25 ans, en faisant croire que Windows était “LA plateforme” pour les systèmes industriels - systèmes de contrôle-commande, gestion technique de bâtiment, contrôle d’équipements analytiques, etc.
Dès le début des années 90, j’ai vainement tenté de dissuader les entreprises de faire un tel choix. Mais … le management a toujours raison, en particulier quand c’est “put-a-click”.
Nous avons aujourd’hui des équipements industriels - qui représentent des investissements pour au minimum 15 ans voire plus de 20 ans - qui tournent encore sur XP (parfois même 2000 ou NT4) car les éditeurs de ces solutions achèvent seulement le portage sur Windows 7 (période de développement, tests inclus : environ 4 à 5 ans voire plus) ou bien parce que les éditeurs ne peuvent / ne veulent pas assurer la rétrocompatibilité de leurs logiciels de contrôle avec des équipements d’anciennes générations.
Nous parlons en l’occurrence d’équipements qui coûtent au minimum 300.- K€, pour la plupart plutôt entre 500.- K€ et 1 M€ voire plus pour des installations automatisées.
De qui se moque M$ ?
Déjà que les rolling releases et autres patchs cumulatifs (qui ont la mémoire courte) pourrissent la vie des administrateurs de tels systèmes, si maintenant des verrouillages bidons empêchent la maintenance des équipements, autant tout arrêter et aller élever des chèvres et des moutons dans la montagne.
Les entreprises ne peuvent se permettre de changer des équipements de plusieurs K€ à cause d’une telle mesure. De toute façon, le portage de ces applications vers Windows 10 demandera encore quelques années.
L’argument de la sécurité est irrecevable car tout automaticien raisonnable et professionnel ne mettra jamais de tels équipements dans des réseaux non-protégés.
Puisse cela aider les responsables a enfin prendre GNU/Linux et autres VxWorks en considération.
—
PS: J’ai eu la chance d’être un des premiers utilisateurs européens de VxWorks grâce au choix éclairé de collègues compétents et professionnels (1989-1990)