HeartBleed : 200 000 serveurs et appareils toujours vulnérables
Trois ans après le correctif
Le 24 janvier 2017 à 16h00
4 min
Internet
Internet
La faille HeartBleed, qui touchait la bibliothèque OpenSSL, n’a pas fini de faire parler d’elle. À l’heure actuelle, presque 200 000 serveurs et appareils seraient encore vulnérables, alors même que les correctifs ont été déployés il y aura bientôt trois ans.
En avril 2014, le monde de la sécurité était en effervescence. L’extension Heartbeats, dans la bibliothèque OpenSSL, était victime d’une brèche critique. Elle existait depuis décembre 2011, ce qui laissait de nombreuses versions vulnérables. Cette bibliothèque étant utilisée par une bonne part des distributions Linux, des systèmes Unix et par OS X, la situation était sérieuse, au point que des sites avaient momentanément fermé. Exploitée, la faille permettait de révéler une partie des informations circulant sur une connexion chiffrée.
Toujours 200 000 installations vulnérables
La révélation de la faille s’était faite en même temps que la diffusion d’une nouvelle version d’OpenSSL. Estampillée 1.0.1 g, elle avait été reprise immédiatement et placée dans les mécanismes de mise à jour de tous les produits concernés. Pourtant, presque trois ans plus tard, il reste de nombreux serveurs encore vulnérables, même si l’ensemble s’est considérablement amenuisé.
Ainsi, selon les chiffres fournis par le moteur de recherche Shodan (qui permet de scanner les ports réseau en masse sur Internet), presque 200 000 serveurs et appareils seraient ainsi encore touchés par HeartBleed. Pourquoi ? Tout simplement parce que les administrateurs concernés n’ont pas mis à jour la bibliothèque OpenSSL, quelle que soit l’implémentation dans le système utilisé. Notez que le nombre d'installations touchées en 2014 était estimé à 600 000.
Mais il est étonnant que seulement deux tiers des serveurs soient sortis de l’équation en presque trois ans. Critique et largement médiatisée, la faille aurait en effet dû recevoir une attention immédiate. Pourtant, le problème est similaire à celui de l’attaque contre les bases de données MongoDB : des instances créées chez des prestataires comme Amazon Web Services et laissées en l’état pendant des années.
Un grand nombre d'installations situées aux États-Unis
Comme indiqué dans le rapport de Shodan, près de 52 000 serveurs Apache HTTPD restent exposés à Heartbleed. Les instances ont été créées avec des versions vulnérables, dans la grande majorité les 2.2.22 et 2.2.15. Une bonne majorité des connexions supportent TLS 1.2. Pour John Matherly, fondateur de Shodan, cela traduit un chiffrement correct, mais de vieilles dépendances. Pour information, TLS 1.3 existe bien, mais encore sous forme de brouillon.
Les serveurs vulnérables sont également nombreux à être situés aux États-Unis. Là encore, ce n’est pas étonnant : de nombreux prestataires de services y sont situés, notamment Amazon et Verizon. Près d’un quart des soucis détectés concernent ainsi des serveurs américains. On en compte également plus de 15 000 en Corée du Sud, environ 14 000 en Chine et en Allemagne, ou encore 8 700 environ en France.
Sur l’ensemble des installations vulnérables détectées, les trois quarts concernent avant tout les connexions HTTPS, qui ne sont, pour rappel, pas spécifiques à des sites web. Viennent ensuite HTTPS sur le port 8443 et webmin, mais loin derrière. Idem, une immense majorité des connexions vulnérables se négocient en HTTP/1.1, suivies par plusieurs versions du protocole SPDY. Dans la plupart des cas, les systèmes vulnérables sont des distributions Linux équipées d’une mouture 3.x du noyau.
Le tiers des irréductibles
Sur les 600 000 serveurs concernés lors des premières révélations autour de HeartBleed, environ deux tiers ont donc été corrigés. Ce dernier tiers pose problème, car le simple fait que ces instances n’aient pas encore reçu de correctif souligne l’inquiétude de leur relatif « abandon » : si personne n’a géré la situation depuis presque trois ans, y a-t-il des chances qu’elle le soit à l’avenir ?
Ces 200 000 installations, quelles qu’elles soient, pourraient rester vulnérables pendant encore un bon moment, laissant les services liés exposés à des risques de fuites d’informations.
HeartBleed : 200 000 serveurs et appareils toujours vulnérables
-
Toujours 200 000 installations vulnérables
-
Un grand nombre d'installations situées aux États-Unis
-
Le tiers des irréductibles
Commentaires (18)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 25/01/2017 à 16h06
Le 25/01/2017 à 19h47
Le 25/01/2017 à 20h01
C’est une raison, mais elle est pas bonne dans le sens où quand on va à l’économie, bah faut pas s’attendre à des miracles :)
Le 24/01/2017 à 16h08
Faut voir ou sont les serveurs vulnérables, si c’est dans une boite ou il n’y a qu’un gars pour le gérer et qu’il doit faire du support interne en plus et le café, ça ne risque pas d’être patché.
Le 24/01/2017 à 16h12
Le 24/01/2017 à 16h43
Vincent l’évoque pour MongoDB, mais des équipes de hackeurs sont en train de nettoyer les bases de données exposées sur Internet dont des comptes admin sont sans mot de passe, ou avec mot de passe non modifié.
On a donc MongoDB, mais depuis quelques jours CouchDB, Elasticsearch, Hadoop, et des suspicions sur d’autres BdD à priori.
les hackeurs demandent en général une rançon, mais les chercheurs en Sécu semblent penser que les datas n’ont pas été exfiltrés avant suppression : du pire vandalisme donc.
Le truc, c’est qu’il y a quand même des IT pour utiliser une BdD, sans changer les mots de passe des comptes builtin, et sans lire la doc qui fait que la configuration de leur base les rend accessibles depuis Internet. En 2017. Et on parle de milliers, voire de dizaines de milliers d’instances…
Sur le fond, c’en est presque marrant à lire :
Twitter Twitter https://nakedsecurity.sophos.com/2017/01/11/thousands-of-mongodb-databases-compr…
http://www.informationsecuritybuzz.com/expert-comments/mongodb-ransom-attack-jus…
Le 24/01/2017 à 17h47
Etonnant d’ailleurs qu’il n’y ait pas de ‘white hats’ qui te changent le mot de passe et t’informent du changement :-p
Le 24/01/2017 à 18h04
Le coup des système configurer par défaut sans mot de passe c’est quand même fort les admin ne peuvent s’en prendre qu’a eux même, encore une fois, RTFM!
J’imagine même pas le matériel qui utilise les biblios de openssl et qui ne sont pas mis a jour par le constructeur.
Remarque ce serait pas la première fois.
Pendant que j’y suis
Le 24/01/2017 à 19h47
Le 24/01/2017 à 20h15
J’en ai fais les frais avec ElasticSearch sur ma DB de log pour mes tests. Rien de bien grave que c’est juste des logs NGINX de test mais c’est d’un chiant. En plus mine de rien installer un firewall devant Docker c’est hyper pénible à faire, j’en ai eu pour 20 commandes iptables pour avoir quelque chose de fonctionnel :(
Tout ca pour éviter qu’un petit rigolo me supprime mes données de test :(
Le 24/01/2017 à 20h46
Le 24/01/2017 à 22h22
Le 24/01/2017 à 23h16
Le 25/01/2017 à 00h33
Cela ne m’étonne guère…
Il y a une pléthore de commerciaux qui achètent des service web de la même manière qu’un produit dans un carton.
Souvent, ils pensent que tant que ça marche, c’est qu’il n’y a pas de problème. " />
Le 25/01/2017 à 07h24
Le 25/01/2017 à 08h17
Concernant ce chiffre, il faudrait voir la méthodologie utilisée pour déterminer si un serveur est vulnérable ou non… Selon que c’est basé sur un exploit où juste la version d’openssl détectée, ces résultats peuvent aller de très crédibles à pas trop crédible…
Le 25/01/2017 à 08h42
Le 25/01/2017 à 09h59