[MàJ] La panne AWS est terminée
Le 21 octobre à 08h10
3 min
Internet
Internet
Mise à jour du 21 octobre à 8H10 : Dans un message publié à 00h53 (heure française) cette nuit, AWS a informé que sa panne était résolue. La société explique que tout est parti de problèmes de résolution DNS pour les points de terminaison DynamoDB dans la région US-EAST-1. À cause de certaines dépendances à cette région (Virginie du Nord), d’autres ont été touchées.
Après quoi, le sous-système EC2 a lâché, entrainant une cascade de problèmes dans les instances liées. La panne s’est ensuite étendue au Network Load Balancer (équilibrage de charge), entrainant « des problèmes de connectivité réseau dans plusieurs services tels que Lambda, DynamoDB et CloudWatch ».
Tout est rentré dans l’ordre, même si un arriéré de messages était encore constaté dans des services comme AWS Config, Redshift et Connect au moment de la dernière mise à jour.
Mise à jour de 15h30 : AWS dit avoir trouvé la cause de la panne et les réparations seraient bien avancées. Certains services, notamment Signal, fonctionnent de nouveau.
Article original de 10h54 :
La région Virginie du Nord rencontre actuellement de gros problèmes chez Amazon Web Services. Sur le site dédié, on peut lire effectivement :
« Nous pouvons confirmer des taux d’erreur significatifs pour les demandes adressées au point de terminaison DynamoDB dans la région US-EAST-1. Ce problème affecte également d’autres services AWS dans la région US-EAST-1. Pendant ce temps, les clients peuvent ne pas être en mesure de créer ou de mettre à jour des demandes d’assistance. Les ingénieurs ont été immédiatement mobilisés et travaillent activement à atténuer le problème et à en comprendre pleinement la cause profonde »

Comme on s’en doute, cette panne chez AWS entraine de multiples défaillances, tant les entreprises et autres organisations recourent massivement aux services cloud d’Amazon. C’est le cas par exemple chez Signal, dont le service est inaccessible pour de nombreux utilisateurs. Meredith Whittaker a confirmé le problème sur Bluesky et sur Mastodon.
Confirmation également pour Perplexity, dont les services IA ne sont plus disponibles. Selon les régions, Alexa, Asana, Snapchat, Fortnite, Epic Games Store et même ChatGPT sont également en panne.
Un problème est également signalé chez Cloudflare, sans que l’on sache pour le moment si les deux situations sont liées. Sur son site, l’entreprise indique que le problème a été identifié et qu’un correctif est en préparation, là où Amazon précise dans son bulletin que ses équipes cherchent la cause profonde.
Le 21 octobre à 08h10
Commentaires (42)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 20/10/2025 à 11h00
Le 20/10/2025 à 11h55
Le 20/10/2025 à 11h59
Le 21/10/2025 à 12h56
Le 20/10/2025 à 11h01
et sur Mastodon ! https://mastodon.world/@Mer__edith/115405436746725236
Le 20/10/2025 à 11h03
Le 20/10/2025 à 11h03
Modifié le 20/10/2025 à 11h13
https://hub.docker.com
Et erreur 500 quand ont arrive https://identity.getpostman.com/accounts
Le 20/10/2025 à 11h16
https://www.dockerstatus.com/
Le 20/10/2025 à 11h18
Le 20/10/2025 à 11h16
Le 20/10/2025 à 11h18
Le 21/10/2025 à 11h22
https://hurl.dev/
Le 21/10/2025 à 12h44
Modifié le 23/10/2025 à 15h31
Je dois plutôt bien faire mes choses. (o:
Une opportunité d'apprentissage pour l'avenir : auto-héberger au maximum ses ressources.
Pour les conteneurs : un registre interne.
Accessoirement, il n'est jamais une bonne idée de dépendre d'images Docker Hub, car cela crée une surface d'attaque via canal tiers.
Mon conseil serait de ne plus en dépendre que pour une (poignée d') image(s) de base si vous n'êtes pas capables d'en générer une de zéro, qui reste l'idéal.
Il est tout à fait possible d'immédiatement amorcer la transition en commençant à préparer un tel registre, puis en l'alimentant au fur et à mesure des mises à jour requises avec des images maison.
Processus simplissime à suivre pour toutes les ressources auto-hébergeables. Et ignorer les trolls FUD traduisant cela en "tout, tout de suite".
Le 20/10/2025 à 11h12
Les produits Atlassian sont aussi impacté
De même que Dust (IA)
Cela a l'air plus étendu que seulement Amazon.
Le 20/10/2025 à 11h15
Le 20/10/2025 à 11h13
Le 20/10/2025 à 11h14
Le 20/10/2025 à 11h19
Dans ma boîte, le point faible c'était les routeurs internet réseau interne. Celui qui devait prendre le relais n'a pas démarré, et le back-up du second était mal configuré et n'a jamais pu prendre la suite. 1h de coupure, 2 jours de bordel.
Le 20/10/2025 à 11h21
Le 23/10/2025 à 21h01
Le 20/10/2025 à 11h22
Modifié le 20/10/2025 à 11h23
Le 20/10/2025 à 11h22
Apparemment c'est DNS, comme d'hab.
Modifié le 20/10/2025 à 11h28
Édifiant même si je sais que AWS a ses "salles pattes" partout
Le 20/10/2025 à 11h37
Le 20/10/2025 à 11h50
Le 20/10/2025 à 11h52
Après, il y a des effets de bords et des confusions entres les services certainement.
Ouiiinnn mon service chez OVH marche plus (mais en fait le dit service fait appel à AWS)
Le 20/10/2025 à 11h37
Le 20/10/2025 à 15h32
Le 20/10/2025 à 12h19
Plus sérieusement, répartir son infra dans plusieurs AZ d'une même région permet de se prémunir d'un incident de type incendie, panne électrique, coup de pelleteuse, etc... localisé sur un datacenter (bon, sauf quand GCP met 2 AZ dans le même DC...). Mais ne prémunie pas d'incident "logique" sur un déploiement foireux ou problème de routage à l'intérieur d'une région, ou de service managé DynamoDB comme ici par exemple.
L’ambiguïté est sur le mot Availability Zone, mais aussi qu'AWS ne facture par le traffic intra région, permet de facilement créer des règles de firewall entre AZ d'une même région, etc... favorisant donc le design d'infra dans une seule région. Là où un design multi-région nécessite de bien lire la documentation (ce que très peu de personne font de nos jours) et bien plus de travail pour la gestion de l'infrastructure (routage, firewall, interco des VPC, etc...), mais aussi coûte plus cher à cause du traffic inter région. Sans compter que certain services managé sont lié à une région, donc impossible de garantir une disponibilité optimal dessus.
L'idéal étant de répartir son infra dans 3 cloud provider différents, AWS+GCP+Azure, mais avec de ingénierie supplémentaire puisque ca empêche, par exemple, d'utiliser toute les briques logicielles tout-en-un fourni par chaque cloud provider.
Bref, y a pas de secret, et contrairement à ce que ces cloud provider veulent nous faire croire, une infra cloud résiliente coûte très cher, en facture cloud et en ingénierie.
Le 20/10/2025 à 12h29
Le 20/10/2025 à 14h20
Modifié le 20/10/2025 à 18h34
Je ne savais pas que Signal était hébergé sur AWS
Le 20/10/2025 à 18h39
Le 20/10/2025 à 20h12
Le 21/10/2025 à 08h42
Le 21/10/2025 à 09h04
Le 22/10/2025 à 11h49
Le 22/10/2025 à 23h59
Le 23/10/2025 à 10h20
Mais bon, le mois prochain ils refont la même connerie, c'est le propre du genre...