Connexion Premium

Pannes chez AWS dues à son agent IA : Amazon se défausse sur ses employés

La faute à celui qui est entre la chaise et le clavier, encore ?

Pannes chez AWS dues à son agent IA : Amazon se défausse sur ses employés

Plusieurs pannes chez AWS sont liées à l’utilisation en interne de ses propres agents IA par ses ingénieurs. L’entreprise qui a lancé son agent Kiro en assurant qu’il allait « au-delà du vibe coding » rejette la faute sur ses employés qui auraient laissé faire son IA.

Le 20 février à 12h23

Au moins deux pannes internes à Amazon Web Services récentes sont liées à l’utilisation de ses outils d’IA générative comme Kiro, utilisés par ses employés pour gérer ses infrastructures.

L’entreprise avait présenté son agent IA Kiro en juillet 2025 en le proposant d’abord via inscription sur liste d’attente avant de le lancer pleinement fin décembre lors de sa conférence annuelle re:Invent.

AWS présentait Kiro comme un « environnement de développement IA qui vous aide à passer du concept à la production grâce à une expérience de développement simplifiée pour travailler avec des agents IA. Kiro excelle dans le « vibe coding », mais va bien au-delà : la force de Kiro réside dans sa capacité à intégrer ces prototypes dans des systèmes de production grâce à des fonctionnalités telles que les spécifications et les hooks ».

Suppression et recréation de l’environnement sur un système en production

Mais, comme l’explique le Financial Times, l’utilisation de ces outils provoque, même en interne, des doutes sur la qualité qui en résulte. Ainsi, des employés d’AWS ont expliqué au journal économique britannique que deux pannes ont eu lieu sur les systèmes de l’entreprise alors que des ingénieurs les ont utilisés pour les gérer.

« Nous avons déjà constaté au moins deux interruptions de production [au cours des derniers mois] », explique une des sources de nos confrères. « Les ingénieurs ont laissé l’ [agent] IA résoudre un problème sans intervenir. Les interruptions étaient mineures, mais tout à fait prévisibles. »

L’une d’entre elles concerne un service utilisé par les clients ayant subi une interruption de 13 h à la mi-décembre. AWS a fait circuler en interne un postmortem de l’incident. L’outil d’Amazon Kiro aurait été utilisé par un ingénieur de l’entreprise. Et il aurait déterminé que la meilleure solution consistait à « supprimer et recréer l’environnement » du système.

Concernant l’autre panne, c’était l’outil Amazon Q Developer qui était impliqué, selon les sources du Financial Times, sans plus de détails.

Une erreur de l’utilisateur, et non une erreur de l’IA, selon AWS

Amazon a affirmé qu’il s’agissait « d’une coïncidence que des outils d’IA aient été impliqués [et que] le même problème pourrait se produire avec n’importe quel outil de développement ou action manuelle ».

L’entreprise a ajouté que « dans les deux cas, il s’agissait d’une erreur de l’utilisateur, et non d’une erreur de l’IA ». Elle assure que l’incident de décembre était un « événement extrêmement limité » qui n’a touché qu’un service dans certaines régions de Chine, et que l’autre n’a eu aucune conséquence sur les services AWS orientés client.

Amazon continue en parallèle de promouvoir l’utilisation de ses outils d’IA générative en interne qui sont en retard par rapport à certains outils de ses concurrents. L’entreprise interdit même l’utilisation de Claude Code à ses employés au profit de Kiro, ce qui a attiré des critiques en interne.

Dans un fil de discussion sur l’outil de chat de l’entreprise, environ 1 500 employés d’Amazon ont poussé à l’adoption officielle de Claude Code en interne, expliquait la semaine dernière Business Insider. Cette situation est d’autant plus étrange qu’Amazon propose à ses clients un accès à Claude Code via sa plateforme Bedrock.

Commentaires (23)

votre avatar
Faire confiance à des outils d'IA générative pour prendre des décisions est effectivement une erreur.
votre avatar
C'est le genre de choses qui peut se produire quand tu remplaces des gens par des IA.
votre avatar
C'est bien ce que je dis : c'est une erreur.
votre avatar
+42
votre avatar
Surtout qu'aujourd'hui en répétant un prompt, t'as une version différente à chaque fois ou presque, même avec une question basique.
votre avatar
Ce qui est normal, puisque le fonctionnement de l'IA générative repose sur une part d'aléatoire configurable. Comme les chat bots sont généralement configurés pour être "inventifs", les réponses varient.

Avec les params mieux ajustés, le chat bot peut être plus déterministe.
votre avatar
ce qui dans certaines conditions, comme la présente, est tout, sauf ce qu'on lui demande :top:
votre avatar
D'où le fait que c'est bien une erreur de recourir à des outils inadaptés ou mal configurés.
votre avatar
J’ai découvert que très récemment (je dois être trop naïf) que des gens utilisent les chatbots pour générer leurs mots de passe… et lesdits mots de passe sont régulièrement les même et déjà dans des listes de mots de passe.

Vers où on va ? 🙁
votre avatar
Dans la même direction qu'aujourd'hui avec les mots de passe sur post-it collés à l'écran ou sous le clavier dont la méthode est entreprise!MMYY ?
votre avatar
Tout comme les Êtres-Humains.
Même pour une personne unique, personne ne rédigera exactement la même chose face à la même question, tout au long de sa vie, ou d'un moment sur l'autre, à moins d'avoir une mémoire folle et de bosser sur du par-coeur.
Et d'un humain sur l'autre, là...

Et pour le code, c'est probablement pire.
votre avatar
1+1=2 sauf à être jCVD tu vas toujours dire que ça fait 2 que t'es 10 ans ou 60 :smack:
votre avatar
sauf les informaticiens. 1+1 = 10 :D

Marche aussi avec l'algèbre de bool : 1+1 = 1
votre avatar
De toutes façons, on ne peut pas faire confiance à Amazon pour dire honnêtement si l'I.A. est en cause ou non car il y a une posture idéologique et commerciale. Il est plus facile de virer un employé qu'une stratégie dans laquelle on investi même dans des productions de propagande comme le film "Mercy" récemment sorti.
votre avatar
🍿
votre avatar
Tout à fait d'accord avec Amazon : c'est une erreur humaine. L'IA n'est pas en faute. C'est le dirigeant humain qui a autorisé l'usage de l'IA de cette manière qui est en faute.
votre avatar
Mais bizarement c'est pas ce dirigeant humain qui va se faire virer :/
votre avatar
Ca résume quand même très bien la posture qu'ils auront quand une voiture pilotée seule par IA se plantera. Les voitures qui n'ont pas d'accident, c'est grâce à l'IA, les autres c'est à cause de l'utilisateur.
votre avatar
C'est déjà le cas pour Musk
votre avatar
Ah... la version 2026 du "c'est la faute du stagiaire"...
votre avatar
Ils n'avaient plus de stagiaire en stock pour devoir accuser un p'tit n'employé qui faisait faire son boulot par l'IA comme stipulé dans sa lettre de remerciement/débarquement ?
votre avatar
votre avatar
Ce n'est pas de la faute de l'IA (qui n'a pas demandé à être là) ni de la faute des employés (qui ont vu leurs collègues être remplacés par des IA et n'ont plus d'autre choix que de s'appuyer sur elle) mais de la faute des décideurs qui ont choisi de remplacer des humains ayant une véritable expérience par une IA qui n'a aucun recule sur ce qu'elle fait, tout ça pour réduire les coûts RH.

Pannes chez AWS dues à son agent IA : Amazon se défausse sur ses employés

  • Suppression et recréation de l'environnement sur un système en production

  • Une erreur de l'utilisateur, et non une erreur de l'IA, selon AWS