Aux USA, une IA de lutte contre l’insécurité hallucine des incidents qui n’existent pas
City pas zen
Mes yeux dans le temps de l’apparition d’August Natterer (source : Wikipedia, domaine public)
Une application communautaire permettant à ses utilisateurs de partager des alertes de sécurité a commencé à remplacer ses salariés par une IA et des travailleurs du clic étrangers sous-payés. Faute de supervision humaine, l'IA a logiquement commencé à « halluciner » de nombreuses alertes inexistantes ou erronées.
Le 01 septembre à 10h57
6 min
Sécurité
Next
Citizen, qui compte environ 10 millions d'utilisateurs aux USA, se présente comme une application « où les gens se protègent les uns les autres ». Ces derniers y partagent les incidents, accidents, incendies et autres évènements susceptibles d'affecter les personnes alentour. Les employés de Citizen, de leur côté, écoutent les fréquences radio de la police en permanence afin d'y rajouter leurs propres alertes.
Sauf que récemment, Citizen a commencé à remplacer certains de ses employés par une IA. Certaines de leurs tâches ont par ailleurs été transférées à des travailleurs au Népal et au Kenya payés 1,50 à 2 dollars de l'heure par CloudFactory, un acteur du business process outsourcing (BPO, sous-traitance de diverses tâches dont l'annotation et la modération de contenu).
Citizen a aussi licencié 13 de ses salariés. Une source interne explique à 404 Media que ces derniers, syndiqués, avaient « remis en question la baisse des normes éditoriales liée à l'intégration de l'IA, se détournant de la qualité au profit de la quantité ».
L'IA omet des détails, en rajoute, les interprète mal...
Trois sources internes confient à 404 Media qu'après avoir utilisé l'IA pour aider ses employés à rédiger leurs alertes, Citizen a fini par lui confier la tâche d'écouter les radios policières, transcrire les éventuelles alertes, et les publier sur l'application, sans intervention ni supervision humaine.
Or, l'IA a depuis cumulé les erreurs, et partagé des informations qu'elle n'aurait pas dû. Un « accident de véhicule à moteur » notifié sur une radio policière a par exemple été retranscrit comme « accident de véhicule meurtrier » par l'IA, et envoyé aux utilisateurs de l'application.
D'autres fois, l'IA omettait des informations cruciales, comme de préciser qu'un individu venait de commettre un vol « à main armée ». L'IA se trompait aussi parfois sur les adresses, associant des incidents à des localisations incorrectes.
Il lui est aussi arrivé de partager des détails sordides, données sensibles et numéros de plaques d'immatriculation entendus sur les radios policières, mais qui n'ont pas vocation à être diffusés aux utilisateurs de l'application, conformément aux règles directrices de Citizen.

L'IA a même failli compromettre certaines opérations de maintien de l'ordre en partageant avec les utilisateurs de l'application le fait que des policiers avaient localisé un véhicule volé ou un suspect recherché, ce que des employés humains n'auraient jamais partagé.
L'IA a également « halluciné » une alerte laissant entendre que les agents étaient déjà arrivés sur les lieux d'un incident, alors qu'en réalité le dispatcheur ne faisait que fournir des informations complémentaires pendant qu'ils étaient encore en route.
Il lui est aussi arrivé de dupliquer certaines alertes, faute de comprendre qu'elles faisaient référence à un seul et même incident. L'IA a ainsi interprété les différentes adresses partagées par des policiers au cours d'une course poursuite en autant d'incidents différents, faisant croire aux utilisateurs de l'application que la ville était soudainement victime d'une salve d'attaques à répétition.
Le CEO de Citizen avait lancé une chasse à l'homme... erronée
Les sources de 404 Media déplorent que si cela pouvait « fausser la perception de la criminalité dans une zone donnée », cette démultiplication des incidents, artificiellement générés par IA, ne semblaient pas déranger les cadres supérieurs de Citizen, qui « aimaient le fait de voir plus de points sur la carte et se souciaient moins de savoir s'ils étaient légitimes ».
En 2021, deux des journalistes de 404 Media, qui travaillaient alors à Vice, avaient révélé qu'Andrew Frame, le CEO de Citizen, avait offert aux utilisateurs de l'application une prime de 30 000 $ pour arrêter un pyromane présumé, partageant sur l'application le nom et photographie du suspect présumé :
« Cherchez [le nom de la personne]. Cherchez-le. Les membres de la famille de [nom de la personne]. Il n'est pas venu au monde tout seul, nous avons besoin de votre aide. Nous avons besoin de vous pour nous aider à le contacter et à identifier l'endroit où il se trouve. Nous avons besoin de l'odeur de ses vêtements. Il faut que cet homme quitte la rue pour que nous puissions arrêter de brûler la ville de Los Angeles […] Cette personne est le diable et nous devons l'éliminer de la rue. Nous devons remettre de l'ordre dans notre ville. »
La chasse à l'homme prit fin quelques heures plus tard quand la police arrêta le vrai pyromane, qui n'était pas celui que le CEO de Citizen avait dénoncé. À l'époque, Prince Mapp, le responsable de la communauté de Citizen, avait rétorqué avoir « mobilisé une ville pour qu'une personne soit traduite en Justice ».
Des informations vérifiées provenant de sources officielles
Le mois dernier, souligne 404 Media, le maire de New York, Eric Adams, a partagé sur Instagram une photo faisant de lui un « hug » à Prince Mapp, alors que la ville s'associait à Citizen en créant son propre compte géré par la ville.
« Une grande partie de la construction d'une ville plus sûre consiste à s'assurer que les New-Yorkais disposent des informations dont ils ont besoin pour assurer leur propre sécurité et celle de leurs proches », a déclaré le maire Eric Adams dans un communiqué de presse, qui précise que ce partenariat n'entraînerait « aucun coût » pour les finances de la municipalité :
« L'annonce d'aujourd'hui ajoute une nouvelle couche aux stratégies de communication de la ville en matière de sécurité publique, en aidant à atteindre encore plus de résidents avec des informations opportunes et vérifiées provenant de sources officielles. »
404 Media précise que « Citizen n'a pas répondu à de multiples demandes de commentaires ».
Aux USA, une IA de lutte contre l’insécurité hallucine des incidents qui n’existent pas
-
L'IA omet des détails, en rajoute, les interprète mal...
-
Le CEO de Citizen avait lancé une chasse à l'homme... erronée
-
Des informations vérifiées provenant de sources officielles
Commentaires (13)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 01/09/2025 à 11h04
Le 01/09/2025 à 11h09
Ce genre de pseudo IA ne doit pas être laissé assumer des tâches critiques de façon autonomes, d'ailleurs elles ne doivent pas être autonomes, et doit se cantonner au rôle d'assistant.
Des tas de gens rêvent de faire un pognon de dingue avec un truc qui fonctionne tout seul et remplace de la main d’œuvre, mais au mieux, ça pourra améliorer dans certains cas la productivité et le champ des possibles de tout un chacun, ou s'occuper de taches non critiques où un certain taux d'erreur est acceptable et rentable.
J'ai développé entre kilocode et VScodium un module pour mon site pendant une semaine pour automatiser des fonctionnailités très spécifiques (récupérer des dizaines de caractéristiques produits sur près de 200 produits) qui m'auraient pris autant de temps derrière à écrire à la main, mais j'ai désormais un outil qui me fait gagner un temps de dingue. Pour autant je dois relire derrière et vérifier et j'ai même intégré une fonctionnalité pour ça. (Ce qui est toujours bien plus rapide que si j'avais dû tout faire à la main)
En outre j'ai pu ajouter une fonction d'export/import des caractéristiques de tous les produits.
Il ne me viendrait pour autant pas à l'idée de laisser une "IA" gérer quoi que ce soit seule, de mon entreprise, je reste maître à bord.
Le 01/09/2025 à 19h58
L'idiotie est telle quand période d' "austérité", seuls les experts IA peuvent prétendre à une augmentation (depuis deux ans déjà). On est pas dans la merde en effet ..
Le 01/09/2025 à 11h50
Le 01/09/2025 à 12h24
Par contre peu de doute pour Retheileau...
Modifié le 01/09/2025 à 13h50
Le 01/09/2025 à 14h46
Le 01/09/2025 à 15h58
Modifié le 01/09/2025 à 15h20
C'est pas si mal.
Le 01/09/2025 à 19h07
Le 01/09/2025 à 17h55
Le 01/09/2025 à 18h05
Le 01/09/2025 à 18h42
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?