Connexion
Abonnez-vous

Vidéosurveillance algorithmique : une première expérimentation lors des concerts de Depeche Mode

Vidéosurveillance algorithmique : une première expérimentation lors des concerts de Depeche Mode

Wintics

Le 19 février à 07h10

Le ministère de l’Intérieur a annoncé une première expérimentation de vidéosurveillance algorithmique les 3 et 5 mars prochains, à l'occasion de concerts du groupe Depeche Mode à l'Accor Arena de Bercy, rapporte l'AFP.

Six caméras équipées du logiciel de la société parisienne Wintics seront déployées par la préfecture de police aux abords de la salle de concert.

Une première phase qui ne mènera pas à des interpellations réelles, mais devrait permettre de « tester et paramétrer les solutions logicielles » sur un vrai événement, a insisté Beauvau.

Dans un second temps, des tests du même genre auront lieu « à l’intérieur et autour des gares à l’occasion d’événements précis », en collaboration avec la SNCF et la RATP, a rajouté le ministère, sans plus de précision sur la date.

Il a par contre souligné que tous les dispositifs de vidéosurveillance ne seront pas « boostés par l’IA », précise l'AFP, que celles qui le permettraient « resteraient limitées », et que les caméras à zoom et mouvements ne seraient ainsi pas concernées « à cause de limitations techniques ».

En outre, ces dispositifs ne pourront être employés que pour repérer huit types de comportements ou événements spécifiques et jugés à risque : le non-respect du sens de circulation, le franchissement d’une zone interdite, la présence ou l’utilisation d’une arme, un départ de feu, un mouvement de foule, une personne au sol, une densité trop importante ou un colis abandonné.

Si le ministère s'attend à des contentieux, il se dit « assez serein », évoquant un travail de fond avec le Conseil d’État et la Commission nationale de l’informatique et des libertés (CNIL) lors de la préparation de la loi et des décrets d’application, précise l'AFP.

Le 19 février à 07h10

Commentaires (16)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
Il me semble me rappeler que lors de l'introduction de ces cameras, nos chers députés d'alors avait jurés la main sur le coeur que promis, ces cameras seraient toujours opérés par des vrais gens et pas par des algorithmes à des fin de répression.

Regardons les maintenant promettrent toujours la main sur le coeur que ces algorithmes ne se limiteront qu'aux seuls fait mentionnés sur l'article.

Rdv dans 5 ans et un attentat que ces magnifiques caméras n'auront pas su prévenir...
votre avatar
Tu as une source montrant que ces caméras ne seront gérées qu'automatiquement ? et ne seront pas destinées à alerter un opérateur par rapport à la survenue d'un événement, opérateur qui validera ou pas cet événement.

En gros un outil supplémentaire pour les opérateurs de caméras ?
votre avatar
Je me suis mal fait comprendre. Je voulais dire qu'on nous avait promis de ne pas utiliser d'algorythme de traitement de l'image pour détecter des comportements anormaux (Pas de source, ça remonte à 10 ans au moins) . Maintenant c'est le cas. On nous parle déjà de reconnaissance faciale. Manque plus qu'un petit évenement comme on en à eu ces dernières années pour que cette reconnaissance faciale passe comme une lettre à la poste.

Mon propos est juste de dire qu'on est la grenouille dans la casserole à qui on augmente la température de l'eau petit à petit.
votre avatar
Je pense que les applis servent à détecter les comportements anormaux. La décision finale d'intervenir est humaine.
En cancérologie par exemple, l'IA sert de plus en plus : elle détecte des cancers que l'œil humain peut louper. Après, l'expertise humaine permet de définir le traitement, ça n'est pas automatique, genre : tu passes ton scanner et la machine t'injecte le bon produit au bon endroit et au bon dosage.

PS : ça n'empêche pas que ça pose des tas de questions éthiques : jusqu'où aller ?
votre avatar
Hola, tu cites une promesses qui date d'il y a plus d'un mois. En politique, celle-ci n'est plus valide parce que je cite (la main sur le cœur) "au moment où on l'a dit c'était vrai mais les circonstances ont changées donc voilà on vous a bien baisé".
votre avatar
Mouvement de foule? J'ai hâte de voir comment il gère les pogos à un concert de Prodigy!
votre avatar
A priori si caméra dans une enceinte fermée, cela sera traité comme un mouvement de foule avec un opérateur qui vérifiera qu'il n'y a pas de problème.
votre avatar
Ca va vraiment être "Dépède Moche"!
votre avatar
Vidéosurveillance algorithmique : une première expérimentation lors des concerts de Depeche Mode
You had something to hide. Should have hidden it, shouldn't you ?

C'en était presque prophétique...
votre avatar
, la présence ou l’utilisation d’une arme,
Donc si on remarque une personne avec un lance-roquette ou une mitrailleuse, il ne faudra pas réagir car c'est juste un test pour voir la caméra arrive a détecter la personne c'est ça ? :mad2:
votre avatar
L’ingérence de l'État dans nos vies grossit de jour en jour... jusqu'au point (proche) de non retour.
votre avatar
Par quoi est défini le point de non retour ?
votre avatar
Une première phase qui ne mènera pas à des interpellations réelles
Je rêve ? Si ce dispositif permet de détecter une personne portant une arme, elle ne sera pas interpelée ?
votre avatar
Suffit de dire que c'est un agent qui l'a repéré, sans mentionner la caméra...
votre avatar
Bein non, c'est une expérimentation du dispositif vidéo, l'expérimentation du dispositif d’interpellation c'est pour plus tard.

(ce pays de fou :D)
votre avatar
Peut-être que l'analyse des résultats par des humains ne se fera pas en temps réel mais à posteriori, ce qui pourrait être utile si on ne sait pas encore si il y a beaucoup de faux positifs. (c'est une supputation)

Vidéosurveillance algorithmique : une première expérimentation lors des concerts de Depeche Mode

Fermer