Cityvision, le système de vidéosurveillance algorithmique de WinticsWintics

Vidéosurveillance algorithmique : une première expérimentation lors des concerts de Depeche Mode

Cityvision, le système de vidéosurveillance algorithmique de WinticsWintics

Le ministère de l’Intérieur a annoncé une première expérimentation de vidéosurveillance algorithmique les 3 et 5 mars prochains, à l'occasion de concerts du groupe Depeche Mode à l'Accor Arena de Bercy, rapporte l'AFP.

Six caméras équipées du logiciel de la société parisienne Wintics seront déployées par la préfecture de police aux abords de la salle de concert.

Une première phase qui ne mènera pas à des interpellations réelles, mais devrait permettre de « tester et paramétrer les solutions logicielles » sur un vrai événement, a insisté Beauvau.

Dans un second temps, des tests du même genre auront lieu « à l’intérieur et autour des gares à l’occasion d’événements précis », en collaboration avec la SNCF et la RATP, a rajouté le ministère, sans plus de précision sur la date.

Il a par contre souligné que tous les dispositifs de vidéosurveillance ne seront pas « boostés par l’IA », précise l'AFP, que celles qui le permettraient « resteraient limitées », et que les caméras à zoom et mouvements ne seraient ainsi pas concernées « à cause de limitations techniques ».

En outre, ces dispositifs ne pourront être employés que pour repérer huit types de comportements ou événements spécifiques et jugés à risque : le non-respect du sens de circulation, le franchissement d’une zone interdite, la présence ou l’utilisation d’une arme, un départ de feu, un mouvement de foule, une personne au sol, une densité trop importante ou un colis abandonné.

Si le ministère s'attend à des contentieux, il se dit « assez serein », évoquant un travail de fond avec le Conseil d’État et la Commission nationale de l’informatique et des libertés (CNIL) lors de la préparation de la loi et des décrets d’application, précise l'AFP.

Commentaires (16)


Il me semble me rappeler que lors de l'introduction de ces cameras, nos chers députés d'alors avait jurés la main sur le coeur que promis, ces cameras seraient toujours opérés par des vrais gens et pas par des algorithmes à des fin de répression.

Regardons les maintenant promettrent toujours la main sur le coeur que ces algorithmes ne se limiteront qu'aux seuls fait mentionnés sur l'article.

Rdv dans 5 ans et un attentat que ces magnifiques caméras n'auront pas su prévenir...
Tu as une source montrant que ces caméras ne seront gérées qu'automatiquement ? et ne seront pas destinées à alerter un opérateur par rapport à la survenue d'un événement, opérateur qui validera ou pas cet événement.

En gros un outil supplémentaire pour les opérateurs de caméras ?

carbier

Tu as une source montrant que ces caméras ne seront gérées qu'automatiquement ? et ne seront pas destinées à alerter un opérateur par rapport à la survenue d'un événement, opérateur qui validera ou pas cet événement.

En gros un outil supplémentaire pour les opérateurs de caméras ?
Je me suis mal fait comprendre. Je voulais dire qu'on nous avait promis de ne pas utiliser d'algorythme de traitement de l'image pour détecter des comportements anormaux (Pas de source, ça remonte à 10 ans au moins) . Maintenant c'est le cas. On nous parle déjà de reconnaissance faciale. Manque plus qu'un petit évenement comme on en à eu ces dernières années pour que cette reconnaissance faciale passe comme une lettre à la poste.

Mon propos est juste de dire qu'on est la grenouille dans la casserole à qui on augmente la température de l'eau petit à petit.
Je pense que les applis servent à détecter les comportements anormaux. La décision finale d'intervenir est humaine.
En cancérologie par exemple, l'IA sert de plus en plus : elle détecte des cancers que l'œil humain peut louper. Après, l'expertise humaine permet de définir le traitement, ça n'est pas automatique, genre : tu passes ton scanner et la machine t'injecte le bon produit au bon endroit et au bon dosage.

PS : ça n'empêche pas que ça pose des tas de questions éthiques : jusqu'où aller ?
Hola, tu cites une promesses qui date d'il y a plus d'un mois. En politique, celle-ci n'est plus valide parce que je cite (la main sur le cœur) "au moment où on l'a dit c'était vrai mais les circonstances ont changées donc voilà on vous a bien baisé".
Mouvement de foule? J'ai hâte de voir comment il gère les pogos à un concert de Prodigy!
A priori si caméra dans une enceinte fermée, cela sera traité comme un mouvement de foule avec un opérateur qui vérifiera qu'il n'y a pas de problème.
Ca va vraiment être "Dépède Moche"!
Vidéosurveillance algorithmique : une première expérimentation lors des concerts de Depeche Mode


You had something to hide. Should have hidden it, shouldn't you ?

C'en était presque prophétique...
, la présence ou l’utilisation d’une arme,


Donc si on remarque une personne avec un lance-roquette ou une mitrailleuse, il ne faudra pas réagir car c'est juste un test pour voir la caméra arrive a détecter la personne c'est ça ? :mad2:
L’ingérence de l'État dans nos vies grossit de jour en jour... jusqu'au point (proche) de non retour.
Modifié le 19/02/2024 à 10h52

Historique des modifications :

Posté le 19/02/2024 à 10h52


L’ingérence de l'État dans nos vies grossit de jour en jour... jusqu'au point de non retour.

Par quoi est défini le point de non retour ?
Une première phase qui ne mènera pas à des interpellations réelles


Je rêve ? Si ce dispositif permet de détecter une personne portant une arme, elle ne sera pas interpelée ?
Suffit de dire que c'est un agent qui l'a repéré, sans mentionner la caméra...
Bein non, c'est une expérimentation du dispositif vidéo, l'expérimentation du dispositif d’interpellation c'est pour plus tard.

(ce pays de fou :D)
Peut-être que l'analyse des résultats par des humains ne se fera pas en temps réel mais à posteriori, ce qui pourrait être utile si on ne sait pas encore si il y a beaucoup de faux positifs. (c'est une supputation)
Fermer