Vidéosurveillance algorithmique : les JO 2024 serviront aussi de « vitrine industrielle »
Le 31 janvier 2023 à 05h53
2 min
Sciences et espace
Sciences
« À l’approche des JO, l’industrie de la vidéosurveillance dans les starting-blocks », titre l'AFP : « les industriels alertent sur le temps désormais limité pour adopter ces technologies ».
Alors que le projet de loi sur les Jeux olympiques, qui veut autoriser l'expérimentation de la vidéosurveillance algorithmique, sera discuté au Sénat en séance publique ce 31 janvier, les entreprises ont en effet l’impression d’avoir perdu du temps, « en raison notamment de la crise sanitaire et d’atermoiements au niveau politique ».
- Les Jeux olympiques, bêta-test de la surveillance algorithmique
- Les JO 2024 constitueront « un tournant » pour la surveillance algorithmique de l'espace public
« Si on attend trop, on va acheter sur étagère des produits américains, chinois, israéliens ou japonais », met en garde un industriel, qui rêve d’une « vitrine industrielle » pour le secteur français de la sécurité, « mais aussi d’un test grandeur nature pour préparer le marché qui va s’ouvrir ensuite », précise l'AFP :
« Car l’IA est présentée à terme comme la seule solution pour viabiliser les systèmes de caméras vendus depuis des années à presque chaque collectivité. Sans algorithme pour repérer et signaler des évènements, "au-delà de 8 écrans, (un superviseur humain) ne voit plus rien", confirme Dominique Legrand, président de l’Association nationale de la vidéoprotection, qui compte 161 membres ».
« Un projet technique, ça se manie en 6 mois. Ce n’est pas trop tard pour les JO, mais ça commence presque à l’être pour la Coupe du monde de Rugby » de 2023 qui aurait pu être un moment d’expérimentation, précise Legrand.
D'après l'AFP, « plus d’une centaine de solutions, dont beaucoup ont recours à la vidéo "intelligente", ont été auditées fin 2022 ».
Le 31 janvier 2023 à 05h53
Commentaires (7)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 31/01/2023 à 07h01
Des arguments contre la vidéo “intelligente” ( )
Le 31/01/2023 à 08h54
Le 31/01/2023 à 11h18
Qu’ils aillent se faire f*. Ils ne valent pas mieux que des marchands d’armes.
Le 31/01/2023 à 12h08
Ah c’est pour ça qu’ils acceptent les russes ?
Le 31/01/2023 à 12h44
Moi j’aime bien quand les industriels révèlent qu’ils ont menti pendant des années
Faut lire que si il y a moins d’un humain pour 8 caméras la vidéosurveillance n’est pas viable ?
Le 31/01/2023 à 13h05
il a dit pour 8 écrans. Je ne sais pas combien il y a de caméras par écran.
Cette image en montre 12 par écran mais un humain n’a que 6 écrans avec caméras devant lui, ça fait quand même 72 caméras pour un bonhomme !
Le 31/01/2023 à 16h36
Au début on va jouer aux vierges effarouchées, proposer des moratoires, des règlements restrictifs, des interdictions, puis quand ça sera partout et que le reste du monde le fera évidemment, alors on verra cela comme une évidence (pourquoi ne pas analyser une situation avec un algo alors que c’est possible… surtout que nos propres téléphones le font de plus en plus)… puis on se lamentera d’être à la traine, de dépendre de technos étrangères etc.
Ils avaient sorti le même genre d’argumentaire pour s’opposer à la 5G:
https://www.laquadrature.net/2020/10/10/sopposer-a-la-5g-pour-dire-notre-refus-de-linformatique-dominante/
Si c’est la seule assos à s’impliquer sur le sujet c’est un peu dommage.
De leur rapport:
“Le fait de graver ces décisions politiques dans le marbre en choisissant un jeu de données représente un choix comparable à l’action du législateur.”
C’est un peu l’idée “code is law” de Lawrence Lessig, mais cela n’a rien de spécifique à l’IA ou à la détection algorithmique, et ça n’a rien de gravé dans le marbre : un jeu de données, un modèle ou un algorithme peuvent évoluer sans vote du législateur.
Avec le même raisonnement on pourrait aussi dire que la mécanique d’ouverture de porte quand on présente un ticket “représente un choix comparable à l’action du législateur”.
“Si l’on décide de reconnaître des comportements suspects et que les bases de données contiennent beaucoup de personnes en survêtement en train de commettre lesdits actes, le programme infèrera que porter un tel survêtement est un facteur de risque, même si ce choix pas été explicitement décidé par les concepteurs.”
C’est une limite bien documentée des modèles algorithmiques, mais aussi des humains qui feraient le même travail. Il n’est pas établi que l’utilisation d’IA augmente nécéssairement ces problèmes, au contraire, le fait que cet aspect soit pris en compte dès la conception (il doit l’être c’est sûr) permet justement d’éviter certains biais liés à une surveillance strictement humaine.