Connexion
Abonnez-vous

Suresnes veut détecter les comportements suspects

22, v'là les suspects

Suresnes veut détecter les comportements suspects

Le 06 avril 2021 à 15h15

La ville de Suresnes, dans les Hauts de Seine, va relier ses caméras de vidéosurveillance (en novlangue juridique « vidéoprotection ») à une intelligence artificielle de XXII Group. Il n'y aura aucune reconnaissance faciale ni biométrique, assure son PDG, qui plaide pour une utilisation éthique de l'IA, et voudrait pouvoir en discuter avec la Quadrature du Net.

XXII Group, une société spécialisée dans les solutions et produits d'intelligence artificielle, a sollicité la Ville de Suresnes, où elle est basée, « pour expérimenter la mise en œuvre d’algorithmes sur des caméras dômes de son système de vidéoprotection placées sur la voie publique » :

« L’intérêt pour la Ville de Suresnes d’accepter cette expérimentation proposée par XXII group est double. Il permet de vérifier la fiabilité d’un tel outil et son utilité à la détection en temps réel des personnes présentant un comportement suspect sur le flux vidéo issu des caméras de vidéoprotection installées sur la voie publique et permettre une intervention en temps réel des forces de police.

D’autre part, il permet de favoriser la constatation des infractions routières en permettant aux agents de police municipale d’aller dresser les procès-verbaux sur place et de permettre d’adapter un meilleur déploiement des policiers municipaux dans les quartiers de la ville.

La durée de la convention est de 18 mois. La mise en place du logiciel est soumise à l’autorisation préalable de la CNIL. »

Pas de reconnaissance faciale

Dans son numéro 324 de mars 2021, le magazine municipal annonçait de fait que Yoann Lamarque, adjoint délégué à la Sécurité et à la Prévention, avait présenté au Conseil municipal, le 10 févier dernier, « l’offre faite à la Ville par l’entreprise suresnoise XXII Group, spécialisée dans le domaine de l’intelligence artificielle » en matière de « vidéoprotection » :

« Cet outil doit permettre la détection en temps réel des personnes présentant un comportement suspect et de favoriser la constatation des infractions routières. Cette proposition fait l’objet d’une convention pour une durée de 18 mois. La mise en place du logiciel est soumise à l’autorisation préalable de la CNIL. »

« Nous voulons montrer notre solution comme une technologie capable de solutionner des problématiques environnementales (détection de poubelles trop pleines, dépôts sauvages, départs d’incendie, éclairages intelligents) et de mobilité (feux rouges intelligents, analyse du trafic). Notre vision chez XXII est que l’Intelligence artificielle ne doit plus être perçue comme un outil uniquement sécuritaire mais dorénavant comme une solution pour tranquilliser le quotidien des citoyens » explique William Eldin, 33 ans, cofondateur de XXII :

« Nous respectons très strictement la loi et nous rencontrons très régulièrement la CNIL. Il n’est pas question de reconnaissance faciale. »

Ce test, qui devrait durer un an et demi, attend encore l'autorisation de la CNIL, « dont la réponse est attendue avant l’été. » Il sera en outre limité à 10 des 89 caméras mises en place sur la voie publique et reliées au centre de surveillance urbaine (CSU) géré par la police municipale depuis 2008, et où se relaient 13 agents 24 heures sur 24.

Le partenariat devrait par ailleurs permettre de faire évoluer le logiciel de XXII Group. Car William Eldin voit plus loin que le volet sécuritaire, précise-t-il à Actus.fr : « Grâce à l’expérimentation, on souhaite créer les cas d’utilisation de l’algorithme et sortir du carcan de la sécurité : faire éteindre les lumières en pleine nuit lorsqu’il n’y a personne, détecter les dépôts sauvages, analyser le taux de remplissage des poubelles, faire passer un feu au vert la nuit s’il n’y a personne… »

Mais Guillaume Boudy, le maire, prévient : « Il [ne]faut pas aller non plus trop loin dans ces technologies. »

L'IA VS les « actions inhumaines »

Sur LinkedIn, XXII explique vouloir « améliorer les humains et leurs sens », que « la smart city n'est pas une tendance, mais un mode de vie », et que l'entreprise a été créée par « deux amis d'enfance, William Eldin (PDG) et Dam Mulhem (CDO), passionnés par les nouvelles technologies et le son » :

« À l'âge de 14 ans, ils ont fondé un groupe de musique électronique, appelé XXII, et se sont promis de le transformer un jour en une entreprise de technologie profonde [a deep tech company, ndlr]. »

XXII se présente comme « une entreprise Deep Tech spécialisée en Computer Vision, Machine Learning et Deep Learning » experte en Intelligence Artificielle, Réalité Virtuelle et Augmentée :

« En collaboration avec les laboratoires et les instituts de recherche depuis plus de 5 ans, notre équipe de 15 personnes composées de docteurs et ingénieurs travaillent en R&D sur le futur des technologies de vision et l'établissement de nos brevets.

Nous faisons de la vision par ordinateur en intelligence artificielle pour remplacer l’humain sur des actions inhumaines, répétitives et sans valeur ajoutée.

Nous travaillons les neuro-technologies pour mieux comprendre notre cerveau et servir nos technologies à atteindre plus rapidement nos objectifs d’augmenter l’homme et ses sens. »

XXII

Ses « solutions d’analyses intelligentes de flux vidéos en temps réel pour la smart city, l’industrie, le transport, le retail et l’énergie » évoquent, tout à trac : « Zoning, Gestion de foule, Maraudage, Comptage, Analyse comportementale, Catégorisation & tracking véhicule, Vidéo verbalisation, Reconnaissance de plaque, Détection d’accident, Stationnement, Analyse de trafic, Agressions, Contrôle d’accès, Colis abandonnés, Suivi de personnes, Chutes, Décharge sauvage, Dégradation, Contrôle d’accès, Suivi de personnes, Analyse de postures, Suivi & identification d’objets & de véhicules, Traçabilité, Détection de fraude, Agressions, Marketing émotionne, Agressions – Vols – Braquages, Chutes ».

Analyser en temps réel sans limites

Sur un autre site dédié, elle assure que sa solution XXII SMART CITY, lancée en octobre 2020, «  permet de déployer des compétences IA haute performance pour analyser vos flux vidéos en temps réel sans limites [et] d’utiliser le plein potentiel des réseaux de caméras installés au coeur des villes tout en respectant les droits fondamentaux des citoyens ».

Elle invite à ce titre ses clients potentiels à « choisir une compétence à travers un catalogue évolutif pour mieux comprendre et gérer votre ville », et définir ce qu'il est possible et autorisé de faire, ou pas :

« Tracez une zone et définissez le temps maximum de stationnement provisoire. Seuls les véhicules statiques au-delà de cette limite seront détectés.

Délimitez la ligne d’arrêt et la position du feu tricolore. En cas de franchissement d’un véhicule au feu rouge, une alerte est activée.

Délimitez un périmètre de sécurité afin de détecter toute personne pénétrant dans la zone.

Définissez une zone à contrôler et déterminez un temps de présence maximum. Les présences suspectes seront signalées. »

Des militaires à la Quadrature

Sur Twitter, XXII explique que sa solution « est le résultat d'une collaboration étroite avec la CNIL » et, sur Facebook, que « vous proposer une solution respectueuse des droits et libertés de chacun est notre priorité ! » :

«  XXII SMART CITY suit la réglementation générale sur la protection des données.
De la conception à la mise en production, nos équipes ont collaboré avec la CNIL (Commission nationale de l’informatique et des libertés) afin de créer une solution respectueuse du RGPD.
»

Interrogé sur les questions de tracking et de traçabilité, la reconnaissance faciale et la possibilité de repérer des personnes nominativement, dans le cadre d'une table ronde sur l'intelligence artificielle et l'éthique, William Eldin répondait que « c'est un sujet immense et la première barrière à l'entrée » :

« Aujourd'hui, scientifiquement, de la reconnaissance faciale dans la rue avec les caméras existantes et avec le peu de données on a sur les gens ce n'est pas possible, il n'y a pas assez de pixels. Par contre, si on met en place des systèmes exprès pour, là oui.

La moyenne d'âge à XXII [prononcer twenty two, ndlr] c'est 29 ans et y'a 99,9 % des gens qui font de l'IA qui ne veulent pas tuer, qui ne veulent pas faire peur, qui ne veulent pas détruire la crédibilité que peut apporter cet outil-là dans nos vies. Donc on met en place toute une architecture d'explicabilité pour gagner la confiance et la connaissance. »

Il prévient également avoir refusé de travailler pour l'armement, « sinon j'aurais perdu tous les membres des équipes », et créé un comité d'éthique composé, notamment, d'un philosophe, Emmanuel Goffi, directeur de l'Observatoire Ethique & Intelligence Artificielle de l'Institut Sapiens et ancien militaire, spécialiste de la robotisation des champs de bataille, et d'un membre du GICAT (le Groupement des industries de défense et de sécurité terrestres et aéroterrestres).

Et d'ajouter : « j'encourage les gens à venir, et je suis en train d'inviter la Quadrature du Net pour pouvoir justement échanger avec richesse sur des sujets "touchy" ».

Un long travail sur le plan légal

Contacté, XXII nous répond être « régulièrement en contact avec la Quadrature du Net, notamment sur la rédaction de tribunes pour la vidéosurveillance intelligente. Malgré nos divergences d’opinion sur ces sujets, nous échangeons régulièrement sur des actualités, sur nos projets afin de créer un écosystème français soucieux de l’éthique dans l’intelligence artificielle ».

XXII précise en outre avoir « sollicité la CNIL en amont et en phase de finalisation de XXII SMART CITY afin de proposer des pistes pertinentes d'accompagnement RGPD des responsables de traitement que sont les villes » :

« Nous avons proposé à la CNIL et principalement à nos interlocuteurs réguliers, des fiches de traitements détaillées de nos algorithmes utilisés. Ces fiches de traitement indiquent notamment par exemple les données captées, les finalités qui peuvent être mobilisées, les enjeux, les mesures mises en place côté XXII etc. Tout ce qui est nécessaire pour remplir une AIPD [pour "analyses d'impact relatives à la protection des données", requises par le RGPD, ndlr] côté ville. La démarche a été approuvée par la CNIL. Elle rentre totalement dans la notion d'"accountability" [responsabilité, ou responsabilisation, ndlr] défendue et portée par le RGPD.

Des fiches de traitements détaillées expliquant les implications sur le plan RGPD de XXII SMART CITY sont également systématiquement fournies. Enfin, un questionnaire afin de guider le responsable de traitement dans ses obligations légales et la rédaction de l'AIPD est envoyé. Le responsable de traitement qu'est la ville est ainsi aidé, accompagné et informé dans un objectif de compliance RGPD de son côté. Et nous portons une grande attention à ce que l’action soit faite du coté des villes, ce qui demande pas mal d’énergie. »

Interrogé quant au fait que la CNIL devrait en outre adopter un texte réglementaire, XXII nous répond qu'« au delà de la CNIL, qui ne peut qu'adopter des recommandations et/ou des avis (lignes directrices), il est nécessaire que le législateur puisse se pencher sur l’intelligence artificielle de manière générale mais aussi de manière spécifique dans des domaines précis comme par exemple celui des smart cities, de multiples cas d’usages et enjeux sont présents à ce niveau et une législation inadaptée au contexte risque de bloquer les initiatives » : 

« Les récentes propositions européennes sont déjà les bienvenues mais il reste un long travail afin de pouvoir envisager un total éclaircissement de la situation sur le plan légal. »

Qu’est-ce qu’un « comportement suspect » ? 

Le projet n'a bien évidemment pas échappé à la vigilance de technopolice.fr, le site de sous-veillance des politiques et technologies qualifiées de « Smart (et/ou Safe) City » lancé par La Quadrature du Net.

En réponse à une requête CADA, la ville de Suresnes leur a transmis la convention établie entre la municipalité et la société, qualifiée par son récipiendaire d'« expérimentale à gogo » et d'« ultra-approximative », dans la mesure où elle se borne à expliquer que « l'algorithme concerné est celui du maraudage », sans plus de précisions.

« Avant, les agents regardaient les caméras au hasard, alors, ils loupaient parfois des faits importants. Grâce à ce  logiciel, ils seront immédiatement alertés en cas de comportements suspects. Ce sont eux qui décideront s’ils interviennent en voyant les images », précise de son côté le maire de Suresnes au Parisien  : 

« Mais qu’est-ce qu’un "comportement suspect" ? En réalité, ces outils repèrent les "mouvements de rupture". Une caméra "intelligente" peut par exemple apprendre à remarquer une personne qui court ou saute dans la rue alors  que les autres marchent. La vidéosurveillance intelligente de Suresnes est ainsi censée détecter des regroupements ou encore des scooters roulant sur une piste cyclable. »

Le dispositif est également censé aider la municipalité à « mieux déployer » ses agents sur le territoire et, pour ce qui est du « fléau » des dépôts sauvages et encombrants sur la voirie, « la caméra alertera le centre de surveillance si elle repère des objets volumineux. »

Dans l'épisode consacré à la « safe city » de La série documentaire (LSD) intitulée « À l'ère de la surveillance numérique » récemment diffusée sur France Culture, Wiliam Eldin explique que « reconnaître un bagage ou un être humain, c'est un réseau de neurones, ensuite on a un tracker qui va traquer l'objet image par image, et toutes les règles logicielles qui viennent au-dessus» :

« Si quelqu'un se sépare de plus de 5 mètres et de plus de 2 secondes d'un bagage, on demande à l'algorithme de se déclencher. C'est l'interprétation logicielle qui fait la boîte à outils de l'intelligence artificielle.

La seule limite aux cas d'utilisations type bagage abandonné, détection de dépôt sauvage ou de quelqu'un la nuit dans une rue (pour allumer puis éteindre la lumière), ou d'ambulance à un feu rouge (pour le faire passer au vert), c'est notre imagination.

Et c'est ça qui est magique, car la vision chez l'être humain est le capteur principal pour analyser et évoluer dans le monde extérieur, donc à chaque fois qu'on arrivera à reproduire des schémas de pensée d'un être humain, on arrivera à trouver un cas d'utilisation. »

Même sans reconnaissance faciale...

Interrogé par Le Parisien, William Eldin explique vouloir aller « plus loin » en « expérimentant » le champ d’application de son système au-delà des questions de sécurité, comme l’environnement, le logiciel permettant également d'« indiquer le taux de remplissage des poubelles » : 

« C’est un échange de bons procédés. Je vais améliorer mes algorithmes grâce à cette expérience. Elle fera parfois des erreurs mais il n’y aura pas d’impact puisque c’est l’agent qui décidera s’il faut se déplacer. »

Le CEO voudrait aussi balayer les craintes éventuelles des citoyens : « Cette peur résulte d’une méconnaissance. Ceux qui craignent cette technologie sont dix fois plus traqués par leur portable que par ce système ! »

Une dizaine d'autres communes d’Ile de-France, dont Versailles (Yvelines) et Levallois-Perret (Hauts-de-Seine), s’intéresserait aussi à cette technologie, « qui peut inquiéter », précise le quotidien :

« Attention, il n’y a pas de reconnaissance faciale, assure Guillaume Boudy. C’était ma condition. »

Une exigence un tantinet tartufe à mesure qu'en France, la technologie de la reconnaissance faciale n’est de toute façon pas autorisée en temps réel sur la voie publique, rappelle Le Parisien.

« Même sans reconnaissance faciale, les données ne sont pas totalement anonymes, à moins d’être floutées », pointe en outre Thomas Dautieu, directeur de la conformité de la Cnil : 

« On aura deux mois pour dire si c’est conforme à la réglementation. Il faut que le système réponde à un besoin, que les personnes ne soient pas automatiquement reconnues, que les habitants en soient informés, etc. »

L’instance alerte sur l’urgence d’une réflexion nationale à ce sujet, rappelle Le Parisien :  « On n’a pas envie de constater dans cinq ans que toutes les villes l’ont installé de façon anarchique, alors que le cadre juridique n’est pas stabilisé », fait valoir Thomas Dautieu : 

« Le régime juridique de la vidéosurveillance est un peu bancal. On demande l’adoption d’une loi afin de revoir un régime qui date des années 1990 et n’est plus adapté aux développements technologiques d’aujourd’hui. 

L’idée, c’est d’avoir un débat global : juridique mais aussi politique et sociétal sur les enjeux de ces systèmes. Il ne faut pas arriver à une société orwellienne où l’on serait surveillé dès qu’on met un pied dans la rue, un magasin ou le métro. Ces logiciels ont des conséquences sur le climat de notre pays. »

Un pourcentage de faux-positifs inférieur à 10% 

La convention de partenariat entre la ville de Suresnes et XXII Group, « approuvée à l'unanimité du Conseil municipal » et prévue « pour une durée de 18 mois », précise que « lors de la mise en place d’un nouvel algorithme, la société XXII garantira la présence d’un technicien/ingénieur pour diminuer le pourcentage de faux-positif » :

« Le pourcentage de faux-positif devra dans la mesure du possible être inférieur à 10% (avant que l’algorithme ne soit exploitable par les opérateurs du CSU). Ce pourcentage doit garantir l’exploitation du système par les opérateurs du CSU sans être une gêne pour leur travail initial. Dans le cas contraire, le technicien/ingénieur pourra être maintenu sans limite de temps et jusqu’à ce que le système soit opérationnel sans gêne pour les opérateurs du CSU. »

En outre, « le projet étant expérimental, la VILLE DE SURESNES n'est pas seule responsable de son utilisation. » : 

« En effet, les alertes sont programmées par les algorithmes et par conséquent la Ville ne saurait engager sa seule responsabilité en cas de remontées d'alertes non conforme à la législation en vigueur. La Ville informera sans délai la société d’anomalies constatées liées à l’utilisation du projet expérimental afin que la société intervienne sur les algorithmes.

La VILLE DE SURESNES s’engage également à ne pas faire une utilisation du Produit expérimental contraire à l’ordre public et à la législation française et à obtenir, le cas échéant, l’ensemble des autorisations administratives nécessaires à son utilisation. »

Un risque d'atteinte à l'image

Pour ce qui est de la législation applicable en matière de Protection des Données, la convention prévoit que « les parties établissent ensemble l'analyse d'impact », et qu'elles s'engagent à « prendre en compte, s’agissant de ses outils, produits, applications ou services, les principes de protection des données dès la conception (Privacy by design) et de protection des données par défaut (Privacy by default) » : 

« Les formalités auprès de la CNIL seront assurées par la Ville de Suresnes qui demandera le concours de XXII en cas de besoin. Dès l'accord de la CNIL, les parties pourront mettre en place le Projet au sein du CSU. »

De plus, « la mise en oeuvre du projet est soumise à la CNIL » : 

« En cas de refus de cette dernière et en fonction de l’analyse de l'avis rendu par cette autorité indépendante, les parties décideront librement :

-soit de modifier leur projet afin de le soumettre de nouveau à avis. Dans ce cas, la CONVENTION sera prolongée de 4 mois pour tenir compte du retard lié à la mise en expérimentation opérationnelle du projet.

-soit si l'une des Parties ne souhaite pas poursuivre le projet , elle en informera l'autre par un simple courrier, sans donner lieu à une indemnité quelconque pour l'autre partie. La convention prendra fin à compter de la date de réception dudit courrier. »

Enfin, la convention prévoit que les deux parties puissent résilier le projet, « d'un simple courrier », en cas d'atteinte à leur image, « notamment en faisant l'objet de poursuites ou d'observations par la CNIL ou (...) en cas de non-respect du RGPD » : 

« La Ville se réserve le droit de résilier la présente CONVENTION dans l'hypothèse où XXII ou l'un de ses représentants porterait atteinte à l'image de la ville, notamment en faisant l'objet de poursuites ou d'observations par la CNIL ou de toute enquête liée au non-respect de la règlementation RGPD ou relative à la propriété industrielle et commerciale

XXII se réserve le droit de résilier la présente CONVENTION dans l'hypothèse où la Ville de Suresnes porterait atteinte à l'image de la société, notamment en cas de non-respect de la règlementation RGPD. »

En réponse à la demande CADA, la municipalité de Suresnes a par ailleurs précisé que « concernant l'autorisation de la CNIL, la procédure est en cours » (leur document évoque tour à tout autorisation, accord ou avis de la Commission...). Mais également que les vidéos promotionnelles mises en ligne par XXII montrent des « images mises en scène par la société, qui a également recréé le CSU dans ses locaux; celle-ci n'a donc pas eu accès à notre centre de vidéoprotection ».

Également sollicitée, la CNIL n'a pas, à ce jour, répondu à nos questions. 

Commentaires (51)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Black mirror devient une réalité. Bientôt un système de crédit social ?
Il faut vraiment que nos démocraties arrêtent de s’inspirer de la dictature chinoise.

votre avatar

Déjà en place en Chine le crédit social…

votre avatar

La loi est inadaptée par définition.
D’autre part si chacun commence à faire des IA par usage limité on oublie que la réponse est contradictoire.
Aussi le jour où les maires seront remplacés par des IA on peut supposer que le système expérimental correspondra techniquement et légalement à ce qui était attendu par ces élus partis en retraite.

votre avatar

Pour ma part, je suis toujours étonné par les gens qui se sentent traqués mais qui pour autant utilisent tout un tas d’applis qui, pour le coup, les ciblent en permanence, ou qui viennent montrer leur vie sur Instagram, Facebook, Tik truc et autres. Dans ce cas-là, on accepte tout sans se poser de question.



Ici, si je comprends bien, ça relève surtout de l’expérimentation.
A voir le mal partout, on empêche aussi nos entreprises de se développer, et le jour pour X ou Y raisons, le consensus en France sera de généraliser la vidéosurveillance avec ou sans reconnaissance faciale, ben on achètera un logiciel étranger.
Il n’y a plus aucune acceptation de la prise de risques, c’est décevant. A part des entrepôts Amazon, je crains qu’on ne finisse par ne plus rien ouvrir en France.

votre avatar

Je ne suis pas d’accord ça n’est pas comparable. Je ne suis pas obligé d’utiliser les services des GAFAM, ni d’avoir un smartphone, alors que les caméras de vidéo-surveillance je suis obligé de les subir, je n’ai pas le choix.

votre avatar

Pour autant, tu es fiché par Facebook ou Google sans même avoir de compte.

votre avatar

Oui mais ça tu peux le bloquer / filtrer avec plus ou moins de succès. Une caméra de surveillance, à part porter des lunettes qui flash de l’infra-rouge dans tout les sens, c’est plus dur.

votre avatar

Surtout que tu peux utiliser Lineage for microG ou mieux, un PinePhone ou le Librem 5 ou vraiment pour aller dans l’extrême : ne pas avoir de smartphone.



Les caméras de surveillance, à part un coup de batte, tu peux pas t’en débarrasser

votre avatar

« Si quelqu’un se sépare de plus de 5 mètres et de plus de 2 secondes d’un bagage, on demande à l’algorithme de se déclencher »



L’algo n’est pas déjà en route !



« ou d’ambulance à un feu rouge »



L’opérateur a le choix ? ou c’est automatique là ?



« Cette peur résulte d’une méconnaissance. Ceux qui craignent cette technologie sont dix fois plus traqués par leur portable que par ce système ! »



On a encore le choix d’ignorer les alertes du smart. Là pas de liberté de choix et possible tabassage policier en perspective, allez savoir ! [Je force volontairement le trait]



« Attention, il n’y a pas de reconnaissance faciale »



Plus besoin ! On va juste identifier les personnes et leur logement et coller un jolie chiffre dessus. Du fingerprinting en gros.



« Il ne faut pas arriver à une société orwellienne où l’on serait surveillé dès qu’on met un pied dans la rue »



On y est déjà !



« le cas échéant, l’ensemble des autorisations administratives nécessaires à son utilisation. »



Du moment que c’est autorisé, on peut y aller donc … Où par contre ? chez Big Browser






CNIL cité 19 fois, comme un sentiment du c pas propre non !



Comme disait un grand sage, l’enfer est pavé de bonnes intentions … :craint:

votre avatar

En parlant de forcer le trait et de raconter n’importe quoi, tu fais pas mal exemple




Nicky5 a dit:


« Cette peur résulte d’une méconnaissance. Ceux qui craignent cette technologie sont dix fois plus traqués par leur portable que par ce système ! »



On a encore le choix d’ignorer les alertes du smart. Là pas de liberté de choix et possible tabassage policier en perspective, allez savoir ! [Je force volontairement le trait]


Limiter le traçage de nos téléphones aux simples alertes, je crois qu’on atteint le comble de la mauvaise foi.
De plus je ne savais pas que les flics tabassaient à chaque fois qu’ils dressaient une contravention. Ou l’art de faire de quelques faits divers une généralité comme tout bon populiste (pour ne pas dire autre chose).

votre avatar

Oui je force le trait et c’est mon droit :transpi:



Plus sérieusement, comparer le pistage d’un smart avec une caméra n’a pas de sens. Sur un smart, on peut quand même le réduire au maximum. De mon coté, je conserverais mon WP jusqu’à sa mort et je n’utilise aucune app en dehors des miennes.



Là on ne peut empêcher quelqu’un de nous suivre derrière son écran et je suis certains qu’on peut trouver des films qui abordent ce sujet et ses dérives.



La grosse différence est entre un traçage de masse ou l’on est noyé dedans et un traçage bien plus individuel. Ce n’est pas les mêmes conséquences.



De plus, demain quand l’opérateur ne sera plus nécessaire car cela arrivera, on perdra l’aspect “tolérance humaine” qui nous sépare de Back Mirror :fou: mais la tu vas me dire que je suis un complotiste :transpi:

votre avatar

C’est un peux vous qui êtes de mauvaise fois.



Ni facebook, ni google ne sont des polices, administrations ou gouvernements, même si elles en ont largement le budget ou sont sollicités par elles.



Ni facebook, ni google vous filme dans la rue sans en avoir le choix. Internet n’est pas une rue, même s’il devient indispensable pour certaines démarches.



Appliquer un fingerprint comportemental dans la vie réelle revient juste à créer un identifiant, qui même temporaire, même limité à un coin de rue (jusqu’au jour où), reste un identifiant au même titre que le nom, prenom, vos habits, emprunte biométrique, reconnaissance faciale… L’être HUMAIN n’est pas limité à sa biologie ou biométrie, n’en déplaise au joli diable William Eldin. Sinon Google ou facebook n’hexiterai pas….

votre avatar

Ohmydog a dit:


ben on achètera un logiciel étranger.


Pas certain vu la quantité de réglages. Ce serait mettre le nez dans les recettes et on ne va pas non plus vendre ou acheter une IA auto-apprenante du contexte politique et les tocs qui vont avec.. cela peut marcher sur l’armement mais ce sera alors le seul usage liquide à l’import. Trop de risques éthiques, cela ne peut marcher qu’avec des contrats épais et des gros sous pour se mêler d’un service public. Les précédents ne manquent pas.

votre avatar

mayuraviva a dit:


Black mirror devient une réalité. Bientôt un système de crédit social ? Il faut vraiment que nos démocraties arrêtent de s’inspirer de la dictature chinoise.


Rapport avec la news sachant qu’il n’y a pas de reconnaissance faciale ?
Empêcher les dépots sauvages et les rodéos urbains est une atteinte à nos libertés fondamentales.



A lire tes précédents posts il semble que tu ais du mal avec les principes de base de la vie en société.
Bon courage dans la quête du pays idéal selon tes critéres.

votre avatar

Ici on analyse à son insu (caméra dite cachée ou passive) le corps d’autrui… mise de côté l’hypothèse zombi on se meut bien avec notre tête au sommet. :roll:



On dira même qu’un piéton portant un casque est en infraction à lui-même…



Bref, analyser l’espace public (rues places etc) ne peut pas s’automatiser sans déclarer ailleurs (assemblées, lois, urbanisme) ce qu’on y attend. D’où la magie attendue de la validation algorythmique des décisions à portée générale…



Là où le parrallèle avec les ordiphones tient ce n’est pas sur la surveillance mais l’acceptation massive de se laisser faire quoi qu’il soit fait : c’est le role de Black Mirror de le rappeller au delà de l’étalage de techno.

votre avatar

S’ils veulent les - de 10% d’erreur, ils vont devoir mettre un gros



“Si la caméra est proche d’un arrêt de bus ou d’une gare = oublie de signaler les gens qui courent” :D

votre avatar

carbier a dit:


Rapport avec la news sachant qu’il n’y a pas de reconnaissance faciale ? Empêcher les dépots sauvages et les rodéos urbains est une atteinte à nos libertés fondamentales.



A lire tes précédents posts il semble que tu ais du mal avec les principes de base de la vie en société. Bon courage dans la quête du pays idéal selon tes critéres.


Le rapport, c’est ce système de détection de “comportement suspects” qui ne sont en soit pas illégaux, mais dont l’appréciation ouvre une porte large à toutes les dérives policières.
Je ne souhaite pas vivre dans une société où mes moindres faits et gestes sont surveillés par l’Etat.

votre avatar

mayuraviva a dit:


Le rapport, c’est ce système de détection de “comportement suspects” qui ne sont en soit pas illégaux, mais dont l’appréciation ouvre une porte large à toutes les dérives policières. Je ne souhaite pas vivre dans une société où mes moindres faits et gestes sont surveillés par l’Etat.


Je suis assez d’accord avec ça, même si c’est pas la stasi dans le sens où cette surveillance n’est pas “humaine”, mais est simplement un “log” de nos actions.



Je ne sais pas trop comment ça va être implémenté, mais cette simple pub (dans l’article) sur la “détection de présence suspecte” pour un mec qui “zone” me parait inquiétante.
En fait, dans le futur, on aura des zones où (mais sans savoir où) , il sera interdit de se tenir un certain temps - il faudra juste passer.



Je trouve que ça déshumanise pas mal les gens, même sans identification, ça pousse à l’extrême une certaine vision de l’individu: les gens sont là pour consommer, et si ils veulent pas ou peuvent pas ils restent chez eux. Et si il n’y a pas de chez eux, autant qu’ils soient ailleurs (ou mort) car ils ne servent à rien donc n’existent pas.



Des fois je me demande si on devrait pas donner aux gens qui créent ça un jeu de “sims” ultra-réaliste pour qu’ils s’amusent à leurs délires et foutent la paix au reste du monde…

votre avatar

OB a dit:


Je ne sais pas trop comment ça va être implémenté, mais cette simple pub (dans l’article) sur la “détection de présence suspecte” pour un mec qui “zone” me parait inquiétante. En fait, dans le futur, on aura des zones où (mais sans savoir où) , il sera interdit de se tenir un certain temps - il faudra juste passer.


C’est exactement cet exemple qui fait peur, il ne s’agit pas d’un simple radar automatique qui verbalise les infractions, mais d’un système de contrôle social. Je n’ose même pas imaginer tout ce que pourrait faire une mairie RN avec ce truc, déjà que le maire de Bézier avait fiché les enfants présumés musulmans qui mangent à la cantine juste en se basant sur les prénoms, alors avec un tel outil ça sera l’enfer.

votre avatar

Je vous rassure, s’il s’agit d’un point de deal ou de bandes un peu excitées, la mairie ne fera rien des “alertes” remontées par les caméras. Aucune loi n’interdit de prendre un siège decathlon pour s’assoir sur le trottoir, ou à un groupe d’adolescents de se promener bruyamment.



Inversement et rapidement, le quidam qui aura l’outrecuisance de mal se garer, de ne pas porter son masque, faire quelques metres en trotinnette sur le troittoir ou autre sera immédiatement sanctionné.

votre avatar

Ohmydog a dit:


Pour ma part, je suis toujours étonné par les gens qui se sentent traqués mais qui pour autant utilisent tout un tas d’applis qui, pour le coup, les ciblent en permanence, ou qui viennent montrer leur vie sur Instagram, Facebook, Tik truc et autres. Dans ce cas-là, on accepte tout sans se poser de question.


Sérieusement ? Tu ne fais pas de différence entre utiliser une appli donc volontairement lui fournir des données en échange d’un service, et une caméra qui te filme en permanence si tu habites dans son quartier, et qui va lancer un algorithme “suspect détecté” parce que tu fais les cent pas en téléphonant parce que tu attends ton taxi et que tu t’aies éloigné 2 seconde de ta valise ?

votre avatar

Si la santé est un usage ajouté à l’arc digital avec en sus des mems, on ne voit pas bien en quoi ce serait différent pour les novices qu’on essaye manifestement de laisser à ce stade d’apprentissage par la tertiarisation en croissance exponentielle ( à en croire les capitalisations de ces licornes)…

votre avatar

Le service est aussi rendu par la caméra, ordre public, salubrité publique.
Je sais bien que c’est collectif, mais il n’y a pas que les services individuels, pour ta personne.

votre avatar

(quote:1865502:Idiogène)
Ici on analyse à son insu (caméra dite cachée ou passive) le corps d’autrui… mise de côté l’hypothèse zombi on se meut bien avec notre tête au sommet. :roll:



On dira même qu’un piéton portant un casque est en infraction à lui-même…



Bref, analyser l’espace public (rues places etc) ne peut pas s’automatiser sans déclarer ailleurs (assemblées, lois, urbanisme) ce qu’on y attend. D’où la magie attendue de la validation algorythmique des décisions à portée générale…



Là où le parrallèle avec les ordiphones tient ce n’est pas sur la surveillance mais l’acceptation massive de se laisser faire quoi qu’il soit fait : c’est le role de Black Mirror de le rappeller au delà de l’étalage de techno.


Il n’y a pas d’ordinateurs ou de logiciels qui vont verbaliser automatiquement.
Il s’agit d’orienter les policiers municipaux vers des comportements dits suspects, à eux ensuite de prendre la décision.
Les flics municipaux continueront de scruter les caméras au hasard, mais parfois auront une alerte leur demandant de jeter un oeil sur ce qui se passe sur une caméra: si problème, envoi de patrouille, sinon rien.



Alors black mirror…

votre avatar

Même en laissant de côté blackmirror ou l’IA il faut se rappeller que les recettes ça se construit avec l’utilisateur.



Ce que tu décris est vrai au début des recherches, mais une fois le taux de faux positifs proche de zéro, le developpement de l’assistance à la décision prendra lui-même les décisions…
En théorie on peut tout à fait faire travailler deux boîtes dont l’une aurait explicitement pour mission de faire une IA qui rétro-agit sur la première… donc à terme plus d’assistance, mais une automatisation générale de la chaine d’intervention.
Beaucoup d’usines ont appliqué ce modèle global, il n’y a aucune limitation technique aujourd’hui.

votre avatar

Qu’est-ce qu’un comportement suspect?



“Analyse de postures”
Ah… ok.

votre avatar

autant dire :
“tout.le.monde (peut) être suspect”* !




  • il suffit de.pas.grand.chose, en fait ! :windu:

votre avatar

Un ischion suffit. Le problème c’est lorsqu’il y en a plusieurs….

votre avatar

(reply:1865543:Idiogène)
google.com Google


votre avatar

Plus qu’un pas avant les précogs…

votre avatar
votre avatar

(quote:1865522:Idiogène)
Ce que tu décris est vrai au début des recherches, mais une fois le taux de faux positifs proche de zéro, le développement de l’assistance à la décision prendra lui-même les décisions…


Je pense que le but est clairement d’automatiser la verbalisation, dans l’objectif de maximiser le profit en supprimant la “charge” que représente le salaire de l’humain. On est déjà dans ce genre de logique avec les radars automatiques & les radars feux-rouge : L’automate verbalise et l’humain n’intervient que sur contestation à posteriori.



Le faux positif n’a pas besoin d’être à 0 : Il faut “juste” qu’il soit suffisamment bas pour que le coût global du traitement des contestations descende en-dessous du coût du salaire de l’humain chargé actuellement de regarder les vidéo & verbaliser à distance manuellement.
(Une autre solution serait d’externaliser le visionnage et la verbalisation à madagascar ou au bangladesh, à un salaire de quelques dixièmes d’euro par jour. Je suis sur que les mairies RN, curieusement, seraient nettement moins regardantes)

votre avatar

les radars automatique et la justice ne sont efficace que :
-si tu est certain de la sanction
-dans un temps très court
-sans aucun passe droit



du coup les radar automatique fonctionne plutôt bien, moins de mort sur les routes, meilleurs comportements de l’usager. reconnait qu’avant c’était un peu la fêtes au village, certitude de ne pas être contrôler, si cela arrivait pas de sanction, juste une amende. D’ou le permis à points :). et j’ai connu l’epoque ou tu te pointait a la gendarmerie avec une caisse de bouteille de vin pour te faire sauter l’amende.



maintenant, tous le monde paye ses points et ses amendes routière. note bien que ce n’est QUE pour faire respecter le code de la route qui existait depuis trèèèès longtemps sans jamais être appliqué réellement

votre avatar

Ohmydog a dit:


Pour autant, tu es fiché par Facebook ou Google sans même avoir de compte.


Je fais tout mon possible pour que ça ne soit pas le cas avec diverses extensions dans Mozilla Firefox. Je commence à envisager de bloquer toutes les adresses IP de Google et de Facebook dans mon pare-feu.
Mais contrairement à l’État ou une collectivité territoriale, les GAFAM n’ont pas de pouvoir de violence qu’ont les forces de l’ordre. La seule chose que je risque au pire avec les GAFAM c’est d’être banni de leurs services si j’ai un compte chez eux.
Alors que dans les exemples de l’article, l’une des premières conséquences possible à un comportement suspect, c’est que la police vienne me frapper.

votre avatar

Attention, carbier va t’accuser de populiste :mdr:



En tout cas, je pense comme toi, les GAFAM sont certes une menace pour la vie privée mais pas au point de ce qui se profile ici, leur but reste de faire de l’argent sur nous et rien d’autre.



Détails sur lequel certains passent à coté, qui me garanti que le visionneur n’est pas mon voisin aigris qui a toujours eu des yeux sur “je ne sais quoi que j’ai”, ou tout autre raison de m’en vouloir et ne se serve de cet outil pour me surveiller !



Car ici le gros du problème est que l’ont n’est pas une goutte d’eau dans un océan d’utilisateurs mais une personne parmi quelques centaines voir moins, la capacité de ciblage est clairement différente.

votre avatar

(quote:1865503:Idiogène)


L’“arc digital”, c’est un arc qui fait des fucks? :keskidit:

votre avatar

Je ne sais pas si on peut inclure les virbos dans les “mems” mais après tout ce n’était qu’une façon d’imager… :D

votre avatar

mayuraviva a dit:


Je fais tout mon possible pour que ça ne soit pas le cas avec diverses extensions dans Mozilla Firefox.


Moi déjà je cloisonne Facebook dans un container, mes sites d’achat dans un autre, mes comptes perso dans un 3e… et un autre navigateur pour certains sites.



Si en plus on applique Privacy badger, uBlock et Ghostery… il ne reste plus grand chose.
Sans parler du VPN si on en sent le besoin.
(et une adresse email différente entre les réseaux sociaux et les affaires importantes, bien sur…)



(si on parle navigation mobile, c’est encore plus simple: je la fuis autant que possible)

votre avatar

la “novlangue” c’est pour faire la différence entre les caméras qui surveillent l’espace accessible au public de l’espace privé. comme ça on fait la différence entre la surveillance et la protection, je sais que le vocabulaire ne plaît pas à certains mais ça garantit par exemple que des employés ne sont pas filmés à leur insu par leurs employeurs… bref.
perso je vois les avantages de reconnaître des comportements suspects et de déployer au mieux le peu d’effectif des forces de l’ordre. que ce soit un bagage/valise oubliée qui va mettre en croix une gare ou une ligne de métro/bus, des vendeurs à la sauvette à chaque carrefour fréquenté, des rassemblement de jeunes tous habillés en noir avec des bâtons, enfin il y en a des exemples utiles !
et à côté de ça on laisse faire les syndics de copro qui déclarent que dalle et enregistrent les passages des gens dans les halls d’entrée, surveillent depuis leur TV (en TNT) que personne ne fait caca devant les boîtes aux lettres ou vole des colis. mais ça rend service, ça arrange tout le monde alors on laisse faire (enfin moi, non, mais je me suis barré alors bon).

votre avatar

C’est donc la ville la plus calme qui a le dispositif le plus extrème

votre avatar

« Cette peur résulte d’une méconnaissance. Ceux qui craignent cette technologie sont dix fois plus traqués par leur portable que par ce système ! »



Le monsieur ne comprends pas qu’il y a une différence entre la mise à disposition d’un outil et l’usage qui peut en être fait par la suite. C’est très grave je trouve.



Les personnes habilitées à utiliser l’outil feront peut être attention au début, puis il n’y aura plus de discernement : la machine a dit “vous êtes suspect” donc vous devez partir. Pire la qualité de l’outil sera notée à partir du nombre de détections effectuées, il ne faudra plus de faux-positifs et on ne remettra pas en cause l’“algorithme”.

votre avatar

sanscrit a dit:



du coup les radar automatique fonctionne plutôt bien, moins de mort sur les routes, meilleurs comportements de l’usager. reconnait qu’avant c’était un peu la fêtes au village, certitude de ne pas être contrôler, si cela arrivait pas de sanction, juste une amende. D’ou le permis à points :). et j’ai connu l’epoque ou tu te pointait a la gendarmerie avec une caisse de bouteille de vin pour te faire sauter l’amende.


C’est ton point de vue, que je ne partage pas.



La courbe des accidents (pas forcément mortels) descends régulièrement, depuis bien avant les radars ( https://fr.wikipedia.org/wiki/Accident_de_la_route_en_France#/media/Fichier:Accidents_de_la_route_et_tu%C3%A9s_en_France_1986-2017.svg ). La raison avancée est entre autre les meilleures infra routières et l’amélioration technique des véhicules, malgré l’augmentation significative de leur nombre sur le route dans le même temps.
Le contrôle technique obligatoire a sans doute plus fait contre les accidents…



Par contre pour moi ça reste “la fête au village” : Je me fait encore parfois doubler sur l’autoroute par des merco à 250km/h. La différence c’est que , maintenant, ils donnent un gros coup de frein avant le radar et repartent aussi fort ensuite. D’autant plus vrai qu’il n’y a quasi plus de contrôles de vitesse en présentiel sauf avant les vacances (pour BFM) et pour vérifier les attestations au péage.



D’après https://www.radars-auto.com/actualite/statistiques/bilan-2016-du-permis-de-conduire-1317 , 50% des infractions sont de petites infractions (moins de 20km/h au dessus, 1 point). Mais attention, ce chiffre est pris en proportion de TOUTE les amendes routières , y compris stupéfiants, phare cassé, défaut de permis, téléphone au volant ou absence de ceinture.



Je n’ai pas trouvé de stat plus précise (qui doit pourtant exister) sur la proportion exacte de perte de points pour 1km/h au dessus, 2km/h au-dessus, etc…. juste sur les radars automatique.



J’ai l’intuition (au vu de ma propre exp) que la très très très grosse majorité des points perdu le sont suite à de petits excès de vitesse , mais effectivement j’ai pas la stat pour confirmer / infirmer ça. Je serais intéressé d’ailleurs, mais impossible de trouver.



=> Pour moi le but n’est pas de sanctionner un comportement délictueux intentionnel , mais c’est de sanctionner l’inadvertance, cad la personne sur le chemin de retour du boulot qui a simplement oublié le radar a ce moment là ce jour là et a oublié de lever le pied avant, comme d’habitude. Le fait de criminaliser la détention de coyote est - à mon sens - une autre preuve de cette volonté.



C’est la technique des Ripoux : “Tu gagnes petit, mais tu gagnes souvent”, qui a probablement dû inspirer les haut-fonctionnaires du ministère de l’intérieur dans les années 1990.



Les véhicules banalisés seraient une bonne idée pour vraiment vérifier cette théorie. Mais comme ils sont cher, ils faut qu’ils soient rentable. Et pour être rentable, mieux veux faire des tours de rocade à lyon, bordeaux et paris pour flasher 300x du +1km à 45€ qu’aller dans des petites routes de province avec 3 voitures / jour, ou sur l’autoroute avec 1 grand excès de vitesse et tout le reste des gens en cruise-control à 125km/h.



Un autre type de radar qui permettrait vraiment d’avoir de meilleures stats sont les radars de tronçon. Que je n’aime pas pour une autre raison, qui est leur mode de fonctionnement: Contrairement aux radars “flash” , ces radars de tronçon sont obligé d’identifier 100% des véhicules qui passent devant les 2 caméras , pour pouvoir évaluer une vitesse moyenne. Derrière, on a aucune garantie que ces données sont effacés même sans infraction, même avec la main sur le coeur des gens qui mettent ça en oeuvre (une base de donnée ça se sauvegarde).
Et ça compte pas les gens qui s’arrêtent 10 minutes sur la BAR 300 mètres avant le 2nd pylône.



Après, voilà…..il n’y a quasi aucun contrôle citoyen, aucune stats publique précise indépandante,…. et en recherchant des infos pour ce pavé je viens de voir que , les collectivité territoriales touchent directement en rétrocession (*) une partie du magot des amendes des radars automatique (mais pas des autres types d’amendes, curieusement).



Du coup je suis moins étonné, c’est une forme d’impôt indirect inégalitaire, un peu comme la TVA.
Moi je le prends comme tel, sans culpabilité aucune. Le discours moralisateur et infantilisant de l’état sur la sécu routière n’est acceptable qu’en l’absence de conflit d’intérêt.



(D’ailleurs les stats sur le pognon, indépendamment des amendes, sont, elles, accessibles facilement en ligne)



(*) collectivites-locales.gouv.fr République Française

votre avatar

pas toutafé mon point de vue, il y a un billet sur le blog de maitre eolas qui explique cela plutôt pas mal, ce qui t’empêche de commettre un crime c’est la certitude de la sanction pénal, et son application assez court dans le temps.



est ce le cas pour certain delit ? je ne crois pas, par contre avec un radar tu as cette certitude :), d’ou le coup de frein même si t’es blindé. au radar feu rouge par chez moi si tu ralenti au vert, personne ne te klaxonne, essaye sur un feu rouge sans radar et tu te fait defoncé

votre avatar

sanscrit a dit:



est ce le cas pour certain delit ? je ne crois pas, par contre avec un radar tu as cette certitude :), d’ou le coup de frein même si t’es blindé. au radar feu rouge par chez moi si tu ralenti au vert, personne ne te klaxonne, essaye sur un feu rouge sans radar et tu te fait defoncé


Pour moi il y a une immense différence dans les 2 cas :
Dans le 1er cas, pour un crime, le but est de t’envoyer en prison. L’état n’a rien à gagner: Il perd des recettes fiscale et sociale (si tu travaillais) et il doit payer , cher, pour cet enfermement.
Donc si il le fait, c’est vraiment dans un objectif de “salubrité publique”, et il ne le fait qu’en dernier recours (d’où le nombre de mesures alternatives , comme les bracelets).



Par contre dans le cas d’un délit, il y a un conflit d’intérêt: Le but est ici de te faire payer, et financer avec toute une chaîne industrielle , y compris en bout de chaîne du financement indirect de ceux qui décident de placer les radars (les collectivités territoriales).



Je connais personne qui s’est dit “oh , j’ai encore reçu une prune , je devrais conduire mieux”. Les gens se disent : “oh, j’ai encore reçu une prune, je suis trop con je savais qu’il y avait ce radar à cet endroit”. Il n’y a pas de culpabilité, juste de l’exaspération , et un restau en famille en moins (bon, ok, en ce moment…. )
Je ne me sens pas plus coupable de recevoir un PV d’un radars que de payer mes impôts sur le revenu. Pour la hadopi c’est pareil , tu te dis pas “oh, j’arrête de télécharger” , tu te dis “oh, je vais re-vérifier mon peerblock et placer un VPN (ou autre).



Pour en revenir à l’article , j’ai l’impression qu’on est dans le même cas de figure: Arriver d’une manière où d’une autre à créer de “nouveaux délits” donnant lieu à des PV (à terme) de manière à lever un nouvel impôt qui ne dit pas son nom, dans un contexte de conflit d’intérêt permanent.

votre avatar

Mouais il est quand même possible de respecter les vitesses.
Pas plus de 50 quand il y a marqué 50
Pas plus de 70 quand il y a marqué 70
PAs plus de 80 quand il y a marqué 80
Pas plus de 130 quand il y a marqué 130.
Seul le 30 est un peu difficile, mais pour l’instant ca reste symbolique, pas de sanction.



Effectivement, ca fait un peu troll mais ça fait 15 ans que j’ai fait le choix de conduire ainsi, zéro amendes (1 seul flash mais pas d’amende). Il faut juste ranger son agressivité et accepter de se faire doubler, même par des poids lourds.
A la fin on y fait plus gaffe et on respecte naturellement les vitesses. En fait c’est exactement la même chose que pour toutes les règles : on ne mort pas “un peu” sur les lignes blances, on ne
stationne pas “un peu” ou c’est interdit. Sinon on assume le risque!



D’ailleurs ceux qui se prennent généralement des amendes pour peu de dépassement respectent juste les vitesses d’il y a 5 ans : 90 au lieu de 80. A l’époque il n’était pas rare de cruiser à 100km/h sur nationale, ce qui a quasi disparu.

votre avatar

guimoploup a dit:


Effectivement, ca fait un peu troll mais ça fait 15 ans que j’ai fait le choix de conduire ainsi, zéro amendes (1 seul flash mais pas d’amende).


Pas de problèmes avec les nationales à 70-80-70-80-70-50-70-80- …….. ?
Pas de problèmes avec les radars chantiers non annoncé et dont le (seul) panneau indicateur est sous les arbres 30m avant ?
Pas de problèmes avec celui à 50 en bas d’une descente (zone non accidentogène mais très rentable), contrairement à l’école 1km plus loin, à 30 mais sans radars ?



Félicitation !




D’ailleurs ceux qui se prennent généralement des amendes pour peu de dépassement respectent juste les vitesses d’il y a 5 ans : 90 au lieu de 80.


Je suis assez d’accord avec ça - c’est même sans doute la raison de ce changement de vitesse.




A l’époque il n’était pas rare de cruiser à 100km/h sur nationale, ce qui a quasi disparu.


Ah ? Ce n’est pas ce que je vois, moi.



Moi mon expérience c’est tout le monde en cruise-control à 80 (y compris lorsque ça change de limitation, ce qui est très pratique pour caler un radar rentable), et des “serial jumpers” qui prennent tous les risques pour doubler , donc 100 et parfois bien plus pour se faire le semi-remorque ou le camion-benne qui se “traine” à 79km/h.



Je vois aussi bien plus de véhicule le cul levé dans le fossé qu’avant.
Mais bon, je suis pas en ville / banlieue.

votre avatar

après comme tu vante les bienfait des voitures moderne, la plupart embarque des cameras de lecture de panneau qui te limite de fait ta vitesse. même les petits véhicules.



tu voit c’est bien la modernité :D c’est plus sécurisant :mdr:



les radars sont la uniquement pour te verbalisé si tu ne respecte pas les limitations qui existait déjà avant leur arrivée hein ! même si il n’y a pas de radar dans les zone dangeureuse tu peux/doit respecter les limitations ! si tu veux rouler vite tu va sur un circuit. Sur la voie public tu as juste une autorisation de circuler avec ton permis.

votre avatar

tu dois respecter les limitations.de.vitesse !



d’ailleurs je me suis, tjrs., posé LA question :
QUI’…détermine qu’à tel endroit, ce sera limité à 50/70/”…. ?




  • le ‘Préfet’, la ‘Dir. Départ. de l’Equip.’ ?



j’imagine que le ‘Ministre des Transports’ (à Paris), ne connait pas la configuration d’une
‘Nationale’ dans la ‘Creuse’….ou bien ? :francais:

votre avatar

Groupe XXII… ça ne s’invente pas

votre avatar

OB a dit:


Pas de problèmes avec les nationales à 70-80-70-80-70-50-70-80- …….. ? Pas de problèmes avec les radars chantiers non annoncé et dont le (seul) panneau indicateur est sous les arbres 30m avant ? Pas de problèmes avec celui à 50 en bas d’une descente (zone non accidentogène mais très rentable), contrairement à l’école 1km plus loin, à 30 mais sans radars ?



Félicitation !


Pareil, je suis admiratif de ceux qui affirment ne jamais dépasser d’un seul km/h la vmax autorisée. Soit ce sont des robots, soit ce sont des chicanes mobiles, soit ce sont de fieffés menteurs.




Ah ? Ce n’est pas ce que je vois, moi.



Moi mon expérience c’est tout le monde en cruise-control à 80 (y compris lorsque ça change de limitation, ce qui est très pratique pour caler un radar rentable), et des “serial jumpers” qui prennent tous les risques pour doubler , donc 100 et parfois bien plus pour se faire le semi-remorque ou le camion-benne qui se “traine” à 79km/h.



Je vois aussi bien plus de véhicule le cul levé dans le fossé qu’avant. Mais bon, je suis pas en ville / banlieue.


Pareil. Et je vois aussi beaucoup plus de colle-au-cul qu’avant (et pourtant je roule à 80 réels, pas compteur (qui correspond sur ma voiture à 72-73km/h réels)). Avant, c’était exceptionnel, et généralement pour doubler. Maintenant, rares sont les trajets hors agglo où je n’en ai pas un derrière moi.

votre avatar

Avant c’était exceptionnel, généralement pour doubler.
Maintenant rares sont les trajets hors “agglo.”, où je n’en ai pas quelqu’un derrière moi…



ah toi aussi !
“bienvenu au Club” ! :francais:

Suresnes veut détecter les comportements suspects

  • Pas de reconnaissance faciale

  • L'IA VS les « actions inhumaines »

  • Analyser en temps réel sans limites

  • Des militaires à la Quadrature

  • Un long travail sur le plan légal

  • Qu’est-ce qu’un « comportement suspect » ? 

  • Même sans reconnaissance faciale...

  • Un pourcentage de faux-positifs inférieur à 10% 

  • Un risque d'atteinte à l'image

Fermer