Un logiciel pour prédire si quelqu’un est criminel à partir d’une photo de son visage
Le 07 mai 2020 à 09h59
2 min
Logiciel
Logiciel
Un groupe de chercheurs de l'Université américaine privée à but non lucratif de Harrisburg affirme avoir développé un logiciel automatisé de reconnaissance faciale capable de prédire, « avec une précision de 80% et sans biais racial, si quelqu'un est un criminel uniquement sur la base d'une image de son visage »...
Leur communiqué, qui avait commencé à être partagé sur Twitter, a poussé l'université à le le retirer « pour répondre aux préoccupations soulevées ». Il reste néanmoins disponible via archive.org).
« Nous savons déjà que les techniques d'apprentissage automatique peuvent surpasser les humains sur une variété de tâches liées à la reconnaissance faciale et à la détection des émotions », expliquait le professeur Roozbeh Sadeghian, spécialiste de la reconnaissance... vocale. « Cette recherche montre à quel point ces outils sont puissants en montrant qu'ils peuvent extraire de minuscules fonctionnalités dans une image qui sont hautement prédictives de la criminalité ».
« En automatisant l'identification des menaces potentielles sans parti pris, notre objectif est de produire des outils pour la prévention du crime, l'application de la loi et les applications militaires qui sont moins touchés par les biais implicites et les réponses émotionnelles », déclarait pour sa part le professeur de psychologie Nathaniel JS Ashby qui, lui, étudie les processus influant la prise de décision et comment faire de meilleurs choix en présentant des informations dans un format adapté aux capacités cognitives, notamment grâce au tracking oculaire.
« Le développement de machines capables d'exécuter des tâches cognitives, telles que l'identification de la criminalité d'une personne à partir de son image faciale, offrira un avantage significatif aux forces de l'ordre et à d'autres services de renseignement pour empêcher la criminalité de se produire dans leurs zones désignées », précisait le doctorant Jonathan W. Korn, par ailleurs vétéran de la police de New York.
L'étude, intitulée « Un modèle de réseau neuronal profond pour prédire la criminalité à l'aide du traitement d'image », n'a pas été publiée à ce jour, mais devait initialement paraître chez Springer.
Le 07 mai 2020 à 09h59
Commentaires (67)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 08/05/2020 à 14h10
Il n’y a pas eu seulement des “études psy”. La France a été condamné lourdement pour des délits de faciès.
http://www.leparisien.fr/societe/l-etat-definitivement-condamne-pour-des-control…
Le 08/05/2020 à 14h34
Genre le cabinet d’avocats Sarkozy, qui a mis en place la fraude fiscal de son ami voleur Balkany, et qui aujourd’hui conseil le président de la république actuel " />
Le 08/05/2020 à 15h15
meh, suffit juste de passer tout les politicards à l’algo =) et les fonds seront supprimés.
Bon évidemment c’est d’une débilité sans fond, d’abord le collage d’une étiquette pareille, ensuite la gueule ? wtf =), enfin on peut tout à fait être criminel et irresponsable pénalement, quand on tue quelqu’un pour se défendre par ex. Bref de la com et de la com.
Le 08/05/2020 à 16h21
Entièrement d’accord avec tout ça. " />
Le 08/05/2020 à 16h22
Un bon exemple parmi tant d’autres… " />
“Faites ce que je dis mais surtout pas ce que je fais”… " />
Le 08/05/2020 à 16h34
Le 08/05/2020 à 18h56
Ok sur le côté statistique : dans quasi tous les pays les minorités ont toujours plus de mal à accéder à la prospérité, donc plus de proba de virer criminel, MAIS, et c’est un gros mais, ça reste des fractions faibles de la population, donc, même en admettant un taux multiplié par deux de criminels chez une minorité, je vois mal (enfin, si, les chercheurs sont tellement fous de l’IA qu’ils font n’importe quoi avec pour essayer d’avoir des financements) comment on passe de “si je vois [telle minorité], j’ai x% en plus de chance que ce soit un criminel” à “je détecte le criminel à la tête du client”. Si c’était aussi simple, il ne serait pas difficile aux services de renseignements et de sécurité de détecter et arrêter terroristes et criminels. Malencontreusement pour ce genre de thèse foireuse, c’est loin d’être aussi simple.
Le 09/05/2020 à 09h08
“C’était le genre de mec patibulaire tu vois, mais presque !.
…
Axecousi-moi, passe qui j’y perdi mou papier d’identiti.
….
J’y ai dit : - “Ouais ! Vous avez vos papiers ?”.
Il les avait pas !
J’te l’ai emmené au commissariat !
“
;)
Le 07/05/2020 à 08h59
#precrime
Le 07/05/2020 à 09h03
Les précogs vont se retrouver au chômage.
Vite… une taxe sur cette technologie !!! " />
Le 07/05/2020 à 09h04
Les infos dispo sur archive.org sont limitées, ça compare le visage à une bdd de types fichés ou c’est littéralement une IA spécialisée en délit de faciès ?
Le 07/05/2020 à 09h07
Une nouvelle forme de Phrénologie ?
Le 07/05/2020 à 09h07
Y avait pas un truc vaguement dans le même genre lors de la seconde guerre mondiale?
Le 07/05/2020 à 09h08
Je vois pas du tout comment ça pourrait mal tourner cette histoire :eyeroll:
Avec un taux de reconnaissance de seulement 80% j’espère que ce ne sera utilisé que pour de la guidance et rien de plus
Le 07/05/2020 à 09h10
Prédire la criminalité???
Genre, dans le futur ? Ou juste vérifier qu’une personne n’est pas recherchée?
Philip K. Dick est visionnaire. " />
Le 07/05/2020 à 09h12
Ca dépend de la définition de “criminel”, si c’est quiconque ne respecte pas toutes les lois, je peux avoir une précision de 100% " />
Le 07/05/2020 à 09h14
Pas de source, pas de publication scientifique -> Poubelle
Le 07/05/2020 à 09h21
On me dit dans l’oreillette que la base de données vient des personnalités mondiales du monde politique… " />
Le 07/05/2020 à 09h28
J’ai l’impression qu’il n’y a qu’a reprendre l’appli de Pierre Emmanuel Barré et la renommer.
Le 07/05/2020 à 09h36
Comment peut-on prédire la criminalité ??
Le 07/05/2020 à 09h41
Avec ma sale gueule, je suis détecté à coup sûr.
Le 07/05/2020 à 09h44
Le 07/05/2020 à 09h49
A Deep Neural Network Model to Predict Criminality Using Image Processing
Prédire (en science) c’est trouver la prochaine valeur d’une séquence.
Les réseaux neuraux ne servent à rien pour faire de la prédiction: ils servent à faire de la classification.
Un titre plus proche de la réalité serait donc:
“A Deep Neural Network Model to classify faces in 2 classes: probable criminal and probable non-criminal”
Le titre actuel de leur “recherche” c’est du bullshit pour faire le buzz => poubelle.
Le 07/05/2020 à 09h59
Pas de source, pas de publication scientifique -> C’est une news ça ? Ça vaut le coup de la mettre dans le brief ?
Le 07/05/2020 à 09h59
Quelqu’un leur a parlé de la présomption d’innocence ?
Le 07/05/2020 à 10h00
On prend les gosses à 10 ans, on utilise un algo de vieillissement (c’est répandu) et ensuite on applique ce truc.
Comme ça on pourra presque enfin appliquer l’adage “les vieux (criminels) il faudrait les tuer à la naissance” 🙃
Le 07/05/2020 à 10h09
Le 07/05/2020 à 10h10
Dans les films surtout US les méchants ont une tête de méchant.. à 80% " />
Le 07/05/2020 à 10h15
Ah, oui!! Ils ont une moustache.
Le 07/05/2020 à 10h20
Avec ma barbe et moustache de 2 mois, ils vont m’arrêter directe.😅
Le 07/05/2020 à 10h51
Ça c’est du délit de faciès dans toute sa splendeur…
Le 07/05/2020 à 11h07
Super, le Délit de Sale Gueule !
Le 07/05/2020 à 11h08
Une terriblement vieille forme de Physiognomonie plus précisément…
Le 07/05/2020 à 11h13
" /> pas mal
Le 07/05/2020 à 11h26
Le 07/05/2020 à 11h29
Calvin Candie sort de ce corps :)
Le 07/05/2020 à 11h30
ou un chapeau, des bottes et des colts.
Le 07/05/2020 à 11h49
Sarko en avait rêvé, Estrosi va l’adopter.
Le 07/05/2020 à 11h56
if color = black then
is_criminal = true;
end if;
" />
Le 07/05/2020 à 12h06
Le 07/05/2020 à 12h08
Le 07/05/2020 à 12h09
" />
C’est juste plus compliqué a retenir, voire a prononcer " />
Le 07/05/2020 à 12h42
Donc, une techno sans biais, sans parti pris à base de deep learning… Sur rien de plus que l’apparence physique… Non mais sérieux, c’est exactement la définition du biais et du parti pris.
Le 07/05/2020 à 13h20
Le 07/05/2020 à 13h23
Bof… ça fait longtemps que ça existe, et ça dépasse largement le seul cadre de “criminel”. Ca, par exemple, permet de prédire ta chance du jour, de la semaine, du mois, de l’année en amour, au travail, avec l’argent.
Je trouve ce truc très limité en fait…
" />
Le 07/05/2020 à 13h23
C’est le bertillonage 2.0, on n’arrête pas le progrès " />
Le 07/05/2020 à 14h03
« avec une précision de 80% et sans biais racial, si quelqu’un est un criminel uniquement sur la base d’une image de son visage »
Que vaut un petit 20% d’erreurs judiciaires face à l’utopie sécuritaire que nous promet ce logiciel ? Je ne vois vraiment pas comment on peut s’opposer à ce genre de technologie avant-gardiste si on n’a rien à se reprocher.
" />
Le 07/05/2020 à 14h28
Et leur logiciel conclu quoi devant un discours convulsif de Sarkozy, ou devant un discours néolibéral de Macron? " />
Le 07/05/2020 à 14h33
Le 07/05/2020 à 14h41
“Il arrive un mec qui tournait autour de moi avec un papelard.
On aurait dit qu’y cherchait une rue ou quèque chose.
Il osait pas s’adresser à moi, on aurait dit qu’il avait peur !
Voyez le genre ? Un type louche, un peu basané, voyez…
Parce qu’on nous apprend à r’connaître les mecs louches, attention !
C’lui-là si vous voulez il
était pas franchement louche mais était franchement basané !”
Franchement, y a pas besoin d’un logiciel pour ça " />
Le 07/05/2020 à 14h51
Est-ce que ça pourra servir pour faire des castings automatisés de bad guys pour les films..?
Ce serait top pour s’éviter des méchants pas crédibles. " />
Le 07/05/2020 à 15h04
On aurait pu arrêter le Jocker dés le début du film.
a moins qu’il fasse partie des 20% non détectés ? hmm…
Le 07/05/2020 à 17h00
Comment cela pourrait-il mal tourner ?
Les délinquants et criminels ont TOUJOURS les mêmes têtes. Il y a des traits particuliers qui ne trompent pas. On peut dire que quelqu’un est mauvais juste en voyant son visage.
Vous n’avez jamais vu les méchants dans les films ? On les reconnaît au premier coup d’oeil, alors comment une IA pourrait ne pas y parvenir ?
" />
Le 07/05/2020 à 18h42
Prochaine étape, la prévision de la prochaine crise d’hémorroïde après photo du trou de balle. " />
Le 07/05/2020 à 19h22
Le 07/05/2020 à 19h23
Que signifie ce commentaire ?
Le 07/05/2020 à 20h03
Je sais pas si c’est vrai, mais vu ce qu’ils disent et le ton employé, à aucun moment ils n’ont l’air de tilter du problème d’inventer un truc pareil. Il a fallu que ce soit l’université qui s’en rende compte. Les chercheurs ne sont pas censés être des spécialistes en éthique, mais il y a un minimum quand-même.
Science sans conscience n’est que ruine de l’âme.
Le 07/05/2020 à 23h42
Le 08/05/2020 à 05h21
Pour certains “chercheurs” qui voudraient détecter des vrais gros connards, pas besoin de caméra, il leur suffit de se mettre devant un miroir. " />
Le 08/05/2020 à 07h27
Faudrait essayer avec une photo de Kylo Ren
Le 08/05/2020 à 08h36
Le 08/05/2020 à 08h48
Le 08/05/2020 à 09h22
Il y a aussi les délinquants “haut de gamme” qui sont bien blancs, bien propres sur eux, bien vus par plein de gens et qui se permettent même de donner des leçons de morale à tout le monde tout en piochant allègrement dans les caisses de l’état pour leur petit confort personnel…
Mais ceux-là faut pas y toucher car c’est la “zélite” (souvent auto-proclamée comme telle).
Je ne donne pas de nom, chacun reconnaîtra de qui je veux parler, enfin je suppose car ce ne sont pas les exemples qui manquent… " />
Le 08/05/2020 à 09h22
ça existe déjà aux états unis : par exemple si le type est noir. Non sérieux faut revoir Minority Report
Le 08/05/2020 à 09h39
Il y a des exemples assez récents qui se sont passés aux US :
Un mec qui avait flingué plusieurs noirs dans une église a été arrêté par les flics qui lui ont payé un burger car le mec n’avait pas eu le temps de bouffer avant la tuerie, bien sûr c’était un blanc.
Peu de tant après, un noir a eu le malheur de brandir un smartphone devant des flics, il s’est pris une vingtaine de balles dans la peau…
Quel beau pays !!
Et ça semble être de pire en pire… " />
Le 08/05/2020 à 09h57
Déjà, ça veut dire quoi “être criminel” ? Si on a commis un crime une fois dans sa vie, on est toute sa vie un criminel ? Autant leur faire porter un tatouage sur le front à ce moment là…
Et puis, ça veut dire quoi une précision de 80% ? Qu’il y a 20 % de faux positifs (non-criminels identifiés comme criminels) ou de faux négatifs (criminels identifiés comme non-criminels) ? C’est juste énorme 20% d’erreur ! Faisons un peu de maths (c’est le confinement, je m’ennuie !) : admettons qu’il y a 10% de criminels dans la population, et que les 2 taux sont de 20%. Tu vas avoir différents cas :
Donc si tu fais passer le test au hasard à n’importe qui dans la rue, tu vas avoir 26% de gens identifiés comme criminels, mais dans le lot, il y en aura qu’environ un tiers (8⁄26 = 31%) qui seront vraiment des criminels ! Autant dire que ce test ne sert à rien avec un taux de détection à ce niveau !
Et on peut être sûr qu’un policier de base, il va pas prendre en compte tout ça, si la machine lui dit que c’est un criminel, c’est un criminel ! Ils feraient mieux de dépenser de l’argent dans les trucs qui permettent vraiment de faire baisser la criminalité : au hasard, donner des perspectives de vies (emploi, formation, prestations sociales, etc…).
Le 08/05/2020 à 10h04