Pédophilie : Apple « scanne » les photos de ses clients, Microsoft présente son projet Artemis
Le 10 janvier 2020 à 09h10
2 min
Internet
La lutte contre la pédophilie n’est pas nouvelle, mais les sociétés du numériques sont régulièrement pressées d’en faire davantage.
Pour cette édition 2020 du CES de Las Vegas, Jane Horvath (responsable des questions de vie privée chez Apple) était présente à une table ronde. Elle est notamment revenue sur le sujet de la pédophilie, comme le rapporte The Telegraph.
Après avoir commencé par rappeler que supprimer ou affaiblir le chiffrement n’était pas sa façon de résoudre les problèmes, elle a explique qu’Apple utilise désormais « certaines technologies pour aider à dépister les contenus pédopornographiques ».
Un peu comme les filtres anti-spam, la société cherche des « signatures électroniques » dans les images, puis les compare à une base de données regroupant les empreintes de contenus pédopornographique.
Jane Horvath ne donne pas plus de détail sur la manière de procéder, mais Apple pourrait utiliser la technologie PhotoDNA, développée par Microsoft et exploitée par de nombreuses sociétés. Les comptes épinglés sont désactivés, mais Apple ne précise pas si ces informations sont transmises aux autorités.
Dans le même temps, Microsoft présente son projet Artemis, un outil permettant d’analyser des conversations en ligne pour y détecter des prédateurs sexuels. Une « note » est attribuée, qui peut ensuite être utilisée pour déterminer quand une conversation doit être vérifiée par un humain.
Le 10 janvier 2020 à 09h10
Commentaires (42)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 10/01/2020 à 10h03
#1
On imagine bien qu’il y a un peu plus qu’une simple comparaison d’empreint sinon comment détecter le nouveau contenu pédoporno ?
Le 10/01/2020 à 10h15
#2
Euh ? Apple scanne les photos des gens comme ça leur chante, ou ils demandent l’autorisation ?
Le 10/01/2020 à 10h18
#3
Le 10/01/2020 à 10h19
#4
Et il se passe quoi sur les faux positifs ?
Le compte est bloqué et aucun moyen de récupérer ses autres photos ?
Super … vive le cloud …
Le 10/01/2020 à 10h31
#5
Le 10/01/2020 à 10h39
#6
Planquez vous messieurs les pedo-nazi-tueurs-de-bébé-phoques " />
Mais bon, envoyer sur le cloud des photos “sensibles” c’est tendre le bâton (ou autre chose) pour se faire battre. " /> " />
La différence c’est qu’ils disent officiellement qu’ils scannent vos photos.
Pour le bien public, pour le moment.
Mais n’en profitent-ils pas pour tirer d’autres informations à partir de vos photos ?
Genre la piscine à bébé-phoques (pour votre usage personnel) non déclarée au fisc. " />
Le 10/01/2020 à 10h46
#7
Bill2 et vous-même parlez du cloud et dans l’article de The Telegraph cité ici, il est indiqué à la fin comme mise à jour :
“Update January 9, 2020
This story originally said Apple screens photos when they are uploaded to iCloud, Apple’s cloud storage service. Ms Horvath and Apple’s disclaimer did not mention iCloud, and the company has not specified how it screens material, saying this information could help criminals.”
Il se peut alors que ça aille un peu plus loin que la plateforme iCloud…
Le 10/01/2020 à 10h51
#8
On fait une vidéo de ses enfants qui s’amusent dans leur bain et on finit en prison c’est ca?
Le 10/01/2020 à 10h52
#9
Ce qui me fait rire le plus dans ces histoires, comme pour les commentaires YouTube, c’est que beaucoup oubli que les jeunes sont aussi très présent sur le net.
Du coup, bien souvent, les plus gros producteurs et consommateurs de contenu sont… ben les gamins eux-mêmes.
Comme les commentaires sur YouTube étaient majoritairement le fait de gamins et non d’adultes.
Les US étaient en plein dedans en 2018 avec une histoire médiatique qui mettaient l’accent sur la réalité vraie et le manque de “discernement” de la loi.
Des images sont détecté. La personne est recherchée. Un gamin de 13 ans. La gamine dans les photos ? Sa petite amie de 13 ans.
Suivant les lois US, le gamin était poursuivi pour possession et risquait l’inscription dans le fichier des délinquants sexuel.
De l’autre côté, la fille était poursuivi pour possession, production de contenu et diffusion électronique et risquait d’être aussi fiché. Bref, c’est elle qui risquait le plus.
Et ce n’est pas un cas unique, mais c’est celui qui a mit en avant ce problème.
L’autre problème, ce serait aussi qu’un jour le terme “pédophile” soit correctement expliqué. Parce qu’il est mit à toutes les sauces mais dans la majorités des cas les gens ce plantent…
Le 10/01/2020 à 10h55
#10
Le 10/01/2020 à 11h01
#11
Oui, côté moyens techniques, j’ai bien mes idées - celle que tu évoques est sans doute mise en œuvre.
Ce que je veux dire, par rapport à la communication d’Apple, c’est que l’on imagine bien alors que c’est plus qu’une simple comparaison “à une base de données regroupant les empreintes de contenus pédopornographique”.
Le 10/01/2020 à 11h10
#12
Le 10/01/2020 à 11h36
#13
Le 10/01/2020 à 11h42
#14
Dans ce cas je comprends mal comment les services de messagerie d’Apple seraient chiffrés de bout en bout s’il est possible de les scanner pour repérer du contenu pédo.
Dans ce cas pourquoi jouer les chevaliers blancs avec le FBI pour ne pas implémenter de backdoor ?
Surveiller et punir ses utilisateurs sur des contenus qu’on estime inacceptable (la pédophilie) et pas sur d’autres pourtant illégaux comme le terrorisme ou le trafic de drogue serait une sorte de justice privée qui se substitue à la justice d’État.
Le 10/01/2020 à 11h43
#15
Que veux-tu dire ? Je ne comprends pas le sens de ta remarque.
Tu supposes qu’il y a un traitement en local sur l’appareil alors ?
Le 10/01/2020 à 11h51
#16
Combien de temps avant que ce système soit utilisé pour les droits d’auteur ?
Genre tu fais une photo d’un tableau dans un musée, on te supprime ton compte parce que t’avait pas le droit… ou alors si tu filme un concert on te mute la vidéo ?
Combien de temps avant que les États ne demandent à utiliser le système pour censurer les informations ?
Ce genre de traitement des photo privées est totalement inacceptable.
Le 10/01/2020 à 11h56
#17
Le 10/01/2020 à 11h57
#18
Le 10/01/2020 à 12h08
#19
Le 10/01/2020 à 12h10
#20
Merci d’utiliser le terme de pédocriminel et de pédocriminalité en lieu et place de pédophile et pédophilie.
Le 10/01/2020 à 12h10
#21
Le 10/01/2020 à 12h12
#22
Le 10/01/2020 à 12h15
#23
Le 10/01/2020 à 12h37
#24
Le 10/01/2020 à 12h39
#25
Le 10/01/2020 à 12h57
#26
Normalement un service de Cloud ne devrait même pas avoir accès aux contenus, la clé d’encodage des données étant propre à chaque utilisateur.
Le 10/01/2020 à 13h01
#27
Le 10/01/2020 à 13h27
#28
Le 10/01/2020 à 15h15
#29
J’ai pas lu que le compte était bloqué.
Le 10/01/2020 à 19h08
#30
Le 10/01/2020 à 20h18
#31
Le 11/01/2020 à 06h47
#32
Le 11/01/2020 à 08h54
#33
Le 11/01/2020 à 22h39
#34
Mais il y a franchement tant de gens que cela qui utilisent iCloud pour y stocker des contenus pédo-pornographiques ? Il doit y en avoir, oui. Mais ce contenu se trouve et s’achète sur le Dark Web.
Alors aller ensuite mettre ça sur un compte iCloud, je trouve ça d’une bêtise sans nom. Il doit y en avoir, de ces cas, mais ça doit être tout de même marginal.
Le 12/01/2020 à 09h47
#35
Le 12/01/2020 à 09h56
#36
Le 12/01/2020 à 09h57
#37
Le 12/01/2020 à 10h01
#38
Le 12/01/2020 à 12h12
#39
Le 12/01/2020 à 12h55
#40
Le 12/01/2020 à 16h14
#41
Le 12/01/2020 à 18h40
#42