Pédophilie : Apple « scanne » les photos de ses clients, Microsoft présente son projet Artemis
Le 10 janvier 2020 à 09h10
2 min
Internet
Internet
La lutte contre la pédophilie n’est pas nouvelle, mais les sociétés du numériques sont régulièrement pressées d’en faire davantage.
Pour cette édition 2020 du CES de Las Vegas, Jane Horvath (responsable des questions de vie privée chez Apple) était présente à une table ronde. Elle est notamment revenue sur le sujet de la pédophilie, comme le rapporte The Telegraph.
Après avoir commencé par rappeler que supprimer ou affaiblir le chiffrement n’était pas sa façon de résoudre les problèmes, elle a explique qu’Apple utilise désormais « certaines technologies pour aider à dépister les contenus pédopornographiques ».
Un peu comme les filtres anti-spam, la société cherche des « signatures électroniques » dans les images, puis les compare à une base de données regroupant les empreintes de contenus pédopornographique.
Jane Horvath ne donne pas plus de détail sur la manière de procéder, mais Apple pourrait utiliser la technologie PhotoDNA, développée par Microsoft et exploitée par de nombreuses sociétés. Les comptes épinglés sont désactivés, mais Apple ne précise pas si ces informations sont transmises aux autorités.
Dans le même temps, Microsoft présente son projet Artemis, un outil permettant d’analyser des conversations en ligne pour y détecter des prédateurs sexuels. Une « note » est attribuée, qui peut ensuite être utilisée pour déterminer quand une conversation doit être vérifiée par un humain.
Le 10 janvier 2020 à 09h10
Commentaires (42)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 10/01/2020 à 10h39
Planquez vous messieurs les pedo-nazi-tueurs-de-bébé-phoques " />
Mais bon, envoyer sur le cloud des photos “sensibles” c’est tendre le bâton (ou autre chose) pour se faire battre. " /> " />
La différence c’est qu’ils disent officiellement qu’ils scannent vos photos.
Pour le bien public, pour le moment.
Mais n’en profitent-ils pas pour tirer d’autres informations à partir de vos photos ?
Genre la piscine à bébé-phoques (pour votre usage personnel) non déclarée au fisc. " />
Le 10/01/2020 à 10h46
Bill2 et vous-même parlez du cloud et dans l’article de The Telegraph cité ici, il est indiqué à la fin comme mise à jour :
“Update January 9, 2020
This story originally said Apple screens photos when they are uploaded to iCloud, Apple’s cloud storage service. Ms Horvath and Apple’s disclaimer did not mention iCloud, and the company has not specified how it screens material, saying this information could help criminals.”
Il se peut alors que ça aille un peu plus loin que la plateforme iCloud…
Le 10/01/2020 à 10h51
On fait une vidéo de ses enfants qui s’amusent dans leur bain et on finit en prison c’est ca?
Le 10/01/2020 à 10h52
Ce qui me fait rire le plus dans ces histoires, comme pour les commentaires YouTube, c’est que beaucoup oubli que les jeunes sont aussi très présent sur le net.
Du coup, bien souvent, les plus gros producteurs et consommateurs de contenu sont… ben les gamins eux-mêmes.
Comme les commentaires sur YouTube étaient majoritairement le fait de gamins et non d’adultes.
Les US étaient en plein dedans en 2018 avec une histoire médiatique qui mettaient l’accent sur la réalité vraie et le manque de “discernement” de la loi.
Des images sont détecté. La personne est recherchée. Un gamin de 13 ans. La gamine dans les photos ? Sa petite amie de 13 ans.
Suivant les lois US, le gamin était poursuivi pour possession et risquait l’inscription dans le fichier des délinquants sexuel.
De l’autre côté, la fille était poursuivi pour possession, production de contenu et diffusion électronique et risquait d’être aussi fiché. Bref, c’est elle qui risquait le plus.
Et ce n’est pas un cas unique, mais c’est celui qui a mit en avant ce problème.
L’autre problème, ce serait aussi qu’un jour le terme “pédophile” soit correctement expliqué. Parce qu’il est mit à toutes les sauces mais dans la majorités des cas les gens ce plantent…
Le 10/01/2020 à 10h55
Le 10/01/2020 à 11h01
Oui, côté moyens techniques, j’ai bien mes idées - celle que tu évoques est sans doute mise en œuvre.
Ce que je veux dire, par rapport à la communication d’Apple, c’est que l’on imagine bien alors que c’est plus qu’une simple comparaison “à une base de données regroupant les empreintes de contenus pédopornographique”.
Le 10/01/2020 à 11h10
Le 10/01/2020 à 11h36
Le 10/01/2020 à 11h42
Dans ce cas je comprends mal comment les services de messagerie d’Apple seraient chiffrés de bout en bout s’il est possible de les scanner pour repérer du contenu pédo.
Dans ce cas pourquoi jouer les chevaliers blancs avec le FBI pour ne pas implémenter de backdoor ?
Surveiller et punir ses utilisateurs sur des contenus qu’on estime inacceptable (la pédophilie) et pas sur d’autres pourtant illégaux comme le terrorisme ou le trafic de drogue serait une sorte de justice privée qui se substitue à la justice d’État.
Le 10/01/2020 à 11h43
Que veux-tu dire ? Je ne comprends pas le sens de ta remarque.
Tu supposes qu’il y a un traitement en local sur l’appareil alors ?
Le 10/01/2020 à 11h51
Combien de temps avant que ce système soit utilisé pour les droits d’auteur ?
Genre tu fais une photo d’un tableau dans un musée, on te supprime ton compte parce que t’avait pas le droit… ou alors si tu filme un concert on te mute la vidéo ?
Combien de temps avant que les États ne demandent à utiliser le système pour censurer les informations ?
Ce genre de traitement des photo privées est totalement inacceptable.
Le 10/01/2020 à 11h56
Le 10/01/2020 à 11h57
Le 10/01/2020 à 12h08
Le 10/01/2020 à 12h10
Merci d’utiliser le terme de pédocriminel et de pédocriminalité en lieu et place de pédophile et pédophilie.
Le 10/01/2020 à 12h10
Le 10/01/2020 à 12h12
Le 10/01/2020 à 12h15
Le 10/01/2020 à 12h37
Le 10/01/2020 à 12h39
Le 10/01/2020 à 12h57
Normalement un service de Cloud ne devrait même pas avoir accès aux contenus, la clé d’encodage des données étant propre à chaque utilisateur.
Le 10/01/2020 à 13h01
Le 10/01/2020 à 13h27
Le 10/01/2020 à 15h15
J’ai pas lu que le compte était bloqué.
Le 10/01/2020 à 19h08
Le 10/01/2020 à 20h18
Le 11/01/2020 à 06h47
Le 11/01/2020 à 08h54
Le 11/01/2020 à 22h39
Mais il y a franchement tant de gens que cela qui utilisent iCloud pour y stocker des contenus pédo-pornographiques ? Il doit y en avoir, oui. Mais ce contenu se trouve et s’achète sur le Dark Web.
Alors aller ensuite mettre ça sur un compte iCloud, je trouve ça d’une bêtise sans nom. Il doit y en avoir, de ces cas, mais ça doit être tout de même marginal.
Le 12/01/2020 à 09h47
Le 12/01/2020 à 09h56
Le 12/01/2020 à 09h57
Le 12/01/2020 à 10h01
Le 12/01/2020 à 12h12
Le 12/01/2020 à 12h55
Le 12/01/2020 à 16h14
Le 12/01/2020 à 18h40
Le 10/01/2020 à 10h03
On imagine bien qu’il y a un peu plus qu’une simple comparaison d’empreint sinon comment détecter le nouveau contenu pédoporno ?
Le 10/01/2020 à 10h15
Euh ? Apple scanne les photos des gens comme ça leur chante, ou ils demandent l’autorisation ?
Le 10/01/2020 à 10h18
Le 10/01/2020 à 10h19
Et il se passe quoi sur les faux positifs ?
Le compte est bloqué et aucun moyen de récupérer ses autres photos ?
Super … vive le cloud …
Le 10/01/2020 à 10h31