Connexion
Abonnez-vous

Apple poursuivie pour n’avoir pas déployé ses outils de détection de contenus pédocriminels

Le 09 décembre à 09h18

Apple est poursuivie en justice par des victimes de pédocriminalité pour n’avoir pas déployé les outils de détection des contenus d’agression sexuelle sur mineurs (Child sexual abuse material, CSAM) dans iCloud, contrairement à ce qu’elle avait annoncé. 


En 2021, l’entreprise avait en effet déclaré travailler à un outil capable de signaler les contenus problématiques au National Center for Missing and Exploited Children (NCMEC). 


logo apple

Sévèrement critiquée pour les implications d’un tel outil sur la vie privée des internautes, elle avait finalement renoncé à son projet.

D’après le New-York Times, la plainte indique qu’en conséquence, Apple aurait vendu des produits défectueux à une catégorie de clients – les mineurs victimes d’agression sexuelle.

Le groupe de 2 680 victimes éligibles pour rejoindre la plainte cherche à obtenir plus de 1,2 milliard de dollars de compensation.

Fin juillet, la National Society for the Prevention of Cruelty to Children (NSCPCC, société nationale de prévention de la cruauté envers les enfants) britannique avait déjà accusé Apple de manquer à ses obligations de signalement des contenus CSAM.

Le 09 décembre à 09h18

Commentaires (7)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
Autant, il y a mille et une raisons valides de traîner Apple en justice, autant ça…
votre avatar
S'ils gagnent, ça voudrait dire qu'il serait obligatoire d'avoir une backdoor un système de détection de CSAM dans chaque logiciel de messagerie (tous les clients mails, etc) ?
votre avatar
S'ils gagnent, ça voudrait dire que Apple devrait arrêter d'annoncer des fonctionnalités qui ne sont finalement pas livrées. :D
votre avatar
Plus exactement c'est suite à un lever de bouclier, car intrusion au delà du raisonnable dans la vie privée des gens que l'outil n'a pas été deployé.
votre avatar
Ils ont pourtant aussi annoncé que l'annonce annoncée précédemment n'était finalement plus d'actualité. ^^
votre avatar
La raison de la plainte est formulée de manière un peu étrange (sûrement le seul angle d'attaque juridique qu'ils ont trouvé) mais l'article du NYT explique un peu mieux le départ de la plainte. Ils interviewent deux femmes victimes de viols pendant leur enfance et ces viols ont été filmés et ces images ont circulés dans les réseaux pédophiles. Si je comprends bien l'article, à chaque fois que la police arrête une personne en possession de ces images, elles recoivent une notification. Et dans certains de ces cas, les photos/vidéos étaient stockées sur un Iphone. La mise en place de l'outil d'Apple aurait limité la propagation des photos/vidéos des abus dont elles ont été victimes, mais comme Apple a décidé de ne pas le mettre en place, ces victimes attaquent donc Apple.
Ca m'étonnerait que Apple soit condamné vu la plainte, mais je comprends le pourquoi de la plainte.
votre avatar
Je comprends la souffrance des vistimes, cependant avec cette logique tout constructeur de matériels utilisés lors de leur agession pourrait être attaqué.

Apple poursuivie pour n’avoir pas déployé ses outils de détection de contenus pédocriminels

Fermer