Apple poursuivie pour n’avoir pas déployé ses outils de détection de contenus pédocriminels
Le 09 décembre à 09h18
1 min
Société numérique
Société
Apple est poursuivie en justice par des victimes de pédocriminalité pour n’avoir pas déployé les outils de détection des contenus d’agression sexuelle sur mineurs (Child sexual abuse material, CSAM) dans iCloud, contrairement à ce qu’elle avait annoncé.
En 2021, l’entreprise avait en effet déclaré travailler à un outil capable de signaler les contenus problématiques au National Center for Missing and Exploited Children (NCMEC).
Sévèrement critiquée pour les implications d’un tel outil sur la vie privée des internautes, elle avait finalement renoncé à son projet.
D’après le New-York Times, la plainte indique qu’en conséquence, Apple aurait vendu des produits défectueux à une catégorie de clients – les mineurs victimes d’agression sexuelle.
Le groupe de 2 680 victimes éligibles pour rejoindre la plainte cherche à obtenir plus de 1,2 milliard de dollars de compensation.
Fin juillet, la National Society for the Prevention of Cruelty to Children (NSCPCC, société nationale de prévention de la cruauté envers les enfants) britannique avait déjà accusé Apple de manquer à ses obligations de signalement des contenus CSAM.
Le 09 décembre à 09h18
Commentaires (7)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 09/12/2024 à 09h44
Le 09/12/2024 à 09h47
une backdoorun système de détection de CSAM dans chaque logiciel de messagerie (tous les clients mails, etc) ?Le 09/12/2024 à 10h58
Le 09/12/2024 à 13h53
Le 09/12/2024 à 14h24
Le 09/12/2024 à 10h02
Ca m'étonnerait que Apple soit condamné vu la plainte, mais je comprends le pourquoi de la plainte.
Le 09/12/2024 à 13h55