Apple poursuivie pour n’avoir pas déployé ses outils de détection de contenus pédocriminels

Le 09 décembre 2024 à 09h18

Le 09 décembre 2024 à 09h18

Commentaires (7)

votre avatar
Autant, il y a mille et une raisons valides de traîner Apple en justice, autant ça…
votre avatar
S'ils gagnent, ça voudrait dire qu'il serait obligatoire d'avoir une backdoor un système de détection de CSAM dans chaque logiciel de messagerie (tous les clients mails, etc) ?
votre avatar
S'ils gagnent, ça voudrait dire que Apple devrait arrêter d'annoncer des fonctionnalités qui ne sont finalement pas livrées. :D
votre avatar
Plus exactement c'est suite à un lever de bouclier, car intrusion au delà du raisonnable dans la vie privée des gens que l'outil n'a pas été deployé.
votre avatar
Ils ont pourtant aussi annoncé que l'annonce annoncée précédemment n'était finalement plus d'actualité. ^^
votre avatar
La raison de la plainte est formulée de manière un peu étrange (sûrement le seul angle d'attaque juridique qu'ils ont trouvé) mais l'article du NYT explique un peu mieux le départ de la plainte. Ils interviewent deux femmes victimes de viols pendant leur enfance et ces viols ont été filmés et ces images ont circulés dans les réseaux pédophiles. Si je comprends bien l'article, à chaque fois que la police arrête une personne en possession de ces images, elles recoivent une notification. Et dans certains de ces cas, les photos/vidéos étaient stockées sur un Iphone. La mise en place de l'outil d'Apple aurait limité la propagation des photos/vidéos des abus dont elles ont été victimes, mais comme Apple a décidé de ne pas le mettre en place, ces victimes attaquent donc Apple.
Ca m'étonnerait que Apple soit condamné vu la plainte, mais je comprends le pourquoi de la plainte.
votre avatar
Je comprends la souffrance des vistimes, cependant avec cette logique tout constructeur de matériels utilisés lors de leur agession pourrait être attaqué.

Apple poursuivie pour n’avoir pas déployé ses outils de détection de contenus pédocriminels

Fermer