Pédopornographie : Apple s’explique, mais la colère et les craintes restent

Rien à craindre ? Alors rien à cacher

Pédopornographie : Apple s'explique, mais la colère et les craintes restent

Le 12 août 2021 à 15h28

Commentaires (55)

votre avatar

Et bien c’est très bien et je suis pour et j’espère qu’Android va faire de même. Car c’est trop terrible l’abus sexuel des enfants

votre avatar

Sachant que si j’abuse des enfants du voisinage et que je partage les photos avec quelqu’un à l’autre bout du pays/monde, comme les photos que j’aurais prises ne seront pas dans la base, le système ne verra rien.
Je serais curieux de connaitre le % de gens qui stockent des photos interdites connues sur leur phone/iCloud par rapport à ceux qui font ça en mode déconnecté et/ou alimentent les réseaux avec du contenu frais.
Et la vitesse à laquelle les ONG incorporent les nouvelles photos à leur base pour les détecter.



Je ne dis pas qu’il ne faut rien faire, juste que le solutionnisme technologique n’est pas la bonne réponse.



Et même si le cadre de la loi empêche l’extension à d’autres contenus, POUR LE MOMENT, un cadre législatif ça évolue, et les parlementaires savent retourner leur veste.



Je vous laisse faire la liste des “non, non on fera jamais” de nos politiques qui ne sont restés que des belles paroles.



Oui, je suis méfiant, non je ne pense pas être complotiste, juste que mon capital confiance s’est lentement érodé face à leurs (in)actions.

votre avatar

behemothe a dit:


Et bien c’est très bien et je suis pour et j’espère qu’Android va faire de même. Car c’est trop terrible l’abus sexuel des enfants


Et puis demain un état x dira de plugger la bdd sur la leurs et Apple ne pourra pas dire que c’est techniquement pas réalisable…

votre avatar

Très bien qu’ils se prennent des volées de bois vert.

votre avatar

don’t feed the easy :troll:

votre avatar

S’il fallait encore une démonstration des risques et dérives de la centralisation des outils et de leur usage.

votre avatar

Maintenant ce que je me demande c’est pourquoi ils n’ont pas poussé la prévention des parents en promettant du E2E puis sur iOS 16 proposer CSAM avec le E2E pour faire taire les politiques US
J’ai beau ne pas être contre leur implémentation même moi je me serais douté qu’une pilule aussi grosse cela passerait pas sans casse

votre avatar

Macqael a dit:


Maintenant ce que je me demande c’est pourquoi ils n’ont pas poussé la prévention des parents en promettant du E2E puis sur iOS 16 proposer CSAM avec le E2E pour faire taire les politiques US J’ai beau ne pas être contre leur implémentation même moi je me serais douté qu’une pilule aussi grosse cela passerait pas sans casse


Pt être parce que la plupart des pédophiles sont les parents eux mêmes ?

votre avatar

En gros les pédophiles utiliseront plutôt un appareil photo classique et uploaderont depuis un PC sous WIndows/Linux vers un logiciel de communication moins curieux genre… Whatsapp.



Oups, je viens d’expliquer comment contourner leur nouvelle fonctionnalité, donc Je précise que c’est à but éducatif, n’est-ce pas :D



Blague à part, il est évident que c’est pour traquer tout à chacun dans le futur dans tout domaine que ce soit, vu qu’il est aisé de passer outre cette première ébauche. La tactique de la grenouille dans la marmite… Si Apple n’a pas cela comme objectif, alors les nouvelles générations de développeurs sont encore plus CONS que je ne le pensais, ce qui m’étonnerait beaucoup.

votre avatar

TheKillerOfComputer a dit:


En gros les pédophiles utiliseront plutôt un appareil photo classique et uploaderont depuis un PC sous WIndows/Linux vers un logiciel de communication moins curieux genre… Whatsapp.



Oups, je viens d’expliquer comment contourner leur nouvelle fonctionnalité, donc Je précise que c’est à but éducatif, n’est-ce pas :D



Blague à part, il est évident que c’est pour traquer tout à chacun dans le futur dans tout domaine que ce soit, vu qu’il est aisé de passer outre cette première ébauche. La tactique de la grenouille dans la marmite… Si Apple n’a pas cela comme objectif, alors les nouvelles générations de développeurs sont encore plus CONS que je ne le pensais, ce qui m’étonnerait beaucoup.


Mouais perso j’y crois pas, dit moi ils ont quoi a y gagner Apple dans l’histoire ?, car dans ton scénario de film B il manque le mobile du crime…




Drepanocytose a dit:


Pt être parce que la plupart des pédophiles sont les parents eux mêmes ?


Ahah, je sais pas mais venant de la part d’Apple il aurait du s’en douté que ca passerait mal (et pourtant je suis pas contre le système) alors les intégristes de la vie privé c’est évident que ca allais coincé.

votre avatar

TheKillerOfComputer a dit:


En gros les pédophiles utiliseront plutôt un appareil photo classique et uploaderont depuis un PC sous WIndows/Linux vers un logiciel de communication moins curieux genre… Whatsapp.


Il y avais eu un article un jour, je sais plus si c’était ici ou pas, qui expliquait que les pédophiles se connectaient en TSE à des serveurs distant pour voir les images (et les flims) sans que par définition il ne puisse y avoir de trace locale (puisque seule l’image de l’écran est envoyé).
Ces serveurs étant hébergés dans des pays où la législation et les …. coutumes en matière de pédopornographie sont , disons, moins sévère (Yemen par exemple).



J’avoue que ce système de CSAM me parait incohérent : Déjà comme dit plus haut ça ne concerne que des images déjà connues. Ensuite cette base est donc voué à grossir sans cesse, impactant les performance & la mémoire des appareils.
Plus il y aura de photos, plus il y aura le risque d’un faux positif. Or , Apple dit eux même que la loi les obliges à signaler toute “photo pédo”.
Mais quand la base de donnée sera étendue à autre chose (on peux imaginer des photos de blasphème, plus grave dans certains pays que la pédopornographie, mais aussi des caricatures, du terrorisme, …. et , à terme, nos chers ayants-droit qui sont à l’affût avec leur “pourquoi pas nous”)

votre avatar

Je ne suis pas un spécialiste mais les lois actuelles américaines ne permettent pas justement d’ajouter dans cette base de données tous ce que les services à 3 lettres veulent sans que la pomme n’y ai à redire quoi que ce soit et sans qu’elle est le droit d’en parler ?



Ou ils pourraient directement forcer légalement le NCMEC ou une des autres organisations de protection des enfants à coopérer.

votre avatar

Personne en parle mais c’est légal qu’Apple active un scan de mes photos sans mon consentement ?

votre avatar

Deuxièmement, la détection de contenus pédopornographiques ne se fait que sur les appareils qui ont activé la sauvegarde iCloud, et plus particulièrement iCloud Photos. Si des personnes ont coupé la fonction et se servent d’un autre type de sauvegarde ou même n’en font pas, rien ne se passera.


Le scan est obligatoire si tu utilise les servers Apple pour stocker le contenu. Vu que le server appartient à Apple ça me semble légal de leur part d’ajouter ça dans leurs conditions d’utilisation.

votre avatar

Macqael a dit:


Mouais perso j’y crois pas, dit moi ils ont quoi a y gagner Apple dans l’histoire ?, car dans ton scénario de film B il manque le mobile du crime…


Ça permet de scanner pour ses propres besoins de profiling publicitaire, si on adapte la chose…



Mais restons à aujourd’hui dans ce cas : Apple vient de concevoir rien de moins qu’un framework. Pour l’instant c’est limité aux USA, mais demain ? Si la Chine exige la même chose sous peine de se voir bloquer le marché national si ce n’est pas réalisé, Apple devient subitement compatible car le travail est fait, il faudra juste quelques ajustements à la marge.



Alors oui selon l’article, Apple prétend qu’il refusera toute demande gouvernementale, sauf que c’est aussi indiqué que ce n’est pas lui qui gère les listes des empreintes… et il faudra nécessairement des listes locales en fonction du pays qui exigera la mise en service.



Il y a aussi potentiellement la volonté d’être compatible avec la législation… européenne à venir, à commencer par Chat Control, dont je ne serai pas étonné si ça devient obligatoire un jour bien que pour l’instant il s’agirait de permettre temporairement… Apple n’aura aucun mal à adapter son framework si c’est requis.



D’un côté, on ne peut pas lui reprocher de vouloir s’adapter aux marchés où il est présent. De l’autre, c’est un dangereux et inexcusable précédent.

votre avatar

Seule une minorité de personnes peut débattre de la justesse technique
de la solution adoptée….



voila, le ton est donné !
“et les autres……” :langue:

votre avatar

La pédophilie ?
Seulement ?



Et pourquoi ne pas aussi scanner les photos de terrorisme.



Les photos antivax.



Les fake news.



Les photos avec droit d’auteur.



Les photos religieuses.



Les photos ostentatoires.



Les photos d’art.



Les photos non conformes au dogme gouvernementale



Je vous laisse continuer la liste.

votre avatar

Hugues1337 a dit:


Personne en parle mais c’est légal qu’Apple active un scan de mes photos sans mon consentement ?


Ça viendra dans une mise à jour de l’os et elles sont quasi systématiquement conditionnées à l’acceptation de nouvelles conditions d’utilisation. Rien de nouveau sous le soleil.



Surtout que si le mécanisme est attaquable sur le plan moral, il a l’air blindé sur le plan technique de l’exploitation des données personnelles, donc si ce truc arrive en Europe, c’est même pas dit qu’on soit blindé légalement pour parer la manœuvre.

votre avatar
votre avatar

croustx a dit:


La pédophilie ? Seulement ?



Et pourquoi ne pas aussi scanner les photos de terrorisme.



Les photos antivax.



Les fake news.



Les photos avec droit d’auteur.



Les photos religieuses.



Les photos ostentatoires.



Les photos d’art.



Les photos non conformes au dogme gouvernementale



Je vous laisse continuer la liste.


Les caricatures d’un prophète ?



Les photos porno ?

votre avatar

croustx a dit:


Les photos ostentatoires.


Hem, là ça va faire large. Voir même toutes les photos.

votre avatar

plopl a dit:


Hem, là ça va faire large. Voir même toutes les photos.


Si on jette aux lions dans le Colisée de Rome les gugusses qui font des photos d’ananas sur des pizzas, c’est pas si mal :fumer:

votre avatar

“Lors du choc frontal avec le FBI après la tuerie de San Bernardino, l’agence se servait d’une très vieille loi”



Erreur grammaticale à mon sens.
Soit l’agence “se servit”, soit éventuellement “avait tenté de se servir” (si finalement Apple a tenu bon me souviens plus).
(Au fait je ne vois plus le “popup” pour signaler une erreur quand on surligne du texte, retiré ? Ou une incompatibilité de mon navigateur ?)



Sinon merci beaucoup pour cet article détaillé que je vais retourner finir de lire.

votre avatar

C’est une option dans les paramètres maintenant. “Signalement d’erreur contextuel”

votre avatar

Apple a donné accès au données sur leur serveurs, mais a refusé de crée un programme pour déverrouillé le téléphone. Ce qui a été inutile vus que le FBI a acheté un hack, une zéro day je crois, et que le téléphone ne contenait rien.

votre avatar

D’ailleurs, je me un très bon thread vulgarisateur de la part de Mathis Hammel twitter.com Twitter qui explique comment fonctionne ce fameux processus d’analyse côté client.

votre avatar

Thanks @misocard @Lamatech pour les précisions :smack: :inpactitude:

votre avatar

Le paradoxe de l’approche d’apple est que ça a dû donner une érection à la majorité parlementaire européenne…



https://www.politico.eu/article/european-parliament-platforms-child-sexual-abuse-reporting-law/

votre avatar

Hugues1337 a dit:


Personne en parle mais c’est légal qu’Apple active un scan de mes photos sans mon consentement ?


100% légal car si tu fait l’update tu clique sur accepter (avec le paver de texte à chaque update donc tu a donné ton consentement des que tu clique sur accepter pour montrer sur iOS 15)

votre avatar

Tirnon a dit:


Je ne suis pas un spécialiste mais les lois actuelles américaines ne permettent pas justement d’ajouter dans cette base de données tous ce que les services à 3 lettres veulent sans que la pomme n’y ai à redire quoi que ce soit et sans qu’elle est le droit d’en parler ?



Ou ils pourraie



croustx a dit:


La pédophilie ? Seulement ?



Et pourquoi ne pas aussi scanner les photos de terrorisme.



Les photos antivax.



Les fake news.



Les photos avec droit d’auteur.



Les photos religieuses.



Les photos ostentatoires.



Les photos d’art.



Les photos non conformes au dogme gouvernementale



Je vous laisse continuer la liste.


nt directement forcer légalement le NCMEC ou une des autres organisations de protection des enfants à coopérer.



Non car contraire au 4e amendement de la constitution des US sur les saisies illégales (ils doivent reporter mais ne sont pas obligés de chercher)

votre avatar

Reprise de mon commentaire, sans la réponse au troll:



En matière de “surveillance de masse” que savons-nous exactement ?




  • Que La Pelle a accepté beaucoup de compromis avec le gouvernement Chinois… Entre autres, le fait que les données des clients Chinois soient gérées par une société Chinoise… contrôlée par le gouvernement.



  • Dans l’article, nous apprenons qu’il en est de même avec certains gouvernements du Proche et Moyen-Orient : compromis, quand tu nous tiens !



  • Que, comme dit très pertinemment plus haut, dans le cas de l’affaire de San Bernardino Elle a refusé de déverrouiller des iPhones… mais a fourni volontiers plein de données iCloud aux autorité US. Après que ces données étaient toutes exploitables ou pas, c’est un tout autre problème.




En conclusion, nous ne pouvons pas faire confiance totalement à La Pelle, parce qu’elle est mal placée pour résister aux gouvernements quels qu’ils soient, elle ne peut et ne pourra jamais dire NON à tout, parce que des emplois, des marchés et du chiffre\( d'affaire\) sont en jeu, argument massue s’il en est.



Un gouvernement, même démocratique, a une importante capacité de nuisance, légale ou pas, envers n’importe quel bizness petit ou gros. Que certains gouvernements ne s’en servent pas, pour des raisons de législation internationale, par lâcheté, par ignorance ou par flemme, c’est encore une autre histoire.



Mais le fait est là : dans un combat au KO contre un gouvernement, La Pelle ne fait pas le poids.



Si moi, Président (LOoooL) d’un pays non-démocratique je te dis : tu obéis ou je vais tout faire pour que tu ne puisse plus vendre ni t’installer dans mon pays et vais commencer tout de suite par te rendre la vie proprement infernale, ben t’obéis, bon gré ou mal. Gré.



En conclusion, il faut empêcher cette mesure “anti-truc” d’être appliquée, coute que coute.

votre avatar

(quote:1891142:DantonQ-Robespierre)
Reprise de mon commentaire, sans la réponse au troll:



En matière de “surveillance de masse” que savons-nous exactement ?




  • Que La Pelle a accepté beaucoup de compromis avec le gouvernement Chinois… Entre autres, le fait que les données des clients Chinois soient gérées par une société Chinoise… contrôlée par le gouvernement.


C’est une évidence. Apple aura beau dire, autant à la rigueur ils peuvent se permettre de se fâcher avec le gouvernement d’Arabie Saoudite, autant ils ne seront jamais en mesure de refuser les demandes du gouvernement autocratique d’un pays qui représente non-seulement un marché de plus d’un milliard de personnes, mais en plus le lieu où est fabriqué absolument tout leur matériel.



Or, le gouvernement Chinois est bien moins intéressé par les images du NCMEC, que par les mèmes de Winnie l’Ourson et les photos de tankman.



Je vois mal comment Apple pourrait leur dire non, désormais.

votre avatar

Macqael a dit:


100% légal car si tu fait l’update tu clique sur accepter (avec le paver de texte à chaque update donc tu a donné ton consentement des que tu clique sur accepter pour montrer sur iOS 15)


Oui oui, comme dans l’épisodede South Park. Mais en vrai ? Cela m’a tout l’air abusif.

votre avatar

misocard a dit:


Le scan est obligatoire si tu utilise les servers Apple pour stocker le contenu. Vu que le server appartient à Apple ça me semble légal de leur part d’ajouter ça dans leurs conditions d’utilisation.


C’est pour l’instant nébuleux le mode de fonctionnement. Disons que si ils veulent ils peuvent scanner toutes les photo (et le reste) sur ton téléphone, hey, tu as accepté le CLUF !

votre avatar

Hugues1337 a dit:


Oui oui, comme dans l’épisodede South Park. Mais en vrai ? Cela m’a tout l’air abusif.


Il y a absolument rien d’abusif, tu accepte les conditions tu update sinon tu update pas, ne pas update n’empêche pas le téléphone de fonctionne c’est donc 100% legal.
Maintenant certain dirons que c’est limite niveau moral mais ainsi marche le monde.




Hugues1337 a dit:


C’est pour l’instant nébuleux le mode de fonctionnement. Disons que si ils veulent ils peuvent scanner toutes les photo (et le reste) sur ton téléphone, hey, tu as accepté le CLUF !


Coté serveur c’est plus complexe, mais la plupart du temps il change leur CGU, et tu a un temps variable selon le pays pour t’y oposer et fermé ton compte.
Par contre si (comme Facebook) tu leur cède le droit sur les images durant l’upload (dans les CGU original) ils ont meme pas besoin de ton accord vu que c’est devenu leur photo (raison pour la quel je hais Facebook).

votre avatar

Macqael a dit:


c’est 100% légal, car quand tu clique sur ‘Accepter’
(avec son pavé de texte à chaque ‘Update’) ET que personne ne lit par manque de temps
c’est que tu a donné ton consentement !


votre avatar

Qui a dit dystopie ? :D

votre avatar

Macqael a dit:


Il y a absolument rien d’abusif, tu accepte les conditions tu update sinon tu update pas, ne pas update n’empêche pas le téléphone de fonctionne c’est donc 100% legal. Maintenant certain dirons que c’est limite niveau moral mais ainsi marche le monde.



Coté serveur c’est plus complexe, mais la plupart du temps il change leur CGU, et tu a un temps variable selon le pays pour t’y oposer et fermé ton compte. Par contre si (comme Facebook) tu leur cède le droit sur les images durant l’upload (dans les CGU original) ils ont meme pas besoin de ton accord vu que c’est devenu leur photo (raison pour la quel je hais Facebook).


Je te le dis sans détour : tu dis de la merde.
Si dans le CGU c’est indiqué qu’ils peuvent faire comme dans l’épisode de South Park tu considères que c’est okay ? Allo ?
Côté serveur c’est autant complexe (ou pas) que sur ton device. Les CGU abusives peuvent se faire dégager ou ignorer.

votre avatar

Par contre si c’est comme pour ‘Facebook’ :




  • tu leur cèdes le droit sur tes images en ‘Uploadant’ les ‘CGU.’, et ils n’ont même
    plus besoin de ton accord, vu que du coup elles sont devenues LEURS photos
    (raison pour la quel je hais ‘Facebook’)



quand j’explique ça aux gens..‘ils tombent des nues’=ah ? :eeek2:

votre avatar

vizir67 a dit:




  • tu leur cèdes le droit sur tes images en ‘Uploadant’ les ‘CGU.’, et ils n’ont même plus besoin de ton accord, vu que du coup elles sont devenues LEURS photos (raison pour la quel je hais ‘Facebook’)



quand j’explique ça aux gens..‘ils tombent des nues’=ah ? :eeek2:


Marrant même réactions autour de moi

votre avatar

et pourtant….



Dès l’inscription sur le réseau social, vous autorisez Facebook à récolter des
données personnelles sur vous. Si vous demeurez propriétaire des contenus et
disposez de droits de propriété intellectuelle, comme indiqué dans les conditions
générales d’utilisations, vous accordez au réseau social des «Licences», c’est-à-dire
des autorisations légales pour utiliser ce contenu.



https://www.lenouvelliste.ch/articles/lifestyle/techno-et-sciences/facebook-non-partager-les-messages-qui-circulent-ne-protege-pas-vos-donnees-personnelles-1031431

votre avatar

vizir67 a dit:


Dès l’inscription sur le réseau social, vous autorisez Facebook à récolter des données personnelles sur vous. Si vous demeurez propriétaire des contenus et disposez de droits de propriété intellectuelle, comme indiqué dans les conditions générales d’utilisations, vous accordez au réseau social des «Licences», c’est-à-dire des autorisations légales pour utiliser ce contenu.



https://www.lenouvelliste.ch/articles/lifestyle/techno-et-sciences/facebook-non-partager-les-messages-qui-circulent-ne-protege-pas-vos-donnees-personnelles-1031431


Le syndrome du bouton “suivant” sans lecture fait des degats

votre avatar

Hugues1337 a dit:


Je te le dis sans détour : tu dis de la merde. Si dans le CGU c’est indiqué qu’ils peuvent faire comme dans l’épisode de South Park tu considères que c’est okay ? Allo ? Côté serveur c’est autant complexe (ou pas) que sur ton device. Les CGU abusives peuvent se faire dégager ou ignorer.


C’est toi qui dit n’importe quoi lis les conditions d’utilisation avant de dire n’importe quoi.



Mais bon dire n’importe quoi sans même avoir lu les CGU est tellement simples.

votre avatar

Macqael a dit:


C’est toi qui dit n’importe quoi lis les conditions d’utilisation avant de dire n’importe quoi.



Mais bon dire n’importe quoi sans même avoir lu les CGU est tellement simples.


Y’a pas de “tu avais qu’à lire”. Ce serait “trop” facile. Ce serait.. abusif !

votre avatar

Hugues1337 a dit:


Y’a pas de “tu avais qu’à lire”. Ce serait “trop” facile. Ce serait.. abusif !


Encore quelqu’un qui crie à l’Abu car trop feignant de lire les contract qu’il signe numériquement.

votre avatar

Il se trouve que les CGU n’ont pas valeur de lois…
Du coup, tu racontes n’importe quoi. Apple peut mettre ce qu’il veut dans ses CGU, si une association de consommateurs s’y attaque et qu’un juge estime qu’elles sont abusives, Apple devra les retirer et elles seront nulles et non avenues.

votre avatar

vizir67 a dit:




  • tu leur cèdes le droit sur tes images en ‘Uploadant’ les ‘CGU.’, et ils n’ont même plus besoin de ton accord, vu que du coup elles sont devenues LEURS photos (raison pour la quel je hais ‘Facebook’)



quand j’explique ça aux gens..‘ils tombent des nues’=ah ? :eeek2:


Ouais, idem Instagram et la grande majorité des apps avec des calculs dans le cloud (snapshat, l’app qui te fait vieillir, etc). Faudrait s’attaquer à ça et faire tomber ce type de CGU abusif.

votre avatar

Macqael a dit:


Encore quelqu’un qui crie à l’Abu car trop feignant de lire les contract qu’il signe numériquement.


Car tu lis chaque CGU que tu “signes” ? Bahahaha. Allez, je te rajoute dans ma blacklist des trolls. A+

votre avatar

Hugues1337 a dit:


Car tu lis chaque CGU que tu “signes” ? Bahahaha. Allez, je te rajoute dans ma blacklist des trolls. A+


Mdr encore une personne qui n’y connais rien a rien sérieux tu pense que je me sent offensé qu’une personne comme toi me blacklist ?
tous l’inverse ca fera un (mince l’auto censure), de moins a supporté.

votre avatar

Le plus contestable dans l’affaire, c’est qu’une société privée s’arroge des prérogatives de police de sa propre initiative, sous un prétexte fumeux. L’argumentio ad pedoporno, c’est le sophisme qui sert toujours à vendre des intentions pas nettes.



Doc oui, l’opposition à cette initiative est légitime d’un point de vue citoyen. Apple peut développer des outils de détection de contenus illégaux si ça lui chante, mais leur utilisation ne peut être, dans un état de droit, qu’assurée ou demandée par la puissance publique.



Sinon, cela s’appelle une milice, et c’est illégal en France et dans bien des pays.

votre avatar

durthu a dit:


Il se trouve que les CGU n’ont pas valeur de lois… Du coup, tu racontes n’importe quoi. Apple peut mettre ce qu’il veut dans ses CGU, si une association de consommateurs s’y attaque et qu’un juge estime qu’elles sont abusives, Apple devra les retirer et elles seront nulles et non avenues.


Mon dieu mais vous savez pas lire ou vous le faite exprès ?
J’ai dit que c’était pas abusif et que accepter les CGU faisait fois comme consentement de scan alors veuillez stop de déformé mes propos !



Ensuite AUCUNE LOI AU MONDE interdit de scanné des fichiers par L’OS tant que tu accepte les CGU lier avec.

votre avatar

“Ensuite AUCUNE LOI AU MONDE interdit de scanné des fichiers par L’OS tant que tu accepte les CGU lier avec.”



C’est cette affirmation qui me gêne.
J’ai bien compris que tu expliquais que l’acceptation des CGU avait valeur de consentement.
Je suis sur qu’en France ou en Europe, Apple va se faire retoquer au nom de la vie privée.

votre avatar

Tout le monde s’étonne, ce n’est que le début, après avoir stocké masse d’information, il faut bien maintenant trouver à justifier leur analyse :)

votre avatar

Fabrication du consentement (impossible d’être contre):



« J’espère que vous serez rassurés de savoir que grâce à vous, des milliers d’enfants victimes d’exploitation sexuelle seront sauvés et auront une chance de guérir et d’avoir l’enfance qu’ils méritent ».



Assurance sur l’usage:
« Apple refusera toute demande de ce type » (ndt: celles des gvmts), assure-t-elle. « Nous avons déjà fait face à des demandes de construire et déployer des changements imposés par des gouvernements et les avons refusées. Nous continuerons à les refuser ».



C’est à croire que c’est Apple qui fait les Lois et que la démocratie (même dévoyée) n’est pas un argument toujours plus solide pour justifier de la mise en oeuvre d’une Loi dans “ l’intérêt de la sécurité/surêté de l’Etat “.
Que pourrait faire Apple si des Etats “démocratiques”, imposaient à Apple d’ouvrir sa technologie en vue d’une utilisation qui serait “encadrée par la Loi” ?



Nous pouvons le constater, les démocraties occidentales protègent d’abord “le business” et si cela doit passer par une surveillance généralisée et un autoritarisme fort par défaut, alors tous les moyens sont bons.
Porter plainte auprès du tribunal de la Terre des Gens Cool?

votre avatar

Cetera a dit:



« J’espère que vous serez rassurés de savoir que grâce à vous, des milliers d’enfants victimes d’exploitation sexuelle seront sauvés


Le coût pour cela étant l’exploitation d’encore bien plus d’enfants sur les chaînes de montage de nos sous-traitants et dans toutes nos chaînes d’approvisionnement, à commencer par l’extraction minière.



NEXT !

Pédopornographie : Apple s’explique, mais la colère et les craintes restent

  • De nombreuses explications

  • Une FAQ pour éclaircir la situation

  • Le cœur des craintes

  • La levée de boucliers s’intensifie

  • Apple droite dans ses bottes pour l’instant

  • Et maintenant ?

Fermer