Vie privée, Siri : Apple forcée de prendre la parole pour défendre son modèle
Fonds de commerce
La semaine dernière, on apprenait qu’Apple avait versé 95 millions de dollars pour sceller un recours collectif aux États-Unis. Le litige portait sur l’utilisation de conversations privées sans consentement et de leur partage à des tiers. Bien qu’Apple n’ait jamais reconnu un tel partage, elle a tenu à s’expliquer, dans un rare exercice de communication.
Le 09 janvier à 16h10
6 min
Sécurité
Sécurité
Apple a mis 95 millions de dollars sur la table pour en finir avec une procédure ennuyeuse. En 2019, un article du Guardian révélait que des sous-traitants d’Apple avaient régulièrement accès à des échanges privés entre personnes via Siri. Parmi les informations trouvées, des détails médicaux, des deals de drogue et même des couples dans leur intimité.
L’entreprise envoyait « une petite partie » des échanges avec Siri à un réseau de sous-traitants pour en mesurer la qualité. « Une petite partie des demandes de Siri est analysée pour améliorer Siri et la dictée. Les demandes des utilisateurs ne sont pas associées à leur identifiant Apple. Les réponses Siri sont analysées dans des installations sécurisées et tous les examinateurs sont tenus de respecter les exigences strictes d'Apple en matière de confidentialité », expliquait ainsi l’entreprise. Problème : elle n’en avait rien dit, ce fonctionnement n’apparaissant pas dans les conditions d’utilisation.
Le règlement à l’amiable équivaut à 20 dollars par appareil pour les personnes faisant partie du recours collectif. Le dossier est donc clos, et si Apple a reconnu ses torts sur l’enregistrement par erreur de messages sans consentement, elle a nié tout partage. Aucun échantillon n’a été envoyé à un quelconque annonceur pour personnaliser des publicités, a affirmé Apple.
L’obligation de communiquer
La situation est assez problématique pour qu’Apple ait décidé de prendre la parole. La firme s’explique rarement sur des dossiers en cours ou des polémiques. Mais il y a une exception notable : la sécurité et le respect de la vie privée sont devenus ses fonds de commerce.
« La protection de la vie privée est un élément fondamental du processus de conception, fondé sur des principes tels que la minimisation des données, l'intelligence sur l'appareil, la transparence et le contrôle, ainsi que de solides protections de sécurité qui s'associent pour offrir aux utilisateurs des expériences incroyables et une grande tranquillité d'esprit », déclare ainsi sans détour Apple.
L’entreprise affirme que ces principes s’appliquent à Siri, que l’assistant a été « conçu pour protéger la vie privée des utilisateurs » et qu’il est « le plus confidentiel » d’entre tous. « Apple n'a jamais utilisé les données de Siri pour établir des profils marketing, ne les a jamais mises à disposition pour la publicité et ne les a jamais vendues à qui que ce soit, pour quelque raison que ce soit », martèle la société de Cupertino, qui se veut ferme sur le sujet. Mieux encore, de nouvelles technologies seraient constamment développées pour rendre Siri « encore plus privé ».
Une liste de « preuves »
Apple se lance ensuite dans une liste des actions mises en place pour protéger la vie privée des utilisateurs. Ainsi, Siri effectue localement « autant de traitements que possible » et évoque une personnalisation de l’expérience « sans avoir à transférer et à analyser des informations personnelles sur les serveurs ». Le contenu des messages n’est pas transféré à Apple. Pour les appareils compatibles, l’audio des demandes à Siri ne quitte même pas l’appareil, car pris en charge par le moteur neuronal des puces maison.
Et quand les demandes ne peuvent pas être traitées localement ? Apple assure appliquer une minimisation : « Siri utilise le moins de données possible pour fournir un résultat précis ». Et de répéter que l’identifiant Apple n’est pas lié aux requêtes. Un identifiant aléatoire est créé pour assurer un lien entre les données pendant leur traitement, puis est supprimé. Un fonctionnement qu’Apple présente comme « unique parmi les assistants numériques utilisés aujourd'hui ».
Apple dit ne conserver les enregistrements audio que si les utilisateurs ont volontairement choisi de le faire. Ce comportement est désactivé par défaut, les produits ne posant la question de son activation qu’une seule fois. Ce que ne dit pas Apple en revanche, c’est que ce fonctionnement (opt-in) est une conséquence directe de la tempête créée par l’article du Guardian en 2019. Tout comme la mention nette dans les conditions d’utilisation.
Une « protection révolutionnaire » pour l’IA
Avoir un problème lié à la vie privée et à la sécurité des données personnelles était déjà suffisant pour qu’Apple prenne la parole. Mais la situation est exacerbée par le contexte : l’explosion actuelle de l’intelligence artificielle. Et c’est d’autant plus vrai que l’entreprise doit déjà se battre avec le problème crument exposé par la BBC sur les résumés erronés proposés par Apple Intelligence.
Apple, bien sûr, n’aborde pas ce problème. À la place, elle évoque « les capacités offertes par Apple Intelligence » et le « début d’une nouvelle ère pour Siri ». Elle rappelle que de nombreuses opérations sont effectuées localement et que le Private Cloud Compute – dont nous avions expliqué le fonctionnement – prend en charge les autres. « Lorsque Siri utilise Private Cloud Compute, les données de l'utilisateur ne sont ni stockées ni rendues accessibles à Apple, et Private Cloud Compute n'utilise ces données que pour répondre à la demande », ajoute l’entreprise.
Si l’entreprise parle de la protection de la vie privée comme d’un « droit humain fondamental », le flou précédemment relevé est toujours le même : impossible de savoir ce qui est précisément calculé sur l’appareil et envoyé à des serveurs. On connait la réponse dans quelques cas de figure, comme la génération d’images dans Playground et l’assistance aux développeurs dans Xcode sur les Mac compatibles (dotés au moins d’une puce M1).
Dès lors, on peut s’étonner, face à cette assurance, que l’entreprise ait décidé de régler à l’amiable le recours collectif en sortant le chéquier. Si l’affaire avait été portée devant les tribunaux, Apple aurait peut-être gagné, mais le procès aurait propagé des ondes de choc. Des informations auraient sans doute été révélées, ne mettant pas nécessairement l’entreprise en tort, mais qui auraient entretenu les discussions sur une thématique dont Apple se passe volontiers : quelle confiance accorder à ces services ?
Vie privée, Siri : Apple forcée de prendre la parole pour défendre son modèle
-
L’obligation de communiquer
-
Une liste de « preuves »
-
Une « protection révolutionnaire » pour l’IA
Commentaires (6)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousAujourd'hui à 16h54
Aujourd'hui à 17h11
"En 2019, un article du Guardian révélait que des sous-traitants d’Apple avaient régulièrement accès à des échanges privés entre personnes via Siri."
Connaissant Apple, ils ont certainement dû modifier les conditions d’utilisation avant l'entrée en application du RGPD et les accès aux échanges privés datent d'avant.
Mais ayant la flemme d'aller chercher l'article du Guardian pour vérifier, je donne ma langue au chat sur ce point
Aujourd'hui à 17h26
Modifié le 09/01/2025 à 17h14
Les donnée seront-elles envoyées à des tiers qui arriveront alors à nous espionner ?
Qu'en est-il d'Apple actuellement ? Parce que côté source de revenue autre que les appareils et services, la seule publicité que je connais c'est celle dans l'App Store.
Aujourd'hui à 17h53
Modifié le 09/01/2025 à 21h15
Affirmation complètement fausse, vu que le chiffrement homomorphe (calcul avec des données chiffrées), ça a des performances assez pourries pour des opérations plutôt rudimentaires. Donc les données peuvent être accessibles à Apple, au moins le temps du calcul.