Connexion
Abonnez-vous

Vie privée, Siri : Apple forcée de prendre la parole pour défendre son modèle

Fonds de commerce

Vie privée, Siri : Apple forcée de prendre la parole pour défendre son modèle

La semaine dernière, on apprenait qu’Apple avait versé 95 millions de dollars pour sceller un recours collectif aux États-Unis. Le litige portait sur l’utilisation de conversations privées sans consentement et de leur partage à des tiers. Bien qu’Apple n’ait jamais reconnu un tel partage, elle a tenu à s’expliquer, dans un rare exercice de communication.

Le 09 janvier à 16h10

Apple a mis 95 millions de dollars sur la table pour en finir avec une procédure ennuyeuse. En 2019, un article du Guardian révélait que des sous-traitants d’Apple avaient régulièrement accès à des échanges privés entre personnes via Siri. Parmi les informations trouvées, des détails médicaux, des deals de drogue et même des couples dans leur intimité.

L’entreprise envoyait « une petite partie » des échanges avec Siri à un réseau de sous-traitants pour en mesurer la qualité. « Une petite partie des demandes de Siri est analysée pour améliorer Siri et la dictée. Les demandes des utilisateurs ne sont pas associées à leur identifiant Apple. Les réponses Siri sont analysées dans des installations sécurisées et tous les examinateurs sont tenus de respecter les exigences strictes d'Apple en matière de confidentialité », expliquait ainsi l’entreprise. Problème : elle n’en avait rien dit, ce fonctionnement n’apparaissant pas dans les conditions d’utilisation.

Le règlement à l’amiable équivaut à 20 dollars par appareil pour les personnes faisant partie du recours collectif. Le dossier est donc clos, et si Apple a reconnu ses torts sur l’enregistrement par erreur de messages sans consentement, elle a nié tout partage. Aucun échantillon n’a été envoyé à un quelconque annonceur pour personnaliser des publicités, a affirmé Apple.

L’obligation de communiquer

La situation est assez problématique pour qu’Apple ait décidé de prendre la parole. La firme s’explique rarement sur des dossiers en cours ou des polémiques. Mais il y a une exception notable : la sécurité et le respect de la vie privée sont devenus ses fonds de commerce.

« La protection de la vie privée est un élément fondamental du processus de conception, fondé sur des principes tels que la minimisation des données, l'intelligence sur l'appareil, la transparence et le contrôle, ainsi que de solides protections de sécurité qui s'associent pour offrir aux utilisateurs des expériences incroyables et une grande tranquillité d'esprit », déclare ainsi sans détour Apple.

L’entreprise affirme que ces principes s’appliquent à Siri, que l’assistant a été « conçu pour protéger la vie privée des utilisateurs » et qu’il est « le plus confidentiel » d’entre tous. « Apple n'a jamais utilisé les données de Siri pour établir des profils marketing, ne les a jamais mises à disposition pour la publicité et ne les a jamais vendues à qui que ce soit, pour quelque raison que ce soit », martèle la société de Cupertino, qui se veut ferme sur le sujet. Mieux encore, de nouvelles technologies seraient constamment développées pour rendre Siri « encore plus privé ».

Une liste de « preuves »

Apple se lance ensuite dans une liste des actions mises en place pour protéger la vie privée des utilisateurs. Ainsi, Siri effectue localement « autant de traitements que possible » et évoque une personnalisation de l’expérience « sans avoir à transférer et à analyser des informations personnelles sur les serveurs ». Le contenu des messages n’est pas transféré à Apple. Pour les appareils compatibles, l’audio des demandes à Siri ne quitte même pas l’appareil, car pris en charge par le moteur neuronal des puces maison.

Et quand les demandes ne peuvent pas être traitées localement ? Apple assure appliquer une minimisation : « Siri utilise le moins de données possible pour fournir un résultat précis ». Et de répéter que l’identifiant Apple n’est pas lié aux requêtes. Un identifiant aléatoire est créé pour assurer un lien entre les données pendant leur traitement, puis est supprimé. Un fonctionnement qu’Apple présente comme « unique parmi les assistants numériques utilisés aujourd'hui ».

Apple dit ne conserver les enregistrements audio que si les utilisateurs ont volontairement choisi de le faire. Ce comportement est désactivé par défaut, les produits ne posant la question de son activation qu’une seule fois. Ce que ne dit pas Apple en revanche, c’est que ce fonctionnement (opt-in) est une conséquence directe de la tempête créée par l’article du Guardian en 2019. Tout comme la mention nette dans les conditions d’utilisation.

Une « protection révolutionnaire » pour l’IA

Avoir un problème lié à la vie privée et à la sécurité des données personnelles était déjà suffisant pour qu’Apple prenne la parole. Mais la situation est exacerbée par le contexte : l’explosion actuelle de l’intelligence artificielle. Et c’est d’autant plus vrai que l’entreprise doit déjà se battre avec le problème crument exposé par la BBC sur les résumés erronés proposés par Apple Intelligence.

Apple, bien sûr, n’aborde pas ce problème. À la place, elle évoque « les capacités offertes par Apple Intelligence » et le « début d’une nouvelle ère pour Siri ». Elle rappelle que de nombreuses opérations sont effectuées localement et que le Private Cloud Compute – dont nous avions expliqué le fonctionnement – prend en charge les autres. « Lorsque Siri utilise Private Cloud Compute, les données de l'utilisateur ne sont ni stockées ni rendues accessibles à Apple, et Private Cloud Compute n'utilise ces données que pour répondre à la demande », ajoute l’entreprise.

Si l’entreprise parle de la protection de la vie privée comme d’un « droit humain fondamental », le flou précédemment relevé est toujours le même : impossible de savoir ce qui est précisément calculé sur l’appareil et envoyé à des serveurs. On connait la réponse dans quelques cas de figure, comme la génération d’images dans Playground et l’assistance aux développeurs dans Xcode sur les Mac compatibles (dotés au moins d’une puce M1).

Dès lors, on peut s’étonner, face à cette assurance, que l’entreprise ait décidé de régler à l’amiable le recours collectif en sortant le chéquier. Si l’affaire avait été portée devant les tribunaux, Apple aurait peut-être gagné, mais le procès aurait propagé des ondes de choc. Des informations auraient sans doute été révélées, ne mettant pas nécessairement l’entreprise en tort, mais qui auraient entretenu les discussions sur une thématique dont Apple se passe volontiers : quelle confiance accorder à ces services ?

Commentaires (6)

votre avatar
Problème : elle n’en avait rien dit, ce fonctionnement n’apparaissant pas dans les conditions d’utilisation.
Ce qui est non conforme au RGPD ! :sm:
votre avatar
Le RGPD est entré en application le 25 mai 2018

"En 2019, un article du Guardian révélait que des sous-traitants d’Apple avaient régulièrement accès à des échanges privés entre personnes via Siri."

Connaissant Apple, ils ont certainement dû modifier les conditions d’utilisation avant l'entrée en application du RGPD et les accès aux échanges privés datent d'avant.

Mais ayant la flemme d'aller chercher l'article du Guardian pour vérifier, je donne ma langue au chat sur ce point
votre avatar
L'article date du 26 juillet 2019, donc plus d'un an après le début du RGPD. Il y a de bonnes chances que ce qu'il dit était récent donc même s'il n'y a pas d'informations sur quand ce qui est reporté s'est produit.
votre avatar
Je me demande comment cela se passera avec la prise en compte de l'IA.
Les donnée seront-elles envoyées à des tiers qui arriveront alors à nous espionner ?

Qu'en est-il d'Apple actuellement ? Parce que côté source de revenue autre que les appareils et services, la seule publicité que je connais c'est celle dans l'App Store.
votre avatar
[Apple] ne les a jamais vendues à qui que ce soit, pour quelque raison que ce soit
Franchement c'est mieux que les autres grands acteurs du numérique, au moins une fuite ou d'un hack d'un tiers est moins probable.
votre avatar
"Lorsque Siri utilise Private Cloud Compute, les données de l'utilisateur ne sont ni stockées ni rendues accessibles à Apple"

Affirmation complètement fausse, vu que le chiffrement homomorphe (calcul avec des données chiffrées), ça a des performances assez pourries pour des opérations plutôt rudimentaires. Donc les données peuvent être accessibles à Apple, au moins le temps du calcul.

Vie privée, Siri : Apple forcée de prendre la parole pour défendre son modèle

  • L’obligation de communiquer

  • Une liste de « preuves »

  • Une « protection révolutionnaire » pour l’IA

Fermer