Criquet ou requin ?

Gemini : Google conserve des « conversations » et les fait analyser par des humains

Abonnez-vous pour tout dévorer et ne rien manquer.

Déjà abonné ? Se connecter

Abonnez-vous

Google a annoncé la semaine dernière qu'elle rebaptisait son IA Bard du nom de Gemini. Mais les conditions d'utilisation précisent que derrière Gemini, Google stocke par défaut certaines « conversations » des utilisateurs pour les faire « lire, annoter et traiter » par des relecteurs humains.

Dans un billet de blog, le PDG de Google, Sundar Pichai, a annoncé jeudi 8 février le changement de nom de l'offre d'IA de l'entreprise : « Bard s'appellera désormais simplement Gemini »... comme la famille de grands modèles de langage développée par l'entreprise. Sundar Pichai voit Gemini comme un écosystème entier.

Cette offre d'IA générative se retrouve dans une nouvelle application du même nom pour Android, dans l'application Google pour iOS et dans les outils du groupe comme Workplace et Google Cloud. Comme ChatGPT, Gemini a sa version premium (Google l'appelle « Gemini Advanced ») qui permet d'utiliser le plus gros des modèles de langage de la famille Gemini, Ultra.

Mais comme souvent dans les outils numériques en ligne, c'est dans le « guide sur la confidentialité » de Gemini, mis à jour en même temps que la publication du billet de blog de Sundar Pichai, que se cachent les informations sur ce que Google fait des « conversations » entre les utilisateurs et son IA.

Des « conversations » lues par des relecteurs humains

Comme le souligne TechCrunch, ce guide sur la confidentialité de Gemini explique que « des réviseurs humains lisent, annotent et traitent vos conversations avec les applications Gemini ». Google donne comme raisons à ce traitement humain l'amélioration de la qualité de ses produits « tels que les modèles de machine learning génératifs qui alimentent les applications Gemini ».

L'entreprise promet qu'elle prend « les mesures adéquates pour protéger la confidentialité de vos données » dans ce traitement des données des utilisateurs de Gemini et, en exemple, explique qu'avant que ces « réviseurs » ne les lisent, les conversations sont « dissociées de votre compte Google ». Si cette mesure est indispensable pour anonymiser les données, elle n'est surement pas suffisante.

Google ne précise pas les autres mesures prises pour assurer l'anonymisation des données. Par contre, elle donne, dans ce guide, un conseil à ses utilisateurs, en gras : « veillez à ne pas fournir d'informations confidentielles dans vos conversations, ni de données que vous ne souhaiteriez pas qu'un réviseur puisse voir ou que Google puisse utiliser pour améliorer ses produits, services et technologies de machine learning », remettant la charge de la protection de leurs données sur les épaules de ses utilisateurs.

L'entreprise ne précise pas non plus si ces « réviseurs » sont des salariés direct de Google, si elle a confié la tâche de traitement des données de Gemini à des sous-traitants ou si elle pourra le faire dans le futur.

Des « conversations » conservées pendant trois ans

Dans ce guide, Google précise que l'entreprise se réserve le droit de garder ces « conversations » entre les utilisateurs et son IA pendant trois ans « au maximum », et qu'elles ne seront pas supprimées « lorsque vous effacez votre activité dans les applications Gemini ».

C'est d'ailleurs sans doute pour ça que l'entreprise parle ici de l'effacement de l'activité et non de la suppression de données. Google explique cette non-suppression des données par le fait qu'elles sont « conservées séparément et ne sont pas associées à votre compte Google ».

Même quand l'utilisateur a désactivé l'enregistrement de son activité dans Gemini, les « conversations » sont temporairement enregistrées, pendant au maximum trois jours, sans pour autant apparaitre dans la liste des « activités » visibles par l'utilisateur. Google explique que ce stockage lui permet d' « assurer le service et de traiter vos commentaires ».

Base juridique du contrat et du consentement en Europe

Le guide précise aussi qu'en Europe et là où le RGPD est en vigueur, le traitement des informations par Gemini se fait au départ notamment sur la base de l'exécution d'un contrat « afin de fournir et de gérer le service des applications Gemini que vous avez demandé conformément aux Conditions d'utilisation de Google et aux Conditions d'utilisation supplémentaires de l'IA générative ».

Google y précise également qu'elle peut traiter « vos informations Gemini afin de nous conformer à des obligations légales, réglementaires, judiciaires ou administratives (par exemple, si nous recevons une demande légale d'informations de la part d'une autorité administrative) ».

Enfin, l'entreprise planifie de passer par la demande de consentement lorsqu'elle ajoutera des nouveautés si celles-ci traitent « vos informations à des fins spécifiques ». Il faudra alors, pour l'utilisateur, choisir ou refuser l'acceptation d'un nouveau traitement de données et l'ajout d'une nouvelle fonctionnalité.

Commentaires (8)


Heureusement que le vrai Gemini (le protocole Internet, et qui restera le seul et unique « Gemini » pour moi) ne fait rien de tout ça, lui !
Modifié le 12/02/2024 à 15h09

Historique des modifications :

Posté le 12/02/2024 à 15h09


Heureusement que le vrai Gemini (le protocole Internet, et qui restera le seul et unique « Gemini » pour moi) ne fait rien de tout ça, lui !

TL;DR : Google.
Google ne cache pas franchement ce point quand on arrive sur la page de gemini on a l'information en plein milieu de l'écran :

"Vos conversations sont traitées par des réviseurs humains afin d'améliorer les technologies sur lesquelles reposent les applications Gemini. Ne saisissez aucune information que vous ne souhaitez pas voir examinée ou utilisée."
Le guide précise aussi qu’en Europe et là où le RGPD est en vigueur, le traitement des informations par Gemini se fait au départ notamment sur la base de l’exécution d’un contrat « afin de fournir et de gérer le service des applications Gemini que vous avez demandé conformément aux Conditions d’utilisation de Google et aux Conditions d’utilisation supplémentaires de l’IA générative ».


Ils sont mal barrés !

L'amélioration du produit ne fait pas partie de ce qui est accepté pour l'exécution d'un contrat, pas plus que pour l'intérêt légitime d'ailleurs.
La CNIL dit :
Le traitement en cause doit être objectivement nécessaire à l’exécution du contrat. Cela signifie qu’il doit uniquement permettre à l’organisme d’exécuter le contrat spécifique conclu avec la personne, c’est-à-dire de fournir le produit ou le service souhaité par celle-ci, et ne doit pas viser un autre objectif, permettant par exemple la poursuite d’intérêts distincts ou exclusifs du responsable de traitement.


Et ici l'amélioration de l'IA n'est pas l'objet du service fourni.
"Et ici l'amélioration de l'IA n'est pas l'objet du service fourni." => tout à fait, mais c'est toujours le fonctionnement d'un service Google.

Ils ne vont pas pouvoir se couper du marché EU de toute façon, et ça va se passer comme suit :
- Google le fait quand même
- Quand l'Europe s'en occupe, Google paye des lobbyistes pour retard une législation
- La législation arrive, Google fait semblant de s'y conformer
- Google a une amende

ETA : 10 ans.

linkin623

"Et ici l'amélioration de l'IA n'est pas l'objet du service fourni." => tout à fait, mais c'est toujours le fonctionnement d'un service Google.

Ils ne vont pas pouvoir se couper du marché EU de toute façon, et ça va se passer comme suit :
- Google le fait quand même
- Quand l'Europe s'en occupe, Google paye des lobbyistes pour retard une législation
- La législation arrive, Google fait semblant de s'y conformer
- Google a une amende

ETA : 10 ans.
Le RGPD existe déjà. Ton scénario est mauvais.

Par contre, il commence bien pareil :
- Google le fait quand même

ensuite :

- quelqu'un porte plainte
- une CNIL s'en occupe, Google a une amende après un an minimum, probablement bien plus car en Irlande.
- Google fait appel devant la juridiction appropriée
- ça reprend du temps
- L'amende est confirmée ou un peu minorée parce qu'elle n'était pas bien justifiée par la CNIL

fred42

Le RGPD existe déjà. Ton scénario est mauvais.

Par contre, il commence bien pareil :
- Google le fait quand même

ensuite :

- quelqu'un porte plainte
- une CNIL s'en occupe, Google a une amende après un an minimum, probablement bien plus car en Irlande.
- Google fait appel devant la juridiction appropriée
- ça reprend du temps
- L'amende est confirmée ou un peu minorée parce qu'elle n'était pas bien justifiée par la CNIL
Je me suis chargé de la seconde étape, on vas bien voir :)
Modifié le 23/02/2024 à 16h19

Historique des modifications :

Posté le 23/02/2024 à 16h19


Je me suis chargé de la première étape, on vas bien voir :)

Comme OpenAI (avec un opt-in par défaut), ou encore GitHub Copilot dans la version personnelle. C'est indiqué dans les CGU aussi.

Par contre, les versions Enterprise (GitHub Copilot for Business ou ChatGPT Enterprise) n'ont généralement pas ces clauses, mais elles sont aussi plus chères à l'usage. Cependant, l'analyse de données de GitHub Copilot Enterprise est aussi relativement floue (le user engagement data) quand on lit le déclaratif.

Et comme toujours, il s'agit d'engagements contractuels. Rien de plus.
Fermer