Connexion
Abonnez-vous

IA vs RGPD : la CNIL veut une « innovation responsable »

Vous avez fait le max ? Ok, ça va alors…

IA vs RGPD : la CNIL veut une « innovation responsable »

Flock

La CNIL surveille depuis longtemps le développement des intelligences artificielles, notamment au travers du RGPD. La gardienne des libertés individuelles propose deux nouvelles recommandations pour « un usage de l’IA respectueux des données personnelles » : informer les personnes et faciliter l’exercice des droits.

Le 10 février à 10h52

Alors que le Sommet pour l’action sur l’IA bat son plein (avec deux grosses journées aujourd’hui et demain), la CNIL a publié vendredi ses deux « nouvelles recommandations pour accompagner une innovation responsable ».

Elles viennent s’ajouter aux autres recommandations et proposent, selon la Commission nationale de l'informatique et des libertés, « des solutions concrètes pour informer les personnes dont les données sont utilisées et faciliter l’exercice de leurs droits ».

Informer les personnes… dans la mesure du possible

« Lorsque des données personnelles servent à l’entraînement d’un modèle d’IA et sont potentiellement mémorisées par celui-ci, les personnes concernées doivent être informées », souligne la première recommandation.

La CNIL précise le périmètre de ce qu’elle entend par « informer », et passe rapidement d’une phrase simple à quelques exceptions. Les modalités d’information peuvent ainsi « être adaptées en fonction des risques pour les personnes et des contraintes opérationnelles ».

La CNIL rappelle que le Règlement européen permet, dans certains cas, « de se limiter à une information générale (par exemple, sur le site web de l’organisme) ». Par exemple, lorsque les modèles d’IA utilisent des sources tierces et que « le fournisseur n’est pas en capacité de contacter individuellement les personnes ».

Et si jamais le modèle utilise de nombreuses sources (c’est le cas des grands modèles), « une information globale, indiquant par exemple des catégories de sources, voire le nom de quelques sources principales, est généralement suffisante », indique la CNIL. Une page dédiée aux obligations concernant l’information aux personnes est disponible par ici.

Données personnelles : « best effort » sur les droits

La seconde recommandation sonne comme un rappel : « La règlementation européenne prévoit des droits d’accès, de rectification, d’opposition et d’effacement des données personnelles ». Précisons que ces droits sont applicables aussi bien sur les bases de données d’apprentissage que sur les modèles d’IA en eux-même, du moins s’ils ne sont pas considérés comme anonymes.

La CNIL rappelle, en effet, que « certains modèles d’IA sont anonymes : ils n’ont pas à appliquer le RGPD. Mais d’autres modèles, comme le modèle de langage (LLM), peuvent contenir des données personnelles ».

Avec la quantité phénoménale de données ingurgitée par les IA (génératives) on se rend vite compte que la gestion des droits des utilisateurs sur les données personnelle est plus facile à dire qu’à faire. Face à cette problématique, la CNIL propose de mettre en place des « solutions réalistes et proportionnées afin de garantir les droits des personnes sans empêcher l’innovation en matière d’intelligence artificielle ».

La CNIL passe ainsi en mode best effort et « demande aux acteurs de faire tous leurs efforts pour prendre en compte la protection de la vie privée dès le stade de la conception du modèle ». L’histoire récente et l’actualité tendent à montrer le contraire, au moins sur les gros modèles américains et chinois (OpenAI et DeepSeek en tête) : les modèles se goinfrent généralement du maximum de données qu’ils peuvent trouver.

Quoi qu’il en soit, la Commission demande aux acteurs de « porter une attention particulière aux données personnelles présentes dans les bases d’entraînement : en s’efforçant de rendre les modèles anonymes, lorsque cela n’est pas contraire à l’objectif poursuivi ; et en développant des solutions innovantes pour empêcher la divulgation de données personnelles confidentielles par le modèle ».

De possibles « exceptions » à l’exercice des droits

La CNIL précise d’autres limitations : « le coût, l’impossibilité ou les difficultés pratiques pourront parfois justifier un refus d’exercice des droits ; lorsque le droit doit être garanti, la CNIL prendra en compte les solutions raisonnables à la disposition du créateur du modèle et les conditions de délai pourront être aménagées ».

Elle demande aux responsables de traitement de bien vérifier auprès des personnes exerçant leurs droits le motif de leur demande (données d’entraînement et/ou modèle d’IA) et de répondre de manière détaillée. Par exemple, « cela est particulièrement important lorsque la modification de leurs données dans les jeux d’entrainement n’est pas répercutée (ou du moins pas immédiatement) dans le modèle ou système d’IA déjà développé ».

À contrario, il existe des scénarios ou la conservation des données d’identification n’est pas nécessaire. Par exemple, si des personnes ont bien été informées que « l’effacement des données mémorisées par le modèle d’IA sera impossible ».

Le mot du jour : « anonymat »

La CNIL termine par un rappel d’une bonne pratique : « les solutions techniques aujourd’hui disponibles n’étant pas satisfaisantes dans tous les cas où un modèle est soumis au RGPD, la CNIL invite en priorité les fournisseurs à anonymiser les données d’entrainement ou, à défaut de pouvoir le faire, à s’assurer que le modèle d’IA est anonyme à l’issue de son entrainement ».

Dans tous les cas, la Commission en profite pour rappeler que la recherche avance rapidement et demande donc aux acteurs de se tenir informés des évolutions afin de « protéger au mieux les droits des personnes ». Là encore, une page dédiée a été mise en ligne.

Commentaires (6)

votre avatar
Je trouve dommage qu'en entreprise MistralAI ne soit pas mis plus en avant, tout le monde fonce chez Copilot et compagnie alors qu'il y a l'équivalent Français qui est franchement aussi efficace... Et qui, à mon avis, respecte plus les données privées que ces homologues américains.

C'est dommage que le gouvernement ne puisse pas, au moins sur les grosses entreprise, imposer l'utilisation d'une IA "souveraine" (même si certains disent que cela veut rien dire :p).

Je fais partie d'un groupe qui a foncé tout droits chez Copilot et fait plein de pub en interne pour que tout le monde l'utilise...
votre avatar
hmm.... ca vaut ce que ca vaut, mais d'après artificialanalysis.ai, le modèle "Mistral Large2" n'est pas vraiment compétitif comparé à GPT-4o ou Llama.


Model..................... Qy ... Speed.. Price

GPT-4o (Nov'24)........... 75 ... 103 ... 4.4$
Llama 3.3 70B............. 74 ... 87 .... 0.6$
Mistral Large2 (Nov '24).. 74 ... 38 .... 3$
GPT-4o mini............... 73 ... 114 ... 0.3$

Quality: Artificial Analysis Quality Index; Higher is better
Speed: Output Tokens per Second; Higher is better
Price: USD per 1M Tokens; Lower is better
votre avatar
Ben j'ai testé la génération de scripts python, quelques autres truc de dev, pas vu de diff avec ChatGPT, il fait des trucs plutôt corrects.
Si sur les tâches "courantes" il est aussi performant, ça me va :)

Après si on veut que l'AI "maison" arrive à la hauteur des autres, mais que personne ne l'utilise car les autres sont meilleurs, ben Mistral AI va couler, et puis tout le monde sera sur Copilot... (bon, vu que tout le monde est déjà sur Office365, on sera juste dépendant sur les AI en plus :D)
votre avatar
Ça m'étonnerait que la génération de scripts python utilise beaucoup de données personnelles.
votre avatar
Il y a a priori incompatibilité entre LMM et RGPD à partir du moment où le modèle est entraîné sur de grosses quantités de données dont certaines sont personnelles et non anonymisées.
Et notre "gendarme" national croit avoir le droit de modifier le droit européen pour que celui-ci ne puisse pas embêter les sociétés qui fournissent de l'IA en France ! Si au moins c'était en concertation avec ses homologues de l'UE, mais ça ne semble pas le cas.

Pour toutes les données récoltées avant que les utilisateurs de plateformes aient été prévenus d'une utilisation pour l'IA, le RGPD doit s'appliquer sans réserve. Dans un état de droit, ce n'est pas à une autorité de modifier les lois.
votre avatar
La CNIL passe ainsi en mode best effort et « demande aux acteurs de faire tous leurs efforts pour prendre en compte la protection de la vie privée dès le stade de la conception du modèle ».
Rappel inutile : « Protéger vos données est notre priorité », c'est marqué en gros partout !

IA vs RGPD : la CNIL veut une « innovation responsable »

  • Informer les personnes… dans la mesure du possible

  • Données personnelles : « best effort » sur les droits

  • De possibles « exceptions » à l’exercice des droits

  • Le mot du jour : « anonymat »

Fermer