IA vs RGPD : la CNIL veut une « innovation responsable »
Vous avez fait le max ? Ok, ça va alors…

Flock
La CNIL surveille depuis longtemps le développement des intelligences artificielles, notamment au travers du RGPD. La gardienne des libertés individuelles propose deux nouvelles recommandations pour « un usage de l’IA respectueux des données personnelles » : informer les personnes et faciliter l’exercice des droits.
Le 10 février à 10h52
6 min
IA et algorithmes
IA
Alors que le Sommet pour l’action sur l’IA bat son plein (avec deux grosses journées aujourd’hui et demain), la CNIL a publié vendredi ses deux « nouvelles recommandations pour accompagner une innovation responsable ».
Elles viennent s’ajouter aux autres recommandations et proposent, selon la Commission nationale de l'informatique et des libertés, « des solutions concrètes pour informer les personnes dont les données sont utilisées et faciliter l’exercice de leurs droits ».
- Sommet pour l’action sur l’IA : quels sont les enjeux ?
- Intelligence artificielle : la CNIL veut (re)concilier « innovation et respect des droits »
Informer les personnes… dans la mesure du possible
« Lorsque des données personnelles servent à l’entraînement d’un modèle d’IA et sont potentiellement mémorisées par celui-ci, les personnes concernées doivent être informées », souligne la première recommandation.
La CNIL précise le périmètre de ce qu’elle entend par « informer », et passe rapidement d’une phrase simple à quelques exceptions. Les modalités d’information peuvent ainsi « être adaptées en fonction des risques pour les personnes et des contraintes opérationnelles ».
La CNIL rappelle que le Règlement européen permet, dans certains cas, « de se limiter à une information générale (par exemple, sur le site web de l’organisme) ». Par exemple, lorsque les modèles d’IA utilisent des sources tierces et que « le fournisseur n’est pas en capacité de contacter individuellement les personnes ».
Et si jamais le modèle utilise de nombreuses sources (c’est le cas des grands modèles), « une information globale, indiquant par exemple des catégories de sources, voire le nom de quelques sources principales, est généralement suffisante », indique la CNIL. Une page dédiée aux obligations concernant l’information aux personnes est disponible par ici.
Données personnelles : « best effort » sur les droits
La seconde recommandation sonne comme un rappel : « La règlementation européenne prévoit des droits d’accès, de rectification, d’opposition et d’effacement des données personnelles ». Précisons que ces droits sont applicables aussi bien sur les bases de données d’apprentissage que sur les modèles d’IA en eux-même, du moins s’ils ne sont pas considérés comme anonymes.
La CNIL rappelle, en effet, que « certains modèles d’IA sont anonymes : ils n’ont pas à appliquer le RGPD. Mais d’autres modèles, comme le modèle de langage (LLM), peuvent contenir des données personnelles ».
Avec la quantité phénoménale de données ingurgitée par les IA (génératives) on se rend vite compte que la gestion des droits des utilisateurs sur les données personnelle est plus facile à dire qu’à faire. Face à cette problématique, la CNIL propose de mettre en place des « solutions réalistes et proportionnées afin de garantir les droits des personnes sans empêcher l’innovation en matière d’intelligence artificielle ».
La CNIL passe ainsi en mode best effort et « demande aux acteurs de faire tous leurs efforts pour prendre en compte la protection de la vie privée dès le stade de la conception du modèle ». L’histoire récente et l’actualité tendent à montrer le contraire, au moins sur les gros modèles américains et chinois (OpenAI et DeepSeek en tête) : les modèles se goinfrent généralement du maximum de données qu’ils peuvent trouver.
Quoi qu’il en soit, la Commission demande aux acteurs de « porter une attention particulière aux données personnelles présentes dans les bases d’entraînement : en s’efforçant de rendre les modèles anonymes, lorsque cela n’est pas contraire à l’objectif poursuivi ; et en développant des solutions innovantes pour empêcher la divulgation de données personnelles confidentielles par le modèle ».
De possibles « exceptions » à l’exercice des droits
La CNIL précise d’autres limitations : « le coût, l’impossibilité ou les difficultés pratiques pourront parfois justifier un refus d’exercice des droits ; lorsque le droit doit être garanti, la CNIL prendra en compte les solutions raisonnables à la disposition du créateur du modèle et les conditions de délai pourront être aménagées ».
Elle demande aux responsables de traitement de bien vérifier auprès des personnes exerçant leurs droits le motif de leur demande (données d’entraînement et/ou modèle d’IA) et de répondre de manière détaillée. Par exemple, « cela est particulièrement important lorsque la modification de leurs données dans les jeux d’entrainement n’est pas répercutée (ou du moins pas immédiatement) dans le modèle ou système d’IA déjà développé ».
À contrario, il existe des scénarios ou la conservation des données d’identification n’est pas nécessaire. Par exemple, si des personnes ont bien été informées que « l’effacement des données mémorisées par le modèle d’IA sera impossible ».
Le mot du jour : « anonymat »
La CNIL termine par un rappel d’une bonne pratique : « les solutions techniques aujourd’hui disponibles n’étant pas satisfaisantes dans tous les cas où un modèle est soumis au RGPD, la CNIL invite en priorité les fournisseurs à anonymiser les données d’entrainement ou, à défaut de pouvoir le faire, à s’assurer que le modèle d’IA est anonyme à l’issue de son entrainement ».
Dans tous les cas, la Commission en profite pour rappeler que la recherche avance rapidement et demande donc aux acteurs de se tenir informés des évolutions afin de « protéger au mieux les droits des personnes ». Là encore, une page dédiée a été mise en ligne.
IA vs RGPD : la CNIL veut une « innovation responsable »
-
Informer les personnes… dans la mesure du possible
-
Données personnelles : « best effort » sur les droits
-
De possibles « exceptions » à l’exercice des droits
-
Le mot du jour : « anonymat »
Commentaires (6)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 10/02/2025 à 11h17
C'est dommage que le gouvernement ne puisse pas, au moins sur les grosses entreprise, imposer l'utilisation d'une IA "souveraine" (même si certains disent que cela veut rien dire :p).
Je fais partie d'un groupe qui a foncé tout droits chez Copilot et fait plein de pub en interne pour que tout le monde l'utilise...
Le 10/02/2025 à 11h43
Model..................... Qy ... Speed.. Price
GPT-4o (Nov'24)........... 75 ... 103 ... 4.4$
Llama 3.3 70B............. 74 ... 87 .... 0.6$
Mistral Large2 (Nov '24).. 74 ... 38 .... 3$
GPT-4o mini............... 73 ... 114 ... 0.3$
Quality: Artificial Analysis Quality Index; Higher is better
Speed: Output Tokens per Second; Higher is better
Price: USD per 1M Tokens; Lower is better
Le 10/02/2025 à 11h47
Si sur les tâches "courantes" il est aussi performant, ça me va :)
Après si on veut que l'AI "maison" arrive à la hauteur des autres, mais que personne ne l'utilise car les autres sont meilleurs, ben Mistral AI va couler, et puis tout le monde sera sur Copilot... (bon, vu que tout le monde est déjà sur Office365, on sera juste dépendant sur les AI en plus
Le 10/02/2025 à 11h54
Le 10/02/2025 à 11h52
Et notre "gendarme" national croit avoir le droit de modifier le droit européen pour que celui-ci ne puisse pas embêter les sociétés qui fournissent de l'IA en France ! Si au moins c'était en concertation avec ses homologues de l'UE, mais ça ne semble pas le cas.
Pour toutes les données récoltées avant que les utilisateurs de plateformes aient été prévenus d'une utilisation pour l'IA, le RGPD doit s'appliquer sans réserve. Dans un état de droit, ce n'est pas à une autorité de modifier les lois.
Le 10/02/2025 à 21h44