CNIL Logo

Régulation de l’IA générative par la CNIL : le rapport d’information est en ligne

CNIL Logo

Mardi, nous dévoilions en avant-première le contenu du rapport d’information de l’Assemblée nationale « sur les défis de l’intelligence artificielle générative en matière de protection des données personnelles et d’utilisation du contenu généré ».

Les rapporteurs proposent pour rappel de transformer la CNIL et de lui donner de nouveaux pouvoirs : « « seule la CNIL dispose de l’expertise et de l’expérience nécessaires pour évaluer le respect du RGPD par les modèles d’IAG ». Ils souhaitent donc en faire une « Haute autorité en charge de la protection des données et du contrôle de l’IA générative ».

Le rapport complet est désormais disponible sur le site de l’Assemblée nationale. On y retrouve à la fin 30 recommandations.

Commentaires (3)


La recommandation n°5 semble illusoire, dans tous les cas il va y avoir du travail.
D'ailleurs, encore autre chose avec Sora :fume:
https://openai.com/sora
Un tel rapport est-il utile quand il arrive après un accord sur l'AI act, un règlement, où chaque pays devra désigner une autorité ? Une façon de pousser la CNIL dans ce rôle ?
L’expression « intelligence artificielle » a été créée dans les années 1950, après l’apparition des premiers programmes informatiques, et une simple calculatrice peut être considérée une forme d’IA basique.


Ça commence bien !
Dans certains cas, le résultat produit peut aboutir à une prise de décision par la machine elle-même (par exemple, le freinage d’un véhicule autonome en cas de détection d’un danger).


Des algos déterministes classiques peuvent aussi prendre ce genre de décision.
L’IA se distingue toutefois d’un algorithme de base, dans la mesure où elle est capable de répondre à une situation nouvelle à partir de situations antérieures, simulant ainsi l’apprentissage humain, au point qu’un même stimulus peut parfois entraîner des réponses distinctes.


Ou comment dire 2 § plus bas que ma première citation contenait une connerie. Une simple calculatrice répondra toujours la même chose à un même stimulus.
Les données sont fournies à l’IA par les concepteurs (modèle fermé) et parfois par l’utilisateur de l’IA (modèle ouvert). Elles sont traitées par l’IA grâce à l’algorithme. Les modèles ouverts sont plus particulièrement exposés au risque dit « d’hallucination », puisqu’ils réintègrent des données qu’ils ont eux-mêmes produites, parfois par erreur.


Si quelqu'un peut dire si cette notion de modèle ouvert ou fermé est bonne ? J'ai l'impression qu'il n'y a pas que l'IA qui puisse halluciner.

Ça ne me donne pas trop envie de tout lire...
Fermer