X n’entrainera plus son IA Grok avec les données de ses utilisateurs européens
Le 05 septembre 2024 à 09h20
2 min
IA et algorithmes
IA
La Data Protection Commission (DPC), l'équivalent de la CNIL en Irlande, a annoncé mercredi 4 septembre avoir trouvé un accord avec le réseau social X. Celui-ci s'est engagé à arrêter d'entrainer Grok avec les données publiques (en clair, les tweets) de ses utilisateurs européens.
En aout, l'entreprise d'Elon Musk avait déjà suspendu ce traitement suite à la saisie de la Haute cour irlandaise par la DPC sur les bases de la loi irlandaise de protection des données votée en 2018.
La DPC explique avoir adressé parallèlement une demande d'avis au Comité européen de la protection des données (CEPD) pour éclaircir les modalités légales encadrant l'entrainement des modèles d'IA, notamment à propos de la base juridique invoquée par le responsable du traitement des données pour fonder ce traitement.
Le mois dernier, le responsable de la DPC, Des Hogan, expliquait vouloir étudier la compatibilité de ce traitement avec le RGPD : « mon collègue, le commissaire Dale Sunderland, et moi-même nous félicitons que la société X ait accepté de suspendre le traitement des données pendant que la DPC, en collaboration avec nos homologues de l'UE et de l'EEE, continue d'examiner dans quelle mesure le traitement des données est conforme au RGPD ».
Depuis le mois de mai, X a mis en place un système d'opt out pour tous ses utilisateurs, tout en restant discret sur le sujet.
Le 05 septembre 2024 à 09h20
Commentaires (12)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 05/09/2024 à 09h24
Le 05/09/2024 à 09h40
déjectionstweets pour ne pas avoir besoin d'en récolter de nouveaux avant longtempsLe 05/09/2024 à 10h19
Le 05/09/2024 à 11h32
Le 05/09/2024 à 13h07
Je parlais plutôt du contenu qu'on pourrait estimer faiblement qualitatif (même si ça reste très subjectif) comme des posts de médias sociaux. Quels seraient l'impact sur le modèle ?
En principe, celui-ci ne fait "que" d'associer des poids à des bouts de mots selon des contextes donnés. Il apprend à lire, pour résumer simplement. Mais quel serait l'impact d'apprendre à lire sur des contenus provenant de médias sociaux versus les corpus de texte plus habituels comme Wikipedia, les oeuvres littéraires du domaine public, toussa.
Le 06/09/2024 à 08h11
À partir de là c’est juste open bar, tu scrapes tout ce que tu peux et tu peux jurer que tu fais attention. C’est pas comme si le LLM stockait quelque part ce qu’il a lu.
(C’est basiquement le même problème que pour les contenus soumis au droits d’auteur)
Le 06/09/2024 à 09h53
Cf mon résumé du principe de fonctionnement dans mon message.
Le 05/09/2024 à 09h49
Le 05/09/2024 à 13h51
Le 05/09/2024 à 13h56
Le 05/09/2024 à 21h28
Le 05/09/2024 à 14h33