Meta admet avoir entraîné son modèle Llama sur du contenu piraté
Le 17 janvier à 06h58
2 min
Droit
Droit
Meta admet avoir intégré le jeu de données Book3 au jeu d’entraînement de son grand modèle de langage Llama.
Si un journaliste de The Atlantic l’avait déjà démontré, TorrentFreak a repéré la confirmation apportée par l’entreprise elle-même dans les documents soumis à la justice américaine dans le cadre de la plainte qui oppose plusieurs artistes (un groupe différent de ceux qui ont attaqué OpenAI, Stable Diffusion, Midjourney et DeviantArt) aux géants numériques.
En effet, Book3 a été construite en 2020 par le chercheur en IA Shawn Presser, à partir d’un scrap de la bibliothèque « pirate » Bibliotik. La base de données a longtemps été laissé en libre accès dans l’idée qu’elle permettrait aux plus enthousiastes de créer de meilleurs modèles d’IA.
Quelques années plus tard, alors que de nombreuses entreprises privées s’activent dans le domaine de l’IA générative, l’intégration de ce jeu de données à l’entraînement de leurs machines fait émerger des problématiques de droits d’auteur proches de celles constatées du côté des modèles de génération d’images Midjourney, Dall-E et autre.
- Vie privée et propriété intellectuelle bousculées dans les jeux d’entrainement des IA génératives
- Des chercheurs ont élaboré une technique d’extraction des données d’entrainement de ChatGPT
- Midjourney recrache des images Pixar et d’œuvres protégées, parfois sans qu’on le lui demande
- Le New York Times attaque OpenAI et Microsoft pour violation du Copyright
- Plainte pour violation du Copyright : OpenAI répond au New York Times
Le 17 janvier à 06h58
Commentaires (10)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 17/01/2024 à 07h34
LAION-5B utilisé pour Stable Diffusion et son modèle SDXL était lui aussi ouvert et consultable jusqu'à sa désactivation après la découverte dedans de contenu illégal. Ce qui provoque la question de l'analyse à priori de leur contenu avant entraînement. Sur un dataset fermé, à moins de faire assez de prompt engineering pour tenter d'espérer de faire cracher la pilule par le modèle, ça reste de la suspicion.
Après la question du droit d'auteur reste toujours intéressante dans le cas d'un entraînement d'IA : est-ce qu'apprendre à lire du texte sur ces contenus est une violation de celui-ci ? (je ne parle pas de l'aspect recracher le contenu dans le cas présent)
On verra ce que diront les décisions de justice.
Le 17/01/2024 à 08h23
Le 17/01/2024 à 11h11
Le 17/01/2024 à 11h22
Faudra-t-il faire lire les textes par un humain et poser un micro à côté pour que l'IA apprenne sur la voix de l'humain au lieu de lire le texte elle-même ? Une sorte d'air-gap entre le texte de l'IA. Le ridicule n'a jamais tué les ayant-droits.
Le 17/01/2024 à 11h28
C'est pas vraiment de la création ex-nihilo.
Modifié le 17/01/2024 à 13h43
Le 17/01/2024 à 19h05
Le problème qui se pose aussi c'est qu'une IA recrache un peu trop violemment du contenu d'entrainement qui est protégé ce qui serait de la contrefaçon.
Le soucis est que l'IA comme son utilisateur peuvent ne pas réaliser cette problématique car ils ne contrôlent pas le résultat sur chaque oeuvre existante.
Alors qu'un auteur humain peut s'inspirer mais les risques de contrefaire par accidents sont assez minces.
Le 17/01/2024 à 20h11
On est tous d'accord je crois que les cas de régurgitation trop violents sont bien des violations de droit d'auteur et au moins OpentAI dit que c'est un problème qu'ils essaient de corriger. On verra bien si c'est possible sans trop dégrader leurs IA génératives.
Modifié le 17/01/2024 à 11h23
Modifié le 17/01/2024 à 21h18