IA : les géants numériques changent discrètement leurs conditions d’utilisation
Le 26 juin 2024 à 15h29
2 min
IA et algorithmes
IA
Depuis plusieurs mois, le New-York Times relève une tendance nette à travers l’industrie : de modifications discrètes des conditions d’utilisation de divers services numériques.
En juillet 2023, Google modifiait la phrase « Nous utilisons des informations accessibles au public pour entrainer les modèles de langage de Google et créer des produits et des fonctionnalités telles que Google Translate » pour « Nous utilisons des informations accessibles au public pour entrainer les modèles d’intelligence artificielle de Google et créer des produits et des fonctionnalités telles que Google Translate, Bard et des fonctions d'IA dans le cloud ».
Parfois très courtes, ces mises à jour peuvent aussi se traduire, comme chez Snap, par l’ajout de sections complètes dans lesquels l’usage de modèles génératifs est détaillé, de même que le type de personne ayant accès aux données des internautes.
Le plus souvent ignorés, ces changements attirent un nombre croissant de critiques, notamment de la part d’artistes qui y voient une nouvelle manière, pour les plateformes, de s’approprier leur travail. Adobe, en particulier, a été vivement critiqué pour une évolution de sa politique qui a largement été comprise comme l’annonce d’un scraping des travaux réalisés grâce à ses outils.
En Europe, Meta a été visé par le même type de backlash, ce qui a abouti à la suspension de son projet d’entraînement de systèmes algorithmiques sur les publications de ses usagers.
Aux États-Unis, cela dit, les lois sont moins strictes, ce qui signifie que l’entreprise peut déjà réaliser ce type d’entraînement, sans avoir dû prévenir les utilisateurs.
Le 26 juin 2024 à 15h29
Commentaires