Google promet aux clients de ses IA de les défendre face aux procès pour violation de Copyright
Le 16 octobre 2023 à 05h10
2 min
Droit
Droit
Après Microsoft le mois dernier, Google veut rassurer les entreprises qui se posent des questions sur l'utilisation de ses IA et notamment face aux risques légaux encourus.
En effet, les outils d'IA génératives utilisant de nombreux textes et images pour leur entrainement, les ayants droits peuvent considérer des contenus générés par IA trop proches de leurs œuvres. Et ce risque peut freiner l'adoption des technologies dans lesquelles les GAFAM ont énormément investi ces derniers mois.
« Si vous êtes attaqué pour des raisons de droits d'auteur, nous assumerons la responsabilité des risques juridiques potentiels encourus », soutient l'entreprise à ses clients.
Google met en avant qu'elle protège non seulement ses clients contre l'attaque à propos de l'utilisation de données d'entrainement utilisées par Google pour générer leurs modèles, mais aussi en assurant ses clients contre des attaques sur les résultats proposés par ses IA.
Évidemment, l'entreprise précise que ses clients ne sont pas protégés s'ils n'ont « pas essayé de créer ou d'utiliser intentionnellement les résultats générés pour enfreindre les droits d'autrui » et s'ils utilisent « les outils existants et émergents, par exemple pour citer les sources afin d'utiliser les résultats générés de manière responsable ».
Le 16 octobre 2023 à 05h10
Commentaires (19)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 16/10/2023 à 05h19
C’est quand même une stratégie amusante de la part de ces deux entreprises. Elles savent pertinemment qu’il y a des questions juridiques au sujet de l’entraînement de l’IA et du travail qu’elle produit, mais elles incitent quand même à l’usage en disant “t’inquiète je m’en occupe”.
Ce genre de clause va devoir être bien examiné par les services juridiques des clients cela dit. Tout comme il faudra bien s’assurer que les personnes utilisant les services derrière soient informées et qu’il y ait des gardes fous (comme GitHub Copilot qui a un filtre pour éviter de reproduire du code sous license libre).
Cela dit, le sujet intéressant autour de l’IA de mon point de vue est aussi la ressource qu’elle consomme. Un récent article avait fait état que GitHub perdrait en moyenne 20$/mois par utilisateur sur Copilot et citait le cas des outils d’Adobe qui étaient bridés pour justement éviter qu’ils ne coûtent plus chers à l’usage que ce qu’ils rapportent.
Pour le moment, j’oserais dire que l’investissement n’est profitable que pour Nvidia
Le 16/10/2023 à 06h30
Assez ironique quand d’un autre coté Google fait le gendarme des droits voisin sur YouTube. Ils vont faire quoi je jour ou leur propre bot vont démonétiser des contenus crée à l’aide leur propre IA (ou celle de MS…)?
Le 16/10/2023 à 06h45
J’ai pas envie de défendre Google, mais pour le coup, sauf erreur, ce n’est pas Youtube qui démonétise, mais les ayant-droits.
Youtube ne fait “que” intégrer des bots et outils de “contrôles” qui sont souvent utilisés à tort et à travers par les ayant-droits, sans garde-fous.
C’est pas dans l’intérêt de Youtube de brider ainsi les créateurs : ils ont juste pas le choix, juridiquement parlant.
Le 16/10/2023 à 07h04
Sauf que justement maintenant que ça les concerne ils ont l’air de penser que si…
Le 16/10/2023 à 10h25
Pardon ? Je parlais de la gestion des droits dans Youtube.
Comment ça “maintenant que ça les concerne” ?
C’est quoi le “ça” ?
“maintenant”, ça fait des années que les ayant-droits peuvent démonétiser les créateurs. L’un des cas les plus forts selon moi, c’est la dernière vidéo de What The Cut, démonétisée à cause d’une musique, ce qui a poussé Antoine Daniel à arrêter la chaîne. Un bel exemple de comment les droits d’auteur font du mal à la culture.
Le 16/10/2023 à 07h19
Est-ce que ce système, de “je te protège de la loi si tu viens chez moi”, ne peut pas s’apparenter à un système mafieux?
La base de la loi, c’est que c’est la même pour tous.
Le 16/10/2023 à 08h11
Aujourd’hui, certains disent que ces systèmes sont conformes à la loi (j’en suis,mais mon avis n’a que peu d’importance pour les potentiels utilisateurs) et d’autres disent le contraire. Cette situation cause un problème pour ceux qui proposent des services sur ces IA génératives.
Le fait que ces acteurs prennent à leur charge d’éventuelles conséquence juridiques prouvent avant tout qu’ils pensent pouvoir prouver qu’ils sont conformes à la loi sur le droit d’auteur. Et comme il savent comment leurs systèmes ont été entraînés, ils ont probablement raison et sont capables de le démontrer.
Ils ne protègent pas de la loi, mais d’un risque en l’absence de jugement et de jurisprudence sur le sujet.
Le 16/10/2023 à 10h00
De ce point de vue, c’est plus logique effectivement. Une sorte d’avocat prépayé qui endosserait les conséquences d’un potentiel jugement.
Le 16/10/2023 à 10h07
Ça va plus loin que payer l’avocat puisque la société (Microsoft ou Google) se dit responsable vis-à-vis de la justice et donc paierait les amendes ou dommages et intérêts.
Le 16/10/2023 à 08h12
pour le coup, ce n’est pas un “je te protège de la loi”, mais plutôt un “je prend le risque juridique pour moi”. Tu peux voir ça comme une assurance (après, tu peux considérer que le système des assurances est mafieux, mais c’est un autre débat )
Le 16/10/2023 à 08h10
Si j’en crois le communiqué de Google, ça couvre l’utilisateur de leur services cloud AI si
C’est quand même un minimum d’assumer ses responsabilités quand on vend un service, il me semble.
Le 16/10/2023 à 09h02
Une fois qu’on est devenu dépendant de ces services, Google pourrait changer les termes par la suite.
Le 16/10/2023 à 12h40
Je n’ai jamais entendu cette raison pour l’arrêt.
Plus un burn out.
Je l’ai aussi entendu dire qu’il ne se sentait pas vraiment légitime.
Par contre ça emmerde bien l’équipe de JDG.
Le 16/10/2023 à 13h27
Ah ben merci de m’avoir détrompé ! Biais de confirmation de ma part : j’étais tellement sûr que c’était la démonétisation qui avait donné “le coup de grâce” à la chaîne.
Le 16/10/2023 à 13h39
Ou alors ils ont fait une étude bénéfices/risques et ont estimé que l’argent qu’ils gagneront dans leur course en avant sur l’IA compensera les éventuelles pertes liées aux procès. Sachant que les géants du Net, comme toutes les très grosses boites, sont très doués pour faire durer les procès.
Le 16/10/2023 à 13h45
Pas dans ce sens là. Comme dit ci-avant, c’est davantage une assurance juridique.
Mais il y a un petit coté (gentil) mafieux dans le sens où ça peut dissuader certains coypright-troll de s’attaquer directement aux clients. Un peu l’effet “thermonuclear war” que promettait Apple.
Le 17/10/2023 à 16h03
Ahhhhhh… euh….
Mais alors donc du coup c’est où qu’on place la frontière limitant le gouffre canyonesque qui fait la différence entre la dissuasion et l’intimidation ?
Par ex: M. Tout-le-monde te demande « c’est moi qu’tu r’garde ? » versus une armoire à glace nue « je veux tes fringues et ta moto »…
Le 18/10/2023 à 06h53
La dissuasion c’est quand tout le monde sait que ton bodyguard ultra-balaise ne fera rien tant qu’on te laisse tranquille.
Le 18/10/2023 à 16h28
J’aurais cru que dans le cas de la dissuasion, le bodyguard ultra balèze doit aussi ne rien faire même si on ne te laisse pas tranquille selon la situation et la manière et la cause qui fait qu’on ne te laisse pas tranquille.
Par exemple, si tu voles une pomme et que ton bodyguard te défends de l’épicier, alors j’y vois plus de l’intimidation que de la dissuasion.
Mais comme ici on parle de droit d’auteur et pas de pommes, je ne sais pas ce qu’il en est.