Microsoft promet de protéger les clients de ses IA d’attaques pour violation du copyright
Le 11 septembre 2023 à 05h20
1 min
Droit
Utilisant des masses de textes et d'images, les outils d'IA génératives sont des défis juridiques. Pour rassurer ses clients, Microsoft leur promet dans un billet de blog que, « si vous êtes mis en cause pour des raisons de droits d'auteur, nous assumerons la responsabilité des risques juridiques potentiels encourus ». Microsoft explique cette prise de position par le retour de préoccupations de ses clients inquiets « du risque de plaintes pour violation de la propriété intellectuelle s'ils utilisent les résultats produits par l'IA générative ».
Microsoft s'engage à défendre ses clients, mais aussi à payer « le montant de tout jugement ou règlement défavorable résultant du procès ».
L'entreprise donne quand même des conditions à cet engagement : « les clients doivent utiliser les filtres de contenu et autres systèmes de sécurité intégrés au produit et ne doivent pas tenter de générer des contenus illicites, notamment en ne fournissant pas de données à un service Copilot que le client n'a pas les droits appropriés d'utiliser ».
Le 11 septembre 2023 à 05h20
Commentaires (10)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 11/09/2023 à 07h28
#1
Wow ! Ça va être la foire d’Ampoigne des ayant-droits pour attaquer à tour de bras pour récupérer de la moula de Microsoft, non ?
Le 11/09/2023 à 08h02
#1.1
Il y a déjà des programmes dans ce sens, à destination des clients commerciaux ou des partenaires, par exemple, sans que ça attire les foules
Par contre, il faut lire l’annonce avec attention, ça ne concerne ni tout le monde (pas le segment consummer) ni tous les produits (pas ce qui est custom via les API open-AI)
Le 11/09/2023 à 10h23
#1.2
Ampoigné avec un é.
Le 11/09/2023 à 10h23
#1.2.1
Je me doutais bien que j’aurais pas dû l’utiliser celle là ! 😅
Merci pour la correction. 😉
Assez n’importe quoi ce site. ^^’
Le 11/09/2023 à 08h25
#2
Et voilà donc où va aller l’argent qui ne servira plus à payer les salaires des dizaines de milliers d’ex-employés qu’ils ont virés (et continuent à virer) depuis un an : il va payer les amendes ! Suupeeeer…
Foire d’empoigne (du verbe « empoigner »)… #SOSDico
Le 11/09/2023 à 08h54
#3
Vu les conditions, ça coute pas cher à Microsoft (ne pas utiliser de données pour lesquelles on a pas les droits)
Le 11/09/2023 à 10h27
#4
Ça c’est le gros délire des entreprises de cette taille, ou approchant : nous allons vous protéger, nous sommes votre père, votre mère, votre famille, votre bouclier, nous vous défendrons contre toute menace que nous aurons nous-même évaluée et soupesée…
Méfions-nous du pater/maternalisme. Çà endort notre méfiance, ça a tendance à sectariser les gens, et ça ne donne rien de bon, au final…
Le 11/09/2023 à 10h46
#5
J’aurais effectivement pu te diriger vers celui-ci plus académique. C’est le sous-titre du premier qui me l’a fait choisir, je n’avais même pas vu le reste de la page qui est effectivement wtf.
Le 11/09/2023 à 12h02
#6
Vision stratégique/20
Il ne faut pas être grand clerc pour comprendre que des clients peuvent avoir des réticences face à une innovation qui arrive tout juste sur le marché, et qu’il faut passer outre ces réticences pour que le produit puisse toucher sa cible. Avec tous les zayantdroits et consorts qui passent leur temps à pleurer au vol, il est compréhensible qu’une entreprise se pose des questions avant d’acquérir une solution qui peut potentiellement les mettre à risque; alors que là, la question se posera moins, vu que les effets ne seront pas supportés par le client.
Le 11/09/2023 à 16h11
#7
Presque rien à voir, ce week end en publiant un ebook sur Amazon Kindle, j’ai découvert que la plateforme a rajouté un critère IA depuis le précédent livre que j’ai publié dessus (probablement à cause de tous les bouquins balancés comme ça dessus générés ainsi).
La plateforme demande désormais de préciser si le contenu a été entièrement ou partiellement produit par IA générative et d’indiquer si celui-ci a été plus ou moins altéré ensuite. L’idée serait d’indiquer que l’auteur doit s’être assuré de n’avoir violé aucun copyright.
Problème : les livres que j’ai publié ont été écrits par moi-même (même si parfois j’ai eu un peu d’aide pour organiser le plan projet par ChatGPT, ça s’arrête là). Par contre j’ai généré les couvertures avec StableDiffusion.
Si je dis “Oui j’ai utilisé de l’IA”, je dois indiquer à quel degré pour :
Mais pour chacun d’entre eux, il n’y a aucun niveau disant : “Pas d’IA utilisée pour ce critère”.
Résultat, j’ai mis non… La déclaration reste optionnelle. L’idée a un intérêt, mais il est regrettable de voir qu’ils n’ont pas été assez granulaires.