Getty poursuit un éditeur d’algorithme en justice pour violation des droits d’auteurs

Getty poursuit un éditeur d’algorithme en justice pour violation des droits d’auteurs

Getty poursuit un éditeur d’algorithme en justice pour violation des droits d’auteurs

Getty Images porte plainte devant la cour de Justice de Londres contre Stability AI, le créateur de l’outil algorithmique artistique Stable Diffusion, pour violation des droits d’auteur. Dans un communiqué, l’entreprise déclare considérer que Stability AI a illégalement copié et traité des millions d’images de sa plateforme afin d’entraîner le modèle algorithmique à partir duquel fonctionne son logiciel.

La plainte prend une importance particulière dans le contexte de développement fulgurant de modèles algorithmiques générateurs d’image comme Dall-E, Midjourney ou, donc, Stable Diffusion. Si certains constructeurs, comme OpenAI, ne permettent pas d’explorer les données qui ont servi à entraîner leurs modèles, celles de Stable Diffusion sont open source. Ceci a permis à deux analystes indépendants de montrer qu’une bonne partie provenait d’images stocks récupérées auprès d’Adobe Stock, Shutterstock, PhotoShelter ou Getty Images.

Interrogé par The Verge, le PDG de Getty Craig Peters a déclaré ne pas chercher à obtenir des gains financiers, mais à créer un nouveau statu quo juridique sur la question de l’entraînement de ces modèles algorithmiques. Il a comparé la situation actuelle aux débats qui entouraient les droits d’auteurs aux débuts de la musique en ligne.

Le 13 janvier, une autre plainte a été déposée auprès d’un tribunal californien par le cabinet d’avocats Joseph Saveri LLP, toujours au sujet de violation des droits d’auteurs, au nom d’un collectif d’artistes. Stability AI y est aussi visée, aux côtés de DeviantArt et Midjourney.

Commentaires (25)


Moralité : quand vous mettez au point un modèle d’IA pour générer des images, ne divulguez pas les sources utilisées pour entraîner votre modèle !
J’ai peur que cette plainte ne se retourne contre Getty (et l’ensemble des gros hébergeurs d’images accessibles facilement).



anagrys a dit:


Moralité : quand vous mettez au point un modèle d’IA pour générer des images, ne divulguez pas les sources utilisées pour entraîner votre modèle !




+1, c’est d’une tristesse …




J’ai peur que cette plainte ne se retourne contre Getty (et l’ensemble des gros hébergeurs d’images accessibles facilement).




Ah, pourquoi ?



une autre plainte a été déposée […] au nom d’un collectif d’artistes




Ce qui est assez savoureux c’est que, parmi ces artistes, certains ont fait exactement ce qu’ils reprochent aux AI (ex création d’oeuvres “dans le style de” Frank Frazetta)


Euh, perso, je ne suis pas du tout contre le fait d’avoir un cadre juridique pour ça, et il me semble indéniable que si les Dall-E & co génèrent d’aussi “belles” images, c’est bel et bien parce qu’on les a nourries avec des tonnes d’images créées par de vrais artistes, dont le travail est soumis au droit d’auteur (et c’est bien normal).



Autant je ne suis pas un grand ami des “sociétés de gestion collective” et autres intermédiaires qui réclament de l’argent sans rien branler (ou presque), autant je trouve toujours que les auteurs et les artistes ne doivent pas être pillés sans rémunération. Et pourtant je suis technophile. Mais il y a des questions qui méritent d’être posées.


arguments employés et décision à suivre avec attention !
Il est possible que ça fasse émerger de nouveaux concepts juridiques.



Je pense que la meilleure solution est de faire payer une taxe copie privée à l’IA :windu:


Le sujet est intéressant.



Getty Images a fait apparaître dans sa licence d’utilisation des images une clause qui interdit cela en avril 2019 (sauf achat de licence supplémentaire) :
Aucune utilisation de Machine Learning, d’Intelligence Artificielle, ou de technologie biométrique. Sauf autorisation expresse de Getty Images, vous n’êtes pas autorisé à utiliser le contenu (y compris les informations de légende, les mots-clés ou autres métadonnées associées au contenu) à des fins d’apprentissage machine et/ou d’intelligence artificielle, ou pour toute technologie conçue ou destinée à l’identification des personnes physiques. En outre, Getty Images ne déclare ni ne garantit que le consentement n’ait été obtenu pour de telles utilisations de contenu assorti d’une autorisation du modèle. Avant, il n’y avait rien sur le sujet.



Certaines des images utilisées datent d’après cette date (1769 ou 6274 par exemple), il y a donc eu une utilisation contraire à cette licence.



Le point qui reste à déterminer, c’est si une telle restriction est légale ou pas.
Ceux qui entraînent leurs AI justifient par le fair use (ou fair dealing suivant les pays). Cette utilisation ne semble pas “fair” et ne semble pas relever de la recherche (un cas autorisé par le fair use) à partir du moment où ces sociétés commercialisent le résultat de cet entraînement.
Ce qui est certain aussi, c’est qu’il y a bien eu reproduction (copie) puisqu’ils donnent accès à leur jeu de données.



Mais bon, laissons la justice trancher, c’est un peu trop compliqué pour moi pour avoir des certitudes.


En théorie, pour la France, le droit d’opposition traduisible en « licence » émanant de l’auteur vaut à condition qu’il n’ait pas lui-même communiqué au préalable.



Il faut alors rappeller que le droit moral de l’auteur étant inaliénable, la loi n’en précise cependant pas clairement toutes les modalités ad hoc.



Si, par exemple, demain Microsoft est accusé devant un Tribunal de manquer à sa probité dans l’exercice de son propre contrat par exemple, une modalité litigieuse de la « licence » peut par exemple tomber sous le coup du code de la consommation et non relever du droit d’auteur dans la mesure où le nombre de copies pose cette question sans préjudice des mesures techniques de protection.



C’est tout sauf simple, même pour ceux qui ont les notions on voit bien que chasser le problème d’un côté le déplace de l’autre.



(quote:2115161:Ced-le-pingouin)
Euh, perso, je ne suis pas du tout contre le fait d’avoir un cadre juridique pour ça, et il me semble indéniable que si les Dall-E & co génèrent d’aussi “belles” images, c’est bel et bien parce qu’on les a nourries avec des tonnes d’images créées par de vrais artistes, dont le travail est soumis au droit d’auteur (et c’est bien normal).




Et quand c’est un artiste humain qui crée une oeuvre, il le fait indépendamment de toute culture artistique ? Il ne s’inspire de rien ? Renoir, Monet, Manet, Pissaro, ils ne regardaient pas ce que faisaient les uns les autres ? Pourtant il y a des similitudes dignes d’une IA qui générerait une oeuvre “à la façon de”.


C’est exactement la question que je me pose, La création “artistique” est une processus qui est fortement lié à la “culture artistique” de l’auteur. Aujourd’hui, j’entends beaucoup de personnes, même chez des artistes, dire qu’elles utilisent Pinterest justement pour trouver des idées. De là, leur création est largement influencer par ces images.


L’inspiration et l’influence sont très différentes de reprendre l’image existante et la modifier pour en faire une autre, ou en mélanger plusieurs pour faire un patchwork. Quand les générateurs sortent des images avec des signatures d’artistes déformées dans un coin (voir étalées sur toute l’image parce que l’IA ne comprend pas de quoi il s’agit) ce n’est pas de l’inspiration, c’est du photomontage non-autorisé et donc du vol.


ThomChroma

L’inspiration et l’influence sont très différentes de reprendre l’image existante et la modifier pour en faire une autre, ou en mélanger plusieurs pour faire un patchwork. Quand les générateurs sortent des images avec des signatures d’artistes déformées dans un coin (voir étalées sur toute l’image parce que l’IA ne comprend pas de quoi il s’agit) ce n’est pas de l’inspiration, c’est du photomontage non-autorisé et donc du vol.


Si tu penses qu’une IA se contente de faire un patchwork, c’est que tu n’as aucune idée du fonctionnement des IA génératives. Non, ça ne marche pas comme ça, ça en extrait les caractéristiques, et ça reproduit ces caractéristiques. Tu peux demander une image “à la Van Gogh”, et ça va générer une image en style pointilliste, mais en aucun cas une copie ni un fragment d’un tableau de Van Gogh.



Quant aux artistes qui ne feraient pas de la reprise, là encore, renseigne toi. Tiens, juste un exemple :
https://www.nationalgallery.org.uk/exhibitions/past/picasso-ingres-face-to-face


ThomChroma

L’inspiration et l’influence sont très différentes de reprendre l’image existante et la modifier pour en faire une autre, ou en mélanger plusieurs pour faire un patchwork. Quand les générateurs sortent des images avec des signatures d’artistes déformées dans un coin (voir étalées sur toute l’image parce que l’IA ne comprend pas de quoi il s’agit) ce n’est pas de l’inspiration, c’est du photomontage non-autorisé et donc du vol.


Une autre façon de voir le problème est de rappeller qu’on a le droit de dessiner dans un musée mais pas de prendre en photo. (je rappelle aux mal-informés que les Musées font depuis leur origine oeuvre non-utopique de pédagogie)


ThomChroma

L’inspiration et l’influence sont très différentes de reprendre l’image existante et la modifier pour en faire une autre, ou en mélanger plusieurs pour faire un patchwork. Quand les générateurs sortent des images avec des signatures d’artistes déformées dans un coin (voir étalées sur toute l’image parce que l’IA ne comprend pas de quoi il s’agit) ce n’est pas de l’inspiration, c’est du photomontage non-autorisé et donc du vol.


Les algo d’apprentissages automatiques sont des outils statistiques. Il ne fait pas de patchwork ni de photomontage. Techniquemenent, Dall-E, Midjourney et Stable Diffusion sont des algorithme paramétrique. Il n’ont conserver aucune donnée de leur base d’apprentissage, mais en on tirer des “règles”, de la même manière qu’un artiste à force de voir de l’impressionnisme, il en appris des règles pour en dessiner.



Par exemple, si je lui demande le tableau original de la Joconde, il ne va pas chercher dans un base de donnée le tableau et me le ressortir puisse qu’il ne l’a pas. Il va activer certaines règles, désactiver d’autres, avec ses règles, va générer un nouveau tableau. La Joconde (Mona Lisa) étant largement utilisé, c’est un mot “commun” (au même titre que je dirais “une pivoine”) qui est associer à un style, un sujet et à une composition. Comme tu peux voir ici, Dall-E m’a généré l’exact copie de celle du Louvre qui rend hommage à son sourire…. ou pas (et j’ai pourtant pris la proposition la plus ressemblante).


tazvld

Les algo d’apprentissages automatiques sont des outils statistiques. Il ne fait pas de patchwork ni de photomontage. Techniquemenent, Dall-E, Midjourney et Stable Diffusion sont des algorithme paramétrique. Il n’ont conserver aucune donnée de leur base d’apprentissage, mais en on tirer des “règles”, de la même manière qu’un artiste à force de voir de l’impressionnisme, il en appris des règles pour en dessiner.



Par exemple, si je lui demande le tableau original de la Joconde, il ne va pas chercher dans un base de donnée le tableau et me le ressortir puisse qu’il ne l’a pas. Il va activer certaines règles, désactiver d’autres, avec ses règles, va générer un nouveau tableau. La Joconde (Mona Lisa) étant largement utilisé, c’est un mot “commun” (au même titre que je dirais “une pivoine”) qui est associer à un style, un sujet et à une composition. Comme tu peux voir ici, Dall-E m’a généré l’exact copie de celle du Louvre qui rend hommage à son sourire…. ou pas (et j’ai pourtant pris la proposition la plus ressemblante).


La copie non autorisée d’un moule de coulée est-elle pour autant autant légitime que le moule original qu’il copie ?


tazvld

Les algo d’apprentissages automatiques sont des outils statistiques. Il ne fait pas de patchwork ni de photomontage. Techniquemenent, Dall-E, Midjourney et Stable Diffusion sont des algorithme paramétrique. Il n’ont conserver aucune donnée de leur base d’apprentissage, mais en on tirer des “règles”, de la même manière qu’un artiste à force de voir de l’impressionnisme, il en appris des règles pour en dessiner.



Par exemple, si je lui demande le tableau original de la Joconde, il ne va pas chercher dans un base de donnée le tableau et me le ressortir puisse qu’il ne l’a pas. Il va activer certaines règles, désactiver d’autres, avec ses règles, va générer un nouveau tableau. La Joconde (Mona Lisa) étant largement utilisé, c’est un mot “commun” (au même titre que je dirais “une pivoine”) qui est associer à un style, un sujet et à une composition. Comme tu peux voir ici, Dall-E m’a généré l’exact copie de celle du Louvre qui rend hommage à son sourire…. ou pas (et j’ai pourtant pris la proposition la plus ressemblante).


Pour éviter les malentendus sur les « moyens ».



fred42 a dit:



Certaines des images utilisées datent d’après cette date (1769 ou 6274 par exemple), il y a donc eu une utilisation contraire à cette licence.




C’est le jeu de données de base mais, semble-t-il, toutes ne sont pas utilisées. Il y aurait un filtre sur le critère de watermark : les images avec un score de watermark > 0.8 ne sont pas utilisées pour entraîner le modèle. Il y a peut-être aussi un filtre pour virer les images provenant de banques d’images et/ou à partir d’une certaine date ?



le PDG de Getty Craig Peters a déclaré ne pas chercher à obtenir des gains financiers, (…/…) Il a comparé la situation actuelle aux débats qui entouraient les droits d’auteurs aux débuts de la musique en ligne.




Je ne saurais répondre à cela :mad2:
(Mais que fait la Hadopi ?)



(quote:2115242:Idiogène)
Une autre façon de voir le problème est de rappeller qu’on a le droit de dessiner dans un musée mais pas de prendre en photo. (je rappelle aux mal-informés que les Musées font depuis leur origine oeuvre non-utopique de pédagogie)




Tu sembles toi-même mal informé.
https://www.radiofrance.fr/franceculture/podcasts/le-journal-de-la-culture/peut-on-ou-non-prendre-des-photos-dans-les-musees-7527009


L’article ne fait pas état des raisons historiques pour lesquelles cette « interdiction » n’était pas fondée.
La bonne information c’est donc de rapeller comme je viens de le faire qu’il y a une antériorité d’usage liée à pratique des conservateurs autorisant, au cas où ce n’était pas assez clair, tout artiste d’apprentissage dans les locaux du musée.
Dire : ok photo n’est ainsi pas particulièrement contre ok dessin.



On ne peut pas en dire autant sur ok google balance-moi ton street-view. :non:



(reply:2115248:Idiogène)




Justement, l’algo ne copie rien, déjà car de toute façon il n’a pas l’original en mémoire sous aucune forme et que tu vois bien que la gueule de la “Mona Lisa” généré par Dall-E elle ne peut vraiment pas être confondu avec celle du Louvre.



Pour ton moule, c’est comme s’il avait comme description que c’était le moule d’une statue du XIXième d’un roi français du XVIieme siècle monté à cheval pour recréer le moule de la statue d’Henri IV du pont neuf.


L’algo n’en reste pas moins matériellement parlant le résultat des oeuvres !
Je ne vois pas la différence physique avec, par analogie, plusieurs moules prenant un grand nombre d’empreintes catégorisées par membres de statues.
A un moment ou à un autre le donneur d’ordre est responsable du tri anatomique, et, par extension des juxtapositions.



Faire la Venus effarouchée ne change rien, au départ, il existait le bras ! Pas la patte de cheval. :D



Mais je conçois donc qu’un « mauvais artiste » puisse tout autant revendiquer son droit moral au sujet des sorties de son programme que les auteurs d’originaux aux bronches cavalières.



Arkeen a dit:


Ah, pourquoi ?




je poursuivais simplement l’idée d’un passage en closed source des données d’entraînement - ce à quoi tu pourras me répondre que savoir que sa base d’images a été utilisée pour entraîner l’algo n’apporte pas grand chose à Getty, et tu auras raison.



La réflexion et la discussion qui suivent sont en tout cas très intéressantes, merci notamment à fred42 pour le rappel sur la licence. Mais du coup… question : pour le cas de Dall’E, on ne sait pas quelles banques d’images ont été utilisées pour entraîner l’algo. Et je ne crois pas qu’il soit possible en utilisant l’algo de retrouver comment ça a été fait. Au delà de la bête question juridique, quand l’entité qui met à disposition l’IA ne précise rien sur les données d’entraînement… je me trompe ou il n’y a de toute façon aucun recours ?



anagrys a dit:


je me trompe ou il n’y a de toute façon aucun recours ?




A moins de trouver des entrepreneurs expert comptables en droits voisins (oui c’est leur titre complet) prêts à mettre des billes dans la détection de contre-façons par IA je vois aussi pas bien comment le droit peut mieux faire que battre en retraite. :francais:



(reply:2115277:Idiogène)




Ok, donc si je résume ton propos : dans les musées, le dessin est autorisé ; la photo n’est pas interdite. Chacun appréciera la nuance.



Et donc si on en revient à la question initiale : un artiste qui s’inspire d’un autre artiste, c’est autorisé ; une IA qui utilise des photos prises dans un musée n’est pas interdite. CQFD.


Voilà : puisque les données sont issues du domaine public, leur réutilisation n’est pas un problème.
Cela devient un problème si il y a rupture avec le droit de paternité. Auquel cas ce qui sort de l’IA doit être défendu par un auteur et on peut alors se contenter de parler d’influence comme pour n’importe quel autre carnet de dessin.



Après, cela n’empêche pas le musée de contester la technique sur la base du droit moral des auteurs dont il a la responsabilité. Ex: la reprographie 3D et le musée Rodin.


Fermer