Dans l'affaire qui oppose le journal à l'éditeur de ChatGPT, le New York Times a répondu lundi aux accusations de hacking que lui porte OpenAI.
Le journal répète plusieurs fois « OpenAI a tort » dans son courrier à la cour, remarque Ars Technica. En contre-attaque de la plainte du journal pour violation du copyright de ses articles, OpenAI avait affirmé que le journal avait « hacké » ses produits pour produire ses exemples : « il leur a fallu des dizaines de milliers de tentatives pour générer les résultats hautement anormaux », expliquait l'entreprise.
Le New York Times explique qu'il a « suscité des exemples de mémorisation en demandant au GPT-4 de citer les premiers mots ou les premières phrases des articles du Times ». Le journal ajoute que « ce travail n'a été nécessaire que parce qu'OpenAI ne divulgue pas le contenu qu'elle utilise pour entraîner ses modèles et alimenter son produit destiné à l'utilisateur ».
OpenAI affirmait que « dans le monde réel, les gens n'utilisent pas ChatGPT ou tout autre produit d'OpenAI à cette fin. Ils ne le pourraient d'ailleurs pas ». Le journal répond que la pratique a été très largement rapportée, sans toutefois donner d'exemple.
Commentaires (10)
#1
- Le NYT confirme avoir délibérément mis en place un contexte de réponses qui permet de prouver l'infraction de copyright.
- OpenAI dit que ca s'apparente à du hacking car il a fallu plusieurs dizaines de milliers de tentatives pour y arriver.
Mon avis: les deux ont raison => les deux sont coupables.
#1.1
#1.3
Version du14 mars 2023, la version actuelle dit la même chose en exemple de la phrase générale qui dit You may not use our Services for any illegal, harmful, or abusive activity.
Je pense qu'ils mettent cela dans harmful, or abusive activity.
Ils ont précisé sauf si ces restrictions sont interdites par la loi applicable. Il est fort possible qu'une telle activité soit légale pour apporter des preuves lors d'un procès ou bien acceptées par un juge.
#1.4
#1.5
Le fait que OpenIA peut modifier le fonctionnement de ChatGPT à tout moment de manière arbitraire et opaque rend la production de preuve difficile. Après avoir modifié ChatGPT ils peuvent nier et expliquer que l'autre a "abusé" du système en produisant le contenu violant le copyright.
Il semble (corrigez moi) que le sujet n'est pas qu'ils aient respectés les conditions d'utilisation (un négatif ne rendrait pas la preuve invalide) mais qu'ils auraient ou non "forcés" ChatGPT a générer un contenu spécifique.
Historique des modifications :
Posté le 14/03/2024 à 15h26
Ça n'est pas le sujet du tout, le NYTimes s'en fichent pas mal d'avoir un compte chez OpenIA ou même d'avoir respecté ou pas les conditions d'utilisation, ils veulent être rémunérés pour leur travail et pour ça ils ont besoin d'un preuve de violation de copyright par OpenIA.
Le fait que OpenIA peut modifier le fonctionnement de ChatGPT à tout moment de manière arbitraire et opaque rend la production de preuve difficile. Après avoir modifié ChatGPT ils peuvent nier et expliquer que l'autre a "abusé" du système en produisant le contenu violant le copyright.
Il semble (corrigez moi) que le sujet n'est pas qu'ils aient respectés les conditions d'utilisation (un négatif ne rendrait pas la preuve invalide) mais qu'ils auraient ou non "forcés" ChatGPT a générer un contenu spécifique.
Posté le 14/03/2024 à 15h26
Ça n'est pas le sujet, le NYTimes s'en fiche pas mal d'avoir un compte chez OpenIA ou même d'avoir respecté ou pas les conditions d'utilisation, ils veulent être rémunérés pour leur travail et pour ça ils ont besoin d'un preuve de violation de copyright par OpenIA.
Le fait que OpenIA peut modifier le fonctionnement de ChatGPT à tout moment de manière arbitraire et opaque rend la production de preuve difficile. Après avoir modifié ChatGPT ils peuvent nier et expliquer que l'autre a "abusé" du système en produisant le contenu violant le copyright.
Il semble (corrigez moi) que le sujet n'est pas qu'ils aient respectés les conditions d'utilisation (un négatif ne rendrait pas la preuve invalide) mais qu'ils auraient ou non "forcés" ChatGPT a générer un contenu spécifique.
#1.6
#1.2
Si le NYT a payé pour ces requêtes, est-ce vraiment du hacking ?
Je propose donc qu'on leur coupe un doigt chacun
#2
#2.1
#3