Façade du bâtiment du New York TimesPhoto de Jakayla Toney sur Unsplash

Le NY Times répond aux accusations de hacking d’OpenAI

Façade du bâtiment du New York TimesPhoto de Jakayla Toney sur Unsplash

Dans l'affaire qui oppose le journal à l'éditeur de ChatGPT, le New York Times a répondu lundi aux accusations de hacking que lui porte OpenAI.

Le journal répète plusieurs fois « OpenAI a tort » dans son courrier à la cour, remarque Ars Technica. En contre-attaque de la plainte du journal pour violation du copyright de ses articles, OpenAI avait affirmé que le journal avait « hacké » ses produits pour produire ses exemples : « il leur a fallu des dizaines de milliers de tentatives pour générer les résultats hautement anormaux », expliquait l'entreprise.

Le New York Times explique qu'il a « suscité des exemples de mémorisation en demandant au GPT-4 de citer les premiers mots ou les premières phrases des articles du Times ». Le journal ajoute que « ce travail n'a été nécessaire que parce qu'OpenAI ne divulgue pas le contenu qu'elle utilise pour entraîner ses modèles et alimenter son produit destiné à l'utilisateur ».

OpenAI affirmait que « dans le monde réel, les gens n'utilisent pas ChatGPT ou tout autre produit d'OpenAI à cette fin. Ils ne le pourraient d'ailleurs pas ». Le journal répond que la pratique a été très largement rapportée, sans toutefois donner d'exemple.

Commentaires (10)


Si je résume:
- Le NYT confirme avoir délibérément mis en place un contexte de réponses qui permet de prouver l'infraction de copyright.
- OpenAI dit que ca s'apparente à du hacking car il a fallu plusieurs dizaines de milliers de tentatives pour y arriver.

Mon avis: les deux ont raison => les deux sont coupables.
Est-ce que les conditions d'utilisation d'OpenAI interdisent d'utiliser ChatGPT pour "plusieurs dizaines de milliers" de requêtes ?

alex.d.

Est-ce que les conditions d'utilisation d'OpenAI interdisent d'utiliser ChatGPT pour "plusieurs dizaines de milliers" de requêtes ?
Elles interdisent explicitement d'essayer de découvrir les composants sous-jacents des modèles :
(c) Restrictions. You may not (i) use the Services in a way that infringes, misappropriates or violates any person’s rights; (ii) reverse assemble, reverse compile, decompile, translate or otherwise attempt to discover the source code or underlying components of models, algorithms, and systems of the Services (except to the extent such restrictions are contrary to applicable law);


Version du14 mars 2023, la version actuelle dit la même chose en exemple de la phrase générale qui dit You may not use our Services for any illegal, harmful, or abusive activity.
Je pense qu'ils mettent cela dans harmful, or abusive activity.

Ils ont précisé sauf si ces restrictions sont interdites par la loi applicable. Il est fort possible qu'une telle activité soit légale pour apporter des preuves lors d'un procès ou bien acceptées par un juge.

fred42

Elles interdisent explicitement d'essayer de découvrir les composants sous-jacents des modèles :
(c) Restrictions. You may not (i) use the Services in a way that infringes, misappropriates or violates any person’s rights; (ii) reverse assemble, reverse compile, decompile, translate or otherwise attempt to discover the source code or underlying components of models, algorithms, and systems of the Services (except to the extent such restrictions are contrary to applicable law);


Version du14 mars 2023, la version actuelle dit la même chose en exemple de la phrase générale qui dit You may not use our Services for any illegal, harmful, or abusive activity.
Je pense qu'ils mettent cela dans harmful, or abusive activity.

Ils ont précisé sauf si ces restrictions sont interdites par la loi applicable. Il est fort possible qu'une telle activité soit légale pour apporter des preuves lors d'un procès ou bien acceptées par un juge.
Ok, donc le NYT n'a pas respecté les conditions d'utilisation de ChatGPT. Ça n'a rien d'illégal, ils risquent juste de se faire fermer leur compte.

alex.d.

Ok, donc le NYT n'a pas respecté les conditions d'utilisation de ChatGPT. Ça n'a rien d'illégal, ils risquent juste de se faire fermer leur compte.
Ça n'est pas le sujet, le NYTimes s'en fiche pas mal d'avoir un compte chez OpenIA ou même d'avoir respecté ou pas les conditions d'utilisation, ils veulent être rémunérés pour leur travail et pour ça ils ont besoin d'une preuve de violation de copyright par OpenIA.

Le fait que OpenIA peut modifier le fonctionnement de ChatGPT à tout moment de manière arbitraire et opaque rend la production de preuve difficile. Après avoir modifié ChatGPT ils peuvent nier et expliquer que l'autre a "abusé" du système en produisant le contenu violant le copyright.

Il semble (corrigez moi) que le sujet n'est pas qu'ils aient respectés les conditions d'utilisation (un négatif ne rendrait pas la preuve invalide) mais qu'ils auraient ou non "forcés" ChatGPT a générer un contenu spécifique.
Modifié le 14/03/2024 à 15h27

Historique des modifications :

Posté le 14/03/2024 à 15h26


Ça n'est pas le sujet du tout, le NYTimes s'en fichent pas mal d'avoir un compte chez OpenIA ou même d'avoir respecté ou pas les conditions d'utilisation, ils veulent être rémunérés pour leur travail et pour ça ils ont besoin d'un preuve de violation de copyright par OpenIA.

Le fait que OpenIA peut modifier le fonctionnement de ChatGPT à tout moment de manière arbitraire et opaque rend la production de preuve difficile. Après avoir modifié ChatGPT ils peuvent nier et expliquer que l'autre a "abusé" du système en produisant le contenu violant le copyright.

Il semble (corrigez moi) que le sujet n'est pas qu'ils aient respectés les conditions d'utilisation (un négatif ne rendrait pas la preuve invalide) mais qu'ils auraient ou non "forcés" ChatGPT a générer un contenu spécifique.

Posté le 14/03/2024 à 15h26


Ça n'est pas le sujet, le NYTimes s'en fiche pas mal d'avoir un compte chez OpenIA ou même d'avoir respecté ou pas les conditions d'utilisation, ils veulent être rémunérés pour leur travail et pour ça ils ont besoin d'un preuve de violation de copyright par OpenIA.

Le fait que OpenIA peut modifier le fonctionnement de ChatGPT à tout moment de manière arbitraire et opaque rend la production de preuve difficile. Après avoir modifié ChatGPT ils peuvent nier et expliquer que l'autre a "abusé" du système en produisant le contenu violant le copyright.

Il semble (corrigez moi) que le sujet n'est pas qu'ils aient respectés les conditions d'utilisation (un négatif ne rendrait pas la preuve invalide) mais qu'ils auraient ou non "forcés" ChatGPT a générer un contenu spécifique.

wagaf

Ça n'est pas le sujet, le NYTimes s'en fiche pas mal d'avoir un compte chez OpenIA ou même d'avoir respecté ou pas les conditions d'utilisation, ils veulent être rémunérés pour leur travail et pour ça ils ont besoin d'une preuve de violation de copyright par OpenIA.

Le fait que OpenIA peut modifier le fonctionnement de ChatGPT à tout moment de manière arbitraire et opaque rend la production de preuve difficile. Après avoir modifié ChatGPT ils peuvent nier et expliquer que l'autre a "abusé" du système en produisant le contenu violant le copyright.

Il semble (corrigez moi) que le sujet n'est pas qu'ils aient respectés les conditions d'utilisation (un négatif ne rendrait pas la preuve invalide) mais qu'ils auraient ou non "forcés" ChatGPT a générer un contenu spécifique.
Eh bien si, c'est le sujet. OpenAI formule ses critiques comme si le NYT avait fait quelque chose d'illégal, alors que la seule sanction encourue est la fermeture de leur compte. Ça permet de relativiser. Ok, le NYT n'a pas respecté le contrat : appliquez donc la sanction (la seule en leur pouvoir), et qu'on n'en parle plus, plutôt que de chouiner partout et sous-entendant que ce sont des hors-la-loi.
- OpenAI dit que ca s'apparente à du hacking car il a fallu plusieurs dizaines de milliers de tentatives pour y arriver.

Si le NYT a payé pour ces requêtes, est-ce vraiment du hacking ?
Mon avis: les deux ont raison => les deux sont coupables.


Je propose donc qu'on leur coupe un doigt chacun :francais:
Pendant ce temps, Le Monde et OpenAI font un accord de partenariat.
OpenAI et le NYTimes sont en négo pour la même chose, mais il y a énormément d'incertitude juridique car c'est un nouveau sujet, il est normal de vouloir aller en justice pour clarifier des points qui auront un impact sur la négociation.
"on a demandé des citations à chatGPT et on en a eu" scandale
Fermer