Connexion
Abonnez-vous

OpenAI suspend le compte de ByteDance, qui utilisait son API pour entraîner son propre LLM

OpenAI suspend le compte de ByteDance, qui utilisait son API pour entraîner son propre LLM

CC BY 2.0 Markus Winkler / Markus119

Le 18 décembre 2023 à 06h23

The Verge révèle qu'OpenAI a suspendu le compte de ByteDance (la maison mère, chinoise, de TikTok), qui utilisait son API pour entraîner Project Seed, le nom de code de son propre modèle de langage, sur la plate-forme Azure de Microsoft.

Les conditions d'utilisation commerciale d'OpenAI stipulent en effet que les résultats de son modèle ne peuvent pas être utilisés « pour développer des modèles d'intelligence artificielle qui concurrencent ceux d'OpenAI ».

« Bien que l'utilisation de notre API par ByteDance soit minime, nous avons suspendu leur compte pendant que nous approfondissons notre enquête », explique Niko Felix, porte-parole d'OpenAI : « si nous découvrons que leur utilisation ne respecte pas ces politiques, nous leur demanderons d'apporter les modifications nécessaires ou de résilier leur compte ».

Le 18 décembre 2023 à 06h23

Commentaires (9)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
Détail intéressant pour une entreprise chinoise, Azure OpenAI Service n'est pas disponible dans les régions China East et China North.

azure.microsoft.com Microsoft

Pour rappel, la région Azure China est opérée par un partenaire local (21Vianet).

Ils ont donc du utiliser d'autres régions du CSP.
votre avatar
Il me semblait avoir lu qu'entraîner une IA à partir d'un IA est une pratique encore problématique.
votre avatar
pareil, ça se "dégrade" assez vite niveau qualité.
votre avatar
tout dépend de ce que tu mets derrière le mot "problématique" : si tu veux des résultats pas trop mauvais, il semble que ça ne soit effectivement pas terrible. Mais si tu t'en fiches et cherches juste à dire que toi aussi, tu as un modèle d'IA "révolutionnaire", pourquoi se priver :D
votre avatar
Il faut savoir précisément ce que l'on entend par "entrainer" :
- est-ce réaliser des jeux de données sur lesquels entrainer (= instruire) le modèle ?
- est-ce réaliser des jeux de données sur lesquels vérifier le résultat de l'entrainement (= examen) ?
- est-ce afin de comparer les performances entre modèles ?

Le point 1 est clairement celui qui est problématique.
Le point 2 peut l'être, ou non, en fonction de comment est utilisé le résultat. Si c'est juste pour avoir une évaluation (genre 90% des réponses sont correctes) mais sans se servir de ce feedback pour faire une boucle de rétro-action quelconque sur l'apprentissage, alors je ne pense pas que cela pose de problème particulier.
Le point 3 n'est pas problématique.
votre avatar
Le 2 et 3 c'est justement ce qui est pratiqué à ma connaissance. Les modèles se challenge entre eux et se comparent, mais point d'entraînement (que ce soit plusieurs instances de GPT ou encore GPT + LLaMA par exemple).

Entraîner un modèle depuis les données d'un autre n'est, effectivement, pas la meilleure approche car les données se dégradent trop vite. C'est comme si on voulait entraîner de la reconnaissance visuelle en ne donnant à manger que des vieux JPG dégueulasses compressés en début 2000.
votre avatar
La data pour entrainer les IA, cette nouvelle ressource qui vaut de l'or.
votre avatar
Je dirais plutôt que l'IA, enfin, le machine learning, n'est qu'un énième lièvre à courir à la mode pour trouver un sens à la quantité massive de données produite sur les réseaux en vue de l'exploiter.

Comme la mode du BigData auparavant où tout le monde ne jurait que par cela et qu'après avoir accumulé des terabyte de data, on cherchait à savoir quoi en faire.
votre avatar
Tout à fait.
Il faut voir l’agressivité récente de leur bot d'exploration sur les serveurs d'hébergement.

Comprend pas à quoi ils jouent à ne respecter aucune règle (vitesse de crawl et respect de robots.txt) -> ban d'environs 12 000 IPs :(

OpenAI suspend le compte de ByteDance, qui utilisait son API pour entraîner son propre LLM

Fermer