Entraîner des IA à partir d’autres IA abime les modèles
Le 20 juin 2023 à 05h19
1 min
Sciences et espace
Sciences
Nous vous l’expliquions dans un récent article, les travailleurs qui créent les données d’entraînement des modèles d’apprentissage machine utilisent, eux aussi, de manière croissante, des données produites par des modèles génératifs à la ChatGPT.
Problème, démontrent des chercheurs canadiens et britanniques : utiliser des données produites par un modèle génératif à l’entrainement « peut entraîner des défauts irréversibles » dans le modèle algorithmique en construction.
Les auteurs de l’étude parlent d’un « effondrement du modèle ». Auprès de Venture Beat, l’informaticien Ilia Shumailov précise : « nous avons été surpris par la vitesse à laquelle un tel effondrement peut se produire. »
Les modèles génératifs entraînés à partir de données générées par d’autres machines perdent très rapidement le contact avec les données réelles initiales qui ont permis leur entraînement, le nombre d’erreurs dans les résultats fournis augmentant de manière exponentielle.
Le 20 juin 2023 à 05h19
Commentaires (17)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 20/06/2023 à 06h17
Je suis surpris qu’ils soient surpris
Le 20/06/2023 à 08h00
En réalité, ce n’est pas si évident.
Utiliser des données synthétiques pour entrainer un modèle d’apprentissage automatique, ça se fait et ça fonctionne bien. Mathématiquement, ça a du sens.
Par exemple, C’est quelque chose qui est utilisé depuis longtemps et qui fonctionne bien : le sur-échantillonnage synthétique. Quand tu as besoin de plus de donnée, tu utilises un algo qui créer des nouvelles données similaires à un exemple. De même,l’apprentissage semi-supervisé (lorsqu’une partie des données n’ont pas de label/pas de “réponse”), on va par exemple générer les labels manquants avec le modèle lui-même : et ça fonctionne bien.
Le 20/06/2023 à 06h42
C’est plutôt une bonne nouvelle, non ? Bientôt les données d’apprentissage seront tellement polluées que tous ces modèles seront inutilisables. Et on pourra retourner à nos occupations habituelles.
Le 20/06/2023 à 14h23
A se demander si Stackoverflow n’a pas décidé d’autoriser les réponses “IA” juste pour les tuer ;)
Le 20/06/2023 à 06h43
Comme on dit chez nous : “shit in, shit out” …
Le 20/06/2023 à 06h48
Pour le moment car ses modèles sont relativement basiques comparés à nous. N’oubliez pas que l’apprentissage humain se fait avec d’autres….. humains. Donc a termes des “ia” apprendrons a d’autres “ia” aussi efficacement qu’un humain.
Le 20/06/2023 à 06h56
Ah ca y est.
Les “chercheurs” ont trouvé une nouveau sujet pour leurs publications inutiles: l’ IA.
Ca nous change de la cybersécurité avec des études qui montrent que 12345 est un mot de passe qui se cracke trop facilement.
Le 20/06/2023 à 07h17
Créons un autre modèle pour corriger les biais des données d’entrée
Le 20/06/2023 à 07h32
C’est comme faire des moules d’un objet : on n’a pas la même finesse de détails et si on fait un moule de l’objet obtenu du moule précédent on perd encore en qualité et ainsi de suite.
Le 20/06/2023 à 07h46
On appelle ça la consanguinité.
Le 20/06/2023 à 11h55
Le 20/06/2023 à 07h52
Je ne suis ni chercheur, ni mathématicien, mais au feeling, ça me parait évident.
Dans un cercle fermé, si chaque occurrence essaye au mieux, de faire comme son prédécesseur. Le modèle est voué à ne finir qu’avec une suite de 0 ou une suite de 1 à l’infini.
T’as trouvé le mot qui me manquait. Pour moi, c’est exactement le même problème. Au mieux, on reste comme avant, au pire, on perd définitivement 0,000x% d’information génétique. On fait tourner la machine quelques millions de fois, bon bah à la fin, il ne reste plus rien.
Le 20/06/2023 à 11h48
Certains rêvaient d’eugénisme et se retrouvent avec “Idiocracy”…
Le 20/06/2023 à 13h49
la mise en abyme.
Le 20/06/2023 à 18h44
Sur des modèles moyens en tout comme ChatGPT ça ne me paraît pas surprenant.
Par contre je serais curieux de savoir ce que ça donnerait d’entraîner un modèle généraliste comme ChatGPT avec des modèles spécialisés.
Le 21/06/2023 à 06h32
Il existe quelque chose d’assez proche, c’est l’apprentissage par transfert. La recette classique : tu prend un modèle généraliste qui a eu plein de donnée pour apprendre et qui marche plutôt bien. Tu gèles les paramètres (il n’apprendra plus à ce niveau), tu lui retires ses dernières couches (dans le cadre d’un réseau de neurone) et tu lui rajoutes des couches toutes neuves toutes fraiches et prête à apprendre. Tu lui fais apprendre avec tes données spécialisées, et ça arrive généralement à faire bien mieux qu’un modèle qui a appris de zéro.
Le 21/06/2023 à 12h15
Merci pour l’info