Entraîner des IA à partir d’autres IA abime les modèles

Entraîner des IA à partir d’autres IA abime les modèles

Entraîner des IA à partir d’autres IA abime les modèles

Nous vous l’expliquions dans un récent article, les travailleurs qui créent les données d’entraînement des modèles d’apprentissage machine utilisent, eux aussi, de manière croissante, des données produites par des modèles génératifs à la ChatGPT.

Problème, démontrent des chercheurs canadiens et britanniques : utiliser des données produites par un modèle génératif à l’entrainement « peut entraîner des défauts irréversibles » dans le modèle algorithmique en construction.

Les auteurs de l’étude parlent d’un « effondrement du modèle ». Auprès de Venture Beat, l’informaticien Ilia Shumailov précise : « nous avons été surpris par la vitesse à laquelle un tel effondrement peut se produire. »

Les modèles génératifs entraînés à partir de données générées par d’autres machines perdent très rapidement le contact avec les données réelles initiales qui ont permis leur entraînement, le nombre d’erreurs dans les résultats fournis augmentant de manière exponentielle.

Commentaires (17)


Je suis surpris qu’ils soient surpris


En réalité, ce n’est pas si évident.



Utiliser des données synthétiques pour entrainer un modèle d’apprentissage automatique, ça se fait et ça fonctionne bien. Mathématiquement, ça a du sens.
Par exemple, C’est quelque chose qui est utilisé depuis longtemps et qui fonctionne bien : le sur-échantillonnage synthétique. Quand tu as besoin de plus de donnée, tu utilises un algo qui créer des nouvelles données similaires à un exemple. De même,l’apprentissage semi-supervisé (lorsqu’une partie des données n’ont pas de label/pas de “réponse”), on va par exemple générer les labels manquants avec le modèle lui-même : et ça fonctionne bien.


C’est plutôt une bonne nouvelle, non ? Bientôt les données d’apprentissage seront tellement polluées que tous ces modèles seront inutilisables. Et on pourra retourner à nos occupations habituelles.


A se demander si Stackoverflow n’a pas décidé d’autoriser les réponses “IA” juste pour les tuer ;)


Comme on dit chez nous : “shit in, shit out” …



pamputt a dit:


C’est plutôt une bonne nouvelle, non ? Bientôt les données d’apprentissage seront tellement polluées que tous ces modèles seront inutilisables. Et on pourra retourner à nos occupations habituelles.




Pour le moment car ses modèles sont relativement basiques comparés à nous. N’oubliez pas que l’apprentissage humain se fait avec d’autres….. humains. Donc a termes des “ia” apprendrons a d’autres “ia” aussi efficacement qu’un humain.


Ah ca y est.



Les “chercheurs” ont trouvé une nouveau sujet pour leurs publications inutiles: l’ IA.



Ca nous change de la cybersécurité avec des études qui montrent que 12345 est un mot de passe qui se cracke trop facilement.


Créons un autre modèle pour corriger les biais des données d’entrée :fumer:


C’est comme faire des moules d’un objet : on n’a pas la même finesse de détails et si on fait un moule de l’objet obtenu du moule précédent on perd encore en qualité et ainsi de suite.


On appelle ça la consanguinité.


:bravo:


Je ne suis ni chercheur, ni mathématicien, mais au feeling, ça me parait évident.



Dans un cercle fermé, si chaque occurrence essaye au mieux, de faire comme son prédécesseur. Le modèle est voué à ne finir qu’avec une suite de 0 ou une suite de 1 à l’infini.




Pascalb41 a dit:


On appelle ça la consanguinité.




T’as trouvé le mot qui me manquait. Pour moi, c’est exactement le même problème. Au mieux, on reste comme avant, au pire, on perd définitivement 0,000x% d’information génétique. On fait tourner la machine quelques millions de fois, bon bah à la fin, il ne reste plus rien.



Pascalb41 a dit:


On appelle ça la consanguinité.




Certains rêvaient d’eugénisme et se retrouvent avec “Idiocracy”…



Entraîner des IA à partir d’autres IA abime les modèles




la mise en abyme.


Sur des modèles moyens en tout comme ChatGPT ça ne me paraît pas surprenant.



Par contre je serais curieux de savoir ce que ça donnerait d’entraîner un modèle généraliste comme ChatGPT avec des modèles spécialisés.


Il existe quelque chose d’assez proche, c’est l’apprentissage par transfert. La recette classique : tu prend un modèle généraliste qui a eu plein de donnée pour apprendre et qui marche plutôt bien. Tu gèles les paramètres (il n’apprendra plus à ce niveau), tu lui retires ses dernières couches (dans le cadre d’un réseau de neurone) et tu lui rajoutes des couches toutes neuves toutes fraiches et prête à apprendre. Tu lui fais apprendre avec tes données spécialisées, et ça arrive généralement à faire bien mieux qu’un modèle qui a appris de zéro.


tazvld

Il existe quelque chose d’assez proche, c’est l’apprentissage par transfert. La recette classique : tu prend un modèle généraliste qui a eu plein de donnée pour apprendre et qui marche plutôt bien. Tu gèles les paramètres (il n’apprendra plus à ce niveau), tu lui retires ses dernières couches (dans le cadre d’un réseau de neurone) et tu lui rajoutes des couches toutes neuves toutes fraiches et prête à apprendre. Tu lui fais apprendre avec tes données spécialisées, et ça arrive généralement à faire bien mieux qu’un modèle qui a appris de zéro.


Merci pour l’info :yes:


Fermer