Connexion
Abonnez-vous

Entraîner des IA à partir d’autres IA abime les modèles

Entraîner des IA à partir d’autres IA abime les modèles

Le 20 juin 2023 à 05h19

Nous vous l’expliquions dans un récent article, les travailleurs qui créent les données d’entraînement des modèles d’apprentissage machine utilisent, eux aussi, de manière croissante, des données produites par des modèles génératifs à la ChatGPT.

Problème, démontrent des chercheurs canadiens et britanniques : utiliser des données produites par un modèle génératif à l’entrainement « peut entraîner des défauts irréversibles » dans le modèle algorithmique en construction.

Les auteurs de l’étude parlent d’un « effondrement du modèle ». Auprès de Venture Beat, l’informaticien Ilia Shumailov précise : « nous avons été surpris par la vitesse à laquelle un tel effondrement peut se produire. »

Les modèles génératifs entraînés à partir de données générées par d’autres machines perdent très rapidement le contact avec les données réelles initiales qui ont permis leur entraînement, le nombre d’erreurs dans les résultats fournis augmentant de manière exponentielle.

Le 20 juin 2023 à 05h19

Commentaires (17)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Je suis surpris qu’ils soient surpris

votre avatar

En réalité, ce n’est pas si évident.



Utiliser des données synthétiques pour entrainer un modèle d’apprentissage automatique, ça se fait et ça fonctionne bien. Mathématiquement, ça a du sens.
Par exemple, C’est quelque chose qui est utilisé depuis longtemps et qui fonctionne bien : le sur-échantillonnage synthétique. Quand tu as besoin de plus de donnée, tu utilises un algo qui créer des nouvelles données similaires à un exemple. De même,l’apprentissage semi-supervisé (lorsqu’une partie des données n’ont pas de label/pas de “réponse”), on va par exemple générer les labels manquants avec le modèle lui-même : et ça fonctionne bien.

votre avatar

C’est plutôt une bonne nouvelle, non ? Bientôt les données d’apprentissage seront tellement polluées que tous ces modèles seront inutilisables. Et on pourra retourner à nos occupations habituelles.

votre avatar

A se demander si Stackoverflow n’a pas décidé d’autoriser les réponses “IA” juste pour les tuer ;)

votre avatar

Comme on dit chez nous : “shit in, shit out” …

votre avatar

pamputt a dit:


C’est plutôt une bonne nouvelle, non ? Bientôt les données d’apprentissage seront tellement polluées que tous ces modèles seront inutilisables. Et on pourra retourner à nos occupations habituelles.


Pour le moment car ses modèles sont relativement basiques comparés à nous. N’oubliez pas que l’apprentissage humain se fait avec d’autres….. humains. Donc a termes des “ia” apprendrons a d’autres “ia” aussi efficacement qu’un humain.

votre avatar

Ah ca y est.



Les “chercheurs” ont trouvé une nouveau sujet pour leurs publications inutiles: l’ IA.



Ca nous change de la cybersécurité avec des études qui montrent que 12345 est un mot de passe qui se cracke trop facilement.

votre avatar

Créons un autre modèle pour corriger les biais des données d’entrée :fumer:

votre avatar

C’est comme faire des moules d’un objet : on n’a pas la même finesse de détails et si on fait un moule de l’objet obtenu du moule précédent on perd encore en qualité et ainsi de suite.

votre avatar

On appelle ça la consanguinité.

votre avatar

:bravo:

votre avatar

Je ne suis ni chercheur, ni mathématicien, mais au feeling, ça me parait évident.



Dans un cercle fermé, si chaque occurrence essaye au mieux, de faire comme son prédécesseur. Le modèle est voué à ne finir qu’avec une suite de 0 ou une suite de 1 à l’infini.




Pascalb41 a dit:


On appelle ça la consanguinité.


T’as trouvé le mot qui me manquait. Pour moi, c’est exactement le même problème. Au mieux, on reste comme avant, au pire, on perd définitivement 0,000x% d’information génétique. On fait tourner la machine quelques millions de fois, bon bah à la fin, il ne reste plus rien.

votre avatar

Pascalb41 a dit:


On appelle ça la consanguinité.


Certains rêvaient d’eugénisme et se retrouvent avec “Idiocracy”…

votre avatar

Entraîner des IA à partir d’autres IA abime les modèles


la mise en abyme.

votre avatar

Sur des modèles moyens en tout comme ChatGPT ça ne me paraît pas surprenant.



Par contre je serais curieux de savoir ce que ça donnerait d’entraîner un modèle généraliste comme ChatGPT avec des modèles spécialisés.

votre avatar

Il existe quelque chose d’assez proche, c’est l’apprentissage par transfert. La recette classique : tu prend un modèle généraliste qui a eu plein de donnée pour apprendre et qui marche plutôt bien. Tu gèles les paramètres (il n’apprendra plus à ce niveau), tu lui retires ses dernières couches (dans le cadre d’un réseau de neurone) et tu lui rajoutes des couches toutes neuves toutes fraiches et prête à apprendre. Tu lui fais apprendre avec tes données spécialisées, et ça arrive généralement à faire bien mieux qu’un modèle qui a appris de zéro.

votre avatar

Merci pour l’info :yes:

Entraîner des IA à partir d’autres IA abime les modèles

Fermer