[Tuto] Intelligence artificielle : les dangers du surapprentissage, comment l’éviter

[Tuto] Intelligence artificielle : les dangers du surapprentissage, comment l’éviter

Quantité vs qualité !

4

[Tuto] Intelligence artificielle : les dangers du surapprentissage, comment l’éviter

Abonnez-vous pour tout dévorer et ne rien manquer.

Déjà abonné ? Se connecter

Abonnez-vous

Au début de l’été, on s’était dit que c’était une bonne idée de vous donner un maximum de clés pour bien comprendre l’intelligence artificielle. Elle a fait un bond avec les IA génératives, on en parle souvent, mais on ne cerne pas toujours son fonctionnement.

Pour cela, rien de mieux que mettre les mains dans le cambouis. Cela tombe bien, développer et entrainer une IA ne demande pas plus de 10 lignes de codes. On a ensuite regardé l’influence de la quantité de données et des couches de neurones sur les performances de notre IA. Penchons-nous aujourd’hui sur un phénomène bien connu : le surentrainement ou surapprentissage.

Petit rappel pour les retardataires. Nous utilisons le jeu de données du MNIST qui contient 60 000 images de 28 x 28 pixels représentant un chiffre. Chaque image est étiquetée : on sait à quel chiffre elle correspond. 10 000 images, également étiquetées, permettent ensuite de tester le modèle.

Comme nous l’avons déjà expliqué, lors de la phase d’entrainement nous faisons tourner notre algorithme plusieurs fois sur le même jeu de données – on parle d’epoch ou époques – pour améliorer ses performances. En l’occurrence, pour ajuster au mieux les (dizaines/centaines) milliers de paramètres – poids et biais – de chaque neurone.

Surentrainement, surapprentissage, surajustements… Késako ?

On pourrait être tenté de multiplier les époques pour affiner correctement le modèle, mais ce n’est pas un pari toujours gagnant. On arrive même parfois au résultat inverse avec un modèle qui devient « trop bon » sur les données d’entrainement, sans être capable de généraliser son résultat lorsqu’il est confronté à de nouvelles données.

Il reste 80% de l'article à découvrir. Abonnez-vous pour ne rien manquer.

Déjà abonné ? Se connecter

Abonnez-vous

Commentaires (4)


Quand on parle de surapprentissage, je pense au sketch des Inconnus Télémagouille :

"Je vous donne un exemple : Je vous dis Laurel vous me répondez Hardy
- Hardy ?
- Roméo et ..?
- Hardy
- Pourquoi vous avez dit Hardy ?
- Vous m'avez dit de dire Hardy.
...
- Mais non c'était un exemple. Là c'était Roméo et Juliette
- Juliette ?
- Allez Jacques Dutronc et Françoise ?
- Juliette
- Mais non Hardy
- Vous m'avez dit de ne pas dire Hardy.
- ..."
Ça marche aussi avec s’en mettre plein les fouilles…
Merci pour cette plongée dans l'ia.

J'avais lu "Quand la machine apprend" de Yann Le Cun (très intéressant aussi d'ailleurs) mais là on rentre dans des finesses de l'apprentissage qu'il n'y aborde pas. (peut-être d'ailleurs parceque non pertinente à l'époque du livre?)
merci pour l'article !
Fermer