Des chercheurs améliorent la prédiction des canicules avec de l’IA

Des chercheurs améliorent la prédiction des canicules avec de l’IA

Des chercheurs améliorent la prédiction des canicules avec de l’IA

Une équipe pluridisciplinaire de scientifiques du CNRS, du CEA et de l’université Claude Bernard Lyon 1 est à l’origine d’une intelligence artificielle dédiée à la prévision des canicules, indique le CNRS.

Ce type de prévision existe déjà, mais l’approche est cette fois différente. Dans un article qui doit paraitre aujourd'hui dans Physical Review Fluids, l’équipe explique utiliser le deep learning sur la base d’un modèle statistique, quand les prévisions habituelles se servent des lois de la physique. Ce modèle utilise des conditions environnementales, telles que l’humidité des sols et l’état de l’atmosphère. 

L’IA a été entrainée sur 8 000 ans, grâce à un modèle climatique nommé PlaSim, provenant de l’université Hambourg. Cependant, les vagues de chaleur extrême étant considérées comme des évènements rares, l’entrainement du modèle continuera avec des évènements simulés par des algorithmes, les données réelles étant en nombre insuffisant.

Les chercheurs indiquent que leur simulation peut fournir une prédiction en quelques secondes et décrivent cet outil comme « complémentaire » aux prévisions météorologiques classiques.

Commentaires (11)


Ha, enfin une utilisation sensée de l’IA !


Pas vraiment. Voici ce qui est écrit dans le résumé de l’article (sur arXiv) (c’est aussi abordé dans la brève ici) :
The main scientific message is that most of the time, training neural networks for predicting extreme heatwaves occurs in a regime of lack of data.
Ce qu’on peut traduire par
Le principal message scientifique est que la plupart du temps, l’entraînement des réseaux neuronaux pour la prévision des vagues de chaleur extrême se produit dans un régime de manque de données.



Autrement dit, vu que notre futur sera composé de probablement plus de vagues de chaleur que tout ce qu’on a connu, ce modèle d’IA ne sert au mieux qu’à « prédire le passé »


De mon coté j’ai compris que l’IA pouvait faire des prédictions malgré le manque de données.



Mais je n’ai pas encore lu le preprint.


Je m’interroge sur la pertinence d’alimenter une “IA” par des résultats de simulations pour faire des prédictions.



Pourquoi ne pas utiliser seulement les simulations ?



Je vois bien qu’ils obtiennent une prédiction en quelques secondes mais à quoi ça sert d’être si rapide ?



Et aucune information sur la qualité des prédictions (en essayant de prédire le passé par exemple).



fred42 a dit:


Je m’interroge sur la pertinence d’alimenter une “IA” par des résultats de simulations pour faire des prédictions.



Pourquoi ne pas utiliser seulement les simulations ?



Je vois bien qu’ils obtiennent une prédiction en quelques secondes mais à quoi ça sert d’être si rapide ?



Et aucune information sur la qualité des prédictions (en essayant de prédire le passé par exemple).




L’important ici c’est la rapidité. ils indiquent quelques secondes comparé à des mois de calculs



misocard a dit:


De mon coté j’ai compris que l’IA pouvait faire des prédictions malgré le manque de données.



Mais je n’ai pas encore lu le preprint.




Ce n’est pas une IA mais un réseau neuronal soit un enchainement d’algorithme pour essayer de caractériser des corrélations non linéaires entre un jeu de variables prédictives et des données de sortie attendues.



Le problème de ce genre de modèle c’est qu’en dehors de son jeu d’apprentissage il te sortira n’importe quoi. Or par définition les données extrêmes sont peu nombreuses.
Le but des données simulées a certainement pour but d’étendre artificiellement sa base d’apprentissage pour qu’il ne diverge pas.


Tu as lu l’étude ?


On est emballé par les canicules ? :D



Désolé mais j’ai pas pu résister ….



misocard a dit:


Tu as lu l’étude ?




Non mais dans ma jeunesse j’ai travaillé sur ce genre de modèle dans un domaine pas trop éloigné: je fais des suppositions;



D’ailleurs quand tu lis l’abstract




The main scientific message is that most of the times, training neural networks for predicting extreme heatwaves occurs in a regime of lack of data. […] Depending on the information to be learned, training might require dataset lengths as long as several thousands of years, or even more, for optimal forecasting skill.



For instance, using one hundred years-long training sets, a regime of drastic lack of data, leads to severely lower predictive skills and general inability to extract useful information available in the 500 hPa geopotential height field at a hemispheric scale in contrast to the dataset of several thousand years long. Even with several thousand years-long datasets, no convergence is observed in the predictive skills coming from hemispheric geopotential height fields.



C’est assez difficile de te répondre tant que je ne l’ai pas lu, mais pour le moment de la lecture parcellaire en diagonale il semblerait que l’étude pointe que certaines données pourraient suffire à obtenir une prédiction




The main conclusions for extreme heatwave prediction are as follows.The 500 hPa geopotential height combined with soil moist contains the most useful information in the short run, with only a very small improvement of the skill provided by adding the 2m temperature.




Ils semblent évoquer des problèmes donc je réserve mon jugement. Mais je pense que ça vaut la peine de mettre de coté ses aprioris.



Je vais essayer de lire et comprendre ce soir.



misocard a dit:


C’est assez difficile de te répondre tant que je ne l’ai pas lu, mais pour le moment de la lecture parcellaire en diagonale il semblerait que l’étude pointe que certaines données pourraient suffire à obtenir une prédiction




La tu parles des données d’entrée qui permettent au modèle de converger et de sortir des prévisions convenables dans un domaine précis.
Il s’agit de l’identification du jeu de données optimal.



Par contre en conclusion, ils précisent bien ce que j’ai dit: l’utilisation d’une combinaison de données observées/recalculées et de données modélisées pour obtenir une base d’apprentissage optimale.


Fermer