Open Data : Météo-France ouvre ses modèles atmosphériques

Open Data : Météo-France ouvre ses modèles atmosphériques

Beau temps pour se jeter à l'eau

Avatar de l'auteur

Xavier Berne

Publié dansInternet

29/07/2015
10
Open Data : Météo-France ouvre ses modèles atmosphériques

Météo-France a ouvert la semaine dernière de précieux jeux de données météorologiques, attendus de longue date par la communauté. L’occasion pour Next INpact d’interroger l’établissement public sur sa stratégie d’Open Data.

C’est une ouverture qui laissera dubitatifs certains « puristes » de l’Open Data, mais qui contentera vraisemblablement de nombreux passionnés de météorologie. Depuis le 22 juillet, Météo-France met gratuitement à disposition trois modèles atmosphériques jusqu’ici soumis à redevance :

Pour faire simple, ces modèles intègrent des centaines de millions de données nécessaires aux prévisions météorologiques. Ils se présentent comme le résultat de nombreux et vastes calculs sur l’évolution des températures, de l'humidité, de la vitesse du vent, etc. Ceux-ci sont réalisés à partir d’observations faites à des intervalles relativement courts, ce qui signifie que ces jeux de données sont actualisés plusieurs fois par jour.

Tous ont été placés sous la Licence Ouverte d’Etalab, et il est possible de les télécharger gratuitement. Sauf que pour le jeu Arpège, il est obligatoire de créer un compte pour récupérer les données via une API, ce qui ne cadre pas forcément avec les principes de l’Open Data... Un service « premium » est d’autre part proposé. Pour 15 000 euros par an, il est possible d’obtenir ces données « de manière automatique » sur une base quotidienne, « avec des conditions de diffusion stabilisées (meilleure capacité en débit) ».

Une « grande première » pour les passionnés de météorologie

« Toute la communauté de passionnés de météorologie salue cette grande première, attendue de longue date » se félicite Sébastien Brana, vice-président de l’association InfoClimat. « C'est évidement une très bonne nouvelle pour nous passionnés qui disposons désormais de nouveaux modèles qui ont très bonne réputation dans le milieu, mais surtout pour tous les concurrents de Météo-France qui vont ainsi pouvoir récupérer gratuitement des données qu'ils devaient payer jusqu'ici, analyse l’intéressé auprès de Next INpact. C'est aussi une excellente nouvelle pour des opérateurs tels qu’EDF, les gestionnaires de barrages, la SNCF... Bref, tous les grands groupes pour lesquels la variable météo est essentielle dans leur activité économique. »

Il faut dire que cette ouverture se faisait attendre. En juin 2013, en signant la charte du G8 pour l’Open Data, la France s’était effectivement engagée à ouvrir ses données météorologiques. Le rapport Trojette en arrivait d’ailleurs quelques mois plus tard à la conclusion que les redevances réclamées pour la réutilisation de données publiques étaient « d’autant plus préjudiciable[s] » lorsqu’il était question d’informations présentant un « fort potentiel socio-économique tels que les données géographiques, les données météorologiques ou les données de santé ».

Citant l’exemple de l’équivalent américain de Météo-France, dont les modèles étaient alors ouverts, le magistrat de la Cour des comptes notait que « les données publiques de l’US National Weather Service alimentent aux États-Unis une industrie de la météo pesant environ 1,5 Md$ (1,1 Md€) par an, sans compter les économies liées à la prévention des risques météorologiques ». Et pour cause, la diffusion gratuite de ces données bénéficie à de nombreux acteurs économiques, à commencer par les chaînes de télévision.

Météo-France veut aussi faire face à la concurrence des modèles gratuits

Mais qu’est-ce qui a finalement conduit l’établissement public français à suivre la voix de son homologue américain ? « On cherche à augmenter par ce biais la notoriété de Météo-France, la popularité de nos modèles, et donc notre visibilité vis-à-vis des utilisateurs, ceci pour un coût limité » nous a répondu Christophe Maocec, directeur de la stratégie de Météo-France. « C'est quelque chose qu'on avait en réflexion depuis pas mal de temps » raconte de son côté Dominique André, directeur adjoint des services météorologiques. « On a ouvert les données des sorties de modèles parce qu'on sait que ça nous était demandé par un certain nombre d'usagers, et que ça nous paraissait être un produit de base vraiment prioritaire. »

météo france redevances
Il y a encore quelques mois, le modèle atmosphérique global coûtait 120 000 euros par an - Crédits : Météo-France

L’impact financier devrait cependant être conséquent pour l’établissement public, puisque les redevances réclamées pour l’exploitation de ces modèles coûtaient il y a encore quelques mois plus de 100 000 euros par an. « Jusqu’ici, nos modèles subissaient la concurrence de modèles déjà disponibles gratuitement, tel celui des États-Unis. Ce qui fait que la mise en ligne de sorties de modèles numériques représente pour nous un impact budgétaire relativement maîtrisé et en tout cas limité » assure néanmoins Christophe Maocec. Si l’institution n’a pu nous donner de chiffre précis quant à son futur manque à gagner, Dominique André affirme que celui-ci « a été estimé supportable par l'établissement ».

Ces rentrées d’argent en moins doivent surtout être lues au regard des 1,58 million d’euros que Météo-France a déclaré avoir perçus en 2012. Le directeur adjoint des services météorologiques retient surtout que ce manque à gagner sera « compensé par la mise en place d’outils qui nous demandent aujourd'hui moins de ressources et une charge de travail moindre pour mettre ces données à disposition ». Le rapport Trojette avait d’ailleurs souligné que cette baisse des coûts rendait le maintien de redevances sur les données météorologiques de moins en moins tenable (voir l’extrait ci-dessous).

trojette météo
Crédits : Rapport Trojette

Les clients optant pour le service premium pourraient également permettre à l’institution de tirer son épingle du jeu. « Après, il y a certains impacts de plus long terme qui sont difficiles à évaluer, temporise Christophe Maocec. Par exemple, mettre gratuitement à dispositions des modèles comme ceux là peut aussi servir la concurrence. »

L'établissement public promet de mettre « plus de données » en Open Data

Si ce premier pas a d’ores et déjà permis à l’association InfoClimat de proposer de nouvelles cartes, beaucoup se demandent désormais si Météo-France va ouvrir prochainement davantage de données aujourd’hui soumises à redevances : images radars des précipitations, détail des données de toutes les stations d’observation, heure par heure, etc. « On essaie de mettre de plus en plus de données en Open Data » nous a répondu Dominique André. L’institution est selon lui « en train de développer des outils qui permettront à l'avenir d'avoir une commande avec laquelle l'usager ne viendra chercher que les informations qui l'intéressent ».

Pour l'heure, l’établissement public manquerait surtout de moyens pour proposer ces volumineux fichiers au public. « Les aspects techniques étaient jusqu'ici la contrainte la plus forte pour ne pas ouvrir [ces modèles] plus tôt » explique en ce sens le directeur adjoint des services météorologiques de Météo-France. « Si l’on diffusait l'ensemble de nos données de manière libre et gratuite, ça ferait un appel qu'on serait incapables de supporter. Le service s’en retrouverait fortement dégradé, ajoute-t-il. Tout cela nous oblige à mettre en place un certain nombre de nouveaux systèmes, de procédures pour pouvoir servir nos usagers... avec une charge pour l'établissement qui n'est pas forcément neutre ». Même s’il reconnaît que l’ouverture de certains jeux de données nécessite encore du travail et « prend beaucoup de temps », Dominique André l’assure : « On est en train d'ouvrir petit à petit l'ensemble de nos données publiques. Ça fait partie de la stratégie de l'établissement. »

10
Avatar de l'auteur

Écrit par Xavier Berne

Tiens, en parlant de ça :

Trois consoles portables en quelques semaines

Et une nouvelle façon de concevoir le jeu se confirme

10:45 Hard 12
Une tasse estampillée "Keep calm and carry on teaching"

Cyberrésilience : les compromis (provisoires) du trilogue européen

CSIRT vs ENISA, égalité balle au centre

08:27 DroitSécu 3

#Flock a sa propre vision de l’inclusion

Retour à l’envoyeur

13:39 Flock 21

Sommaire de l'article

Introduction

Une « grande première » pour les passionnés de météorologie

Météo-France veut aussi faire face à la concurrence des modèles gratuits

L'établissement public promet de mettre « plus de données » en Open Data

Trois consoles portables en quelques semaines

Hard 12
Une tasse estampillée "Keep calm and carry on teaching"

Cyberrésilience : les compromis (provisoires) du trilogue européen

DroitSécu 3

#LeBrief : fuite de tests ADN 23andMe, le milliard pour Android Messages, il y a 30 ans Hubble voyait clair

#Flock a sa propre vision de l’inclusion

Flock 21
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #10 : nous contacter et résumé de la semaine

43
Autoportrait Sébastien

[Autoportrait] Sébastien Gavois : tribulations d’un pigiste devenu rédac’ chef

Next 18
Logo de StreetPress

Pourquoi le site du média StreetPress a été momentanément inaccessible

Droit 19
Amazon re:Invent

re:Invent 2023 : Amazon lance son assistant Q et plusieurs services IA, dont la génération d’images

IA 14
Un œil symbolisant l'Union européenne, et les dissensions et problèmes afférents

Le Conseil de l’UE tire un bilan du RGPD, les États membres réclament des « outils pratiques »

Droit 6

19 associations européennes de consommateurs portent plainte contre Meta

DroitSocials 16

#LeBrief : Ariane 6 l’été prochain, Nextcloud rachète Roundcube, désinformation via la pub

Chiffre et formules mathématiques sur un tableau

CVSS 4.0 : dur, dur, d’être un expert !

Sécu 16
Une tête de fusée siglée Starlink.

Starlink accessible à Gaza sous contrôle de l’administration israélienne

Web 35
Fibre optique

G-PON, XGS-PON et 50G-PON : jusqu’à 50 Gb/s en fibre optique

HardWeb 53
Photo d'un immeuble troué de part en part

Règlement sur la cyber-résilience : les instances européennes en passe de conclure un accord

DroitSécu 10
lexique IA parodie

AGI, GPAI, modèles de fondation… de quoi on parle ?

IA 11

#LeBrief : logiciels libres scientifiques, fermeture de compte Google, « fabriquer » des femmes pour l’inclusion

livre dématérialisé

Des chercheurs ont élaboré une technique d’extraction des données d’entrainement de ChatGPT

IAScience 3
Un chien avec des lunettes apprend sur une tablette

Devenir expert en sécurité informatique en 3 clics

Sécu 11
Logo ownCloud

ownCloud : faille béante dans les déploiements conteneurisés utilisant graphapi

Sécu 16
Le SoC Graviton4 d’Amazon AWS posé sur une table

Amazon re:invent : SoC Graviton4 (Arm), instance R8g et Trainium2 pour l’IA

Hard 12
Logo Comcybergend

Guéguerre des polices dans le cyber (OFAC et ComCyberMi)

Sécu 10

#LeBrief : faille 0-day dans Chrome, smartphones à Hong Kong, 25 ans de la Dreamcast

Mur d’OVHcloud à Roubaix, avec le logo OVHcloud

OVHcloud Summit 2023 : SecNumCloud, IA et Local Zones

HardWeb 2
algorithmes de la CAF

Transparence, discriminations : les questions soulevées par l’algorithme de la CAF

IASociété 62

Plainte contre l’alternative paiement ou publicité comportementale de Meta

DroitIA 39
Nuage (pour le cloud) avec de la foudre

Économie de la donnée et services de cloud : l’Arcep renforce ses troupes

DroitWeb 0
De vieux ciseaux posés sur une surface en bois

Plus de 60 % des demandes de suppression reçues par Google émanent de Russie

Société 7
Une vieille boussole posée sur un plan en bois

La Commission européenne et Google proposent deux bases de données de fact-checks

DroitWeb 3

#LeBrief : des fichiers Google Drive disparaissent, FreeBSD 14, caméras camouflées, OnePlus 12

Hubble mission maintenance

Il y a 30 ans, Hubble recevait sa première mission de maintenance

Science 11

Des menottes autour d'un rouleau de billets de banque

Les deux principaux responsables de l’agence de cybersécurité ukrainienne accusés de corruption

DroitÉcoSécu 7

Google Messages

Sur Android, Messages fête son milliard d’utilisateurs, de nouvelles fonctions en approche

WebSoft 10

Une femme en blouse blanche et portant des lunettes adaptées utilise un séquenceur à ADN

Tests ADN : 23andMe avoue que les infos d’un « nombre significatif » d’utilisateurs ont fuité

Sécu 6

Commentaires (10)


stephane.p Abonné
Il y a 8 ans

J’ai cru lire que le volume de données généré chaque jour, et donc téléchargeable, est assez monstrueux. Le peer to peer serait peut-être une solution.


greengolfer Abonné
Il y a 8 ans

“Sauf que pour le jeu Arpège, il est obligatoire de créer un compte pour
récupérer les données via une API, ce qui ne cadre pas forcément avec
les principes de l’Open Data…”
Pas vraiment.  Les données Arpège en format “brut” sont accessibles sans comptehttps://donneespubliques.meteofrance.fr/?fond=produit&id_produit=130&amp…
C’est l’accès au service WMS qui nécessite un compte.


cyrano2 Abonné
Il y a 8 ans

Il pourrait passer par bittorrent avec des règles de mise à disposition comme pour les trakers privé !
 

 On dirait surtout qu’il veulent tracer tous leurs utilisateurs de donnés.


linkin623 Abonné
Il y a 8 ans

Ca va leur couter chaud en BP pour mettre à dispo des données…

Clair que le Bitorrent est une des meilleure solution que je connaisse pour diffuser autant de data. Une page avec un RSS qui va bien, un torrent par jour, et un serveur avec un bon upload suffit à envoyer des To de données.

Edit : et ils peuvent tout autant tracer qui télécharge quoi avec une clef privée dans le torrent…


Sebaas
Il y a 8 ans

Environ 6 Go mis à disposition chaque jour - et on a déjà remarqué une baisse du débit depuis une semaine. Pour le moment, le téléchargement direct permet encore de générer les cartes dans un délai raisonnable, mais d’ici quelques mois il est probable qu’il faille à minima passer par le webservice, et dans le pire des cas y laisser les 15k€/an pour le service premium au débit garanti.


carbier Abonné
Il y a 8 ans






cyrano2 a écrit :

Il pourrait passer par bittorrent avec des règles de mise à disposition comme pour les trakers privé !
 

 On dirait surtout qu’il veulent tracer tous leurs utilisateurs de donnés.


Ben non, il suffit de faire un test de téléchargement…
La bonne explication est simplement qu’ils ont un service premium avec BP dédiée. Ils mettent à disposition leur données: on ne leur a jamais demandé à ce que cela puisse rentrer dans le cadre d’un service opérationnel…



Arofarn Abonné
Il y a 8 ans

Encore faut-il avoir les moyens de traiter les fichiers pour ne sortir quelque chose et ensuite de comprendre les données fournie.


Pour infos, le site meteociel fait déjà la récupération et la visualisation ainsi que quelques traitements des données ARPEGE (Europe + quelques zoom nationaux) et AROME (ensemble de l’aire).
 

Reste l’interpretation…


tifounon
Il y a 8 ans






Sebaas a écrit :

Environ 6 Go mis à disposition chaque jour - et on a déjà remarqué une baisse du débit depuis une semaine. Pour le moment, le téléchargement direct permet encore de générer les cartes dans un délai raisonnable, mais d’ici quelques mois il est probable qu’il faille à minima passer par le webservice, et dans le pire des cas y laisser les 15k€/an pour le service premium au débit garanti.


C’est tout ? :eek: je pensais que ça taperait plutot dans la 100aine de Gigaoctets..



Sebaas
Il y a 8 ans






Arofarn a écrit :

Pour infos, le site meteociel fait déjà la récupération et la visualisation ainsi que quelques traitements des données ARPEGE (Europe + quelques zoom nationaux) et AROME (ensemble de l’aire). 


Infoclimat est en train de finaliser une IHM dynamique qui permettra notamment de profiter de la haute résolution offerte par Arome:http://www.infoclimat.fr/espace_stockage/25/ihminfoclimatarome.jpg ;)



Arofarn Abonné
Il y a 8 ans

C’est surtout les données d’entrée (données satellites en particuliers mais aussi radar) qui sont très volumineuses. Il suffit d’essayer d’aspirer les données d’un seul système comme MODIS our bien le sentir (6Mb/s de débit moyen => ~63Go par jour si je ne me trompe pas pour un instrument sur un satellite).
 
 Les données de sorties sont moins nombreuses, plus organisées et plus “digestes”. Par exemple, le modèle le plus fin disponibles n’a qu’un pas de temps de 1h et une définition qui se compte encore en kilomètre et ce sur une aire limitée.
 
ARPEGE, qui couvre toute la planète a une maille plus large, variable (plus serrée sur la France métropolitaine et très large aux antipodes) et un pas de temps de 3h au mieux.
 
De meme, le nombre de couches atmosphériques est réduit avec un pas variable (plus serrer dans la troposphère que plus haut).