L'idée n'est pas de concurrencer, mais d'avoir une alternative qui soit: - libre et 100% ouverte (données ET code : https://gilab.com/panoramax) - décentralisée (de multiples serveurs/instance Panoramax, accessibles via un "méta-catalogue" qui les fédère).
Les photos sont réutilisables (sous Licence Ouverte ou CC-BY-SA en fonction de l'instance où elles sont publiées).
Pour l'accessibilité, il y a déjà des travaux de faits, comme la détection des panneaux des stationnements PMR: https://forum.openstreetmap.fr/t/detection-des-stationnements-pmr-a-partir-de-panoramax/20627 ou ce challenge https://acceslibre.beta.gouv.fr/challenges/ pour ajouter une photo à la description des ERP.
Pour le point sur les licences, le site panoramax.fr ne rentre effectivement pas dans le détail, mais sur les instances d'OpenStreetMap France et de l'IGN, la licence sous laquelle les photos seront publiées est bien indiquée avant que l'on valide son versement.
Un point important c'est le côté décentralisé, pour ne pas mettre tous ses oeufs dans un seul panier, trop lourd à porter par un acteur sur le long terme.
Il y a donc actuellement deux instances publiques de Panoramax où l'on peut partager ses photos, celle de l'IGN et celle d'OpenStreetMap France. D'autres devraient prochainement ouvrir dans des pays voisins (Belgique, Suisse) à l'initiative des communautés OSM locales.
Un "méta-catalogue" fédère l'ensemble et permet de naviguer sans couture entre des photos partagées sur des instances différentes.
N'hésitez pas à venir échanger sur https://forum.geocommuns.fr/c/panoramax/6 si le projet vous intéresse !
Merci pour cette triste brève et donner ainsi un peu de visibilité à ce grand monsieur pas assez connu... et la Loi de Wirth
Pour comprendre cette loi, il suffit de regarder du code des années 80/90 encore utilisé très largement aujourd'hui car d'une incroyable efficacité. Quelques exemple ? grep, sed, awk...
On doit aussi à Niklaus Wirth le P-code, du code semi-compilé, interprété pour exécution, ce qui permettait d'avoir un compilateur unique et un interpréteur de P-code par plateforme matérielle.
Ce concept sera repris dans... Java !
J'ai beaucoup programmé en Pascal sur Macintosh, un langage clairement pensé pour avoir de bonnes pratiques de programmation (toutes les variables sont typée et déclarées en début de fonction).
Souvenir aussi d'heures passées à lire son livre "Algorithmes et structures de données", qui est encore dans mon bureau !
Rome ne s’est pas construite en un jour ! Ma petite entreprise (libriste à 100%) va officiellement clôturer son compte X bientôt, la responsable communication doit comprendre comment fonctionne Mastodon, ce n’est pas immédiat quand on n’a que l’habitude de X.
Et oui, twitter ne s’est pas fait en un jour non plus !
La rediffusion n’est pas l’idéal (les @xxx inconnus) mais permet déjà de se tenir informé ailleurs que sur X/twitter.
Le matériel évolue dans le bon sens depuis des décennies, mais le code, lui, évolue à l’opposé. Du code toujours plus lourd, de moins en moins optimisé (car souvent testé sur des machines rapides), pour ne pas forcément faire beaucoup plus qu’avant. Certaines pages web pèsent autant que Windows 95 complet.
L’idéal c’est le code écrit pour des machines anciennes, mais tournant sur des machines actuelles (oui, comme Emmabuntüs)… et là ça décoiffe !
Je parle de dédommagements des patients victimes, pas d’amendes.
Oui, un SI correctement sécurisé ça a un coût, tout comme le matériel médical fonctionnel. Pour moi ce n’est pas séparable. Le manque d’investissement dans la sécurité a un énorme coût final quand tout tombe… combien coûte l’arrêt quasi complet d’un hôpital comparé aux investissements manquants ?
C’est comme le manque d’entretien d’un bagnole… jusqu’au jour où cela nous cause un accident grave. Petite économie, grosse conséquence.
Le sujet sécurité sera peut plus sérieusement traité si les conséquences financières sont lourdes.
Il serait bon de s’intéresser aussi à la responsabilité de l’hôpital qui n’a pas su protéger correctement les données sensibles des patients alors que le risque est de plus en plus avéré (on parle d’un hôpital attaqué chaque semaine).
Des poursuites pour défaut de sécurisation et de lourdes peines financières feront peut être un peu plus agir les autres hôpitaux si les millions non dépensés en sécurité dans le passé partent en dédommagements pour les vraies victimes qui sont les patients (y compris ceux qui n’ont pas pu être soignés suite à l’attaque) et pas l’hôpital.
Il est à l’initiative dela députée Paula Forteza, il ne fait suite à aucune commande ou demande à ce que je sache.
Encore moins de chance d’être suivi d’effet, mais au moins les choses sont écrites et publiques.
L’absence de conséquence dans l’immense majorité des cas où les administrations ne respectent pas la loi, rend l’application de la loi bien théorique.
Il faut avoir de la volonté et de bonnes compétences pour aller jusqu’au bout, c’est à dire le tribunal administratif.
madada.fr est une aide pour les premières étapes, ensuite pour de l’aide il faut se tourner vers des associations comme https://ouvre-boite.org/ anticor ou transparency international.
Certaines données ne sont accessibles que via une API où il faut s’enregistrer et utiliser tout un système d’authentification qui va très fortement limiter les réutilisations vue la complexité.
On ne peut vraiment pas parler d’ouverture, ce mode de publication ayant à plusieurs reprise été considéré par la CADA comme non conforme à la loi.
22% de la population utilisatrice et 4.7% de cas signalés… c’est conforme à la limite mathématique de ce type de tracing… pour un pourcentage donné de la population utilisant l’app, seul ce même pourcentage ne pourra être informé d’un contact.
10% de la population ne permet de détecter que 1% des contacts 20%, donne 4% etc…
Et pour mettre en perspective… durant ces 3 semaines où 68 personnes ont déclaré leur test positif, 9000 nouveaux cas étaient recensés.
Cela fait… 0,8% autant dire que l’app n’a aucun impact.
L’article ne mentionne pas non plus les 205 “personnes à proximité” identifiées, soit 3 pour un cas déclaré positif, ni que parmi ces 205 personnes, seulement 14 ont été notifiées.
Plus de 90% des personnes à proximité, et donc des données remontées au serveur central, n’ont donc pas servi aux notifications. Ceci intéressera éventuellement la CNIL…
Et même en imaginant que l’appli tourne parfaitement sur 1 million de smartphones… sans problème de batterie, ni bug, ni faux positifs ou négatifs :
- 1 million / 67 millions = 1,5% de la population
- pour laquelle on ne pourra que détecter 1,5% de leurs contacts… soit 0,022% des “cas contact”
- avec 600 nouveaux cas quotidiens ces derniers jours… 0,022% de 600 = 0,13 cas détectables par jour grâce à l’appli, ce qui fait… 1 cas contact détecté par semaine, au mieux !
Tout ça pour ça !
La fameuse étude d’Oxford citée à maintes reprises par Cédric O pour couper court à l’argument de le nécessité que 60% de la population l’utilise pour qu’elle soit utile l’indique même clairement (et à l’opposé de ses déclarations répétées) :
“The efficacy of contact
tracing (the y axis of Fig. 3) is the square of the
Si l’équipe qui existe depuis des années est renforcée en “task force” c’est très bien, mais parler de “mise en place” c’est juste un effet d’annonce.
De plus, se limiter (désormais) aux 10 sites les plus utilisés est par contre une forme de recul, car la loi de 2005 (15 ans déjà) ne se limite pas à 10 sites principaux… voir:http://references.modernisation.gouv.fr/rgaa-accessibilite/guide-accompagnement-RGAA.html#Qui-est-concerne-par-l-obligation-de-mise-aux-normes
Les sites des “organismes, public ou privé, prenant en charge une activité d’intérêt
général sous le contrôle d’une personne publique” sont tous concernés et doivent être “double A”.
36 commentaires
Le 09/01/2026 à 18h35
(la nouvelle excuse à la mode)
Le 19/12/2025 à 16h27
Le 03/12/2025 à 09h49
Etonnante cette puissance d'émission, quand on voit que l'émetteur allemand est 10 fois en dessous.
Le 19/09/2025 à 08h48
- libre et 100% ouverte (données ET code : https://gilab.com/panoramax)
- décentralisée (de multiples serveurs/instance Panoramax, accessibles via un "méta-catalogue" qui les fédère).
Les photos sont réutilisables (sous Licence Ouverte ou CC-BY-SA en fonction de l'instance où elles sont publiées).
Pour l'accessibilité, il y a déjà des travaux de faits, comme la détection des panneaux des stationnements PMR: https://forum.openstreetmap.fr/t/detection-des-stationnements-pmr-a-partir-de-panoramax/20627 ou ce challenge https://acceslibre.beta.gouv.fr/challenges/ pour ajouter une photo à la description des ERP.
Le 02/02/2024 à 12h05
https://panoramax.ign.fr/#background=streets&focus=pic&map=18.98/43.4073771/3.1073444&pic=f4880a99-d65e-4d38-a243-d6b4d80d803b&speed=250&xyz=21.92/-70.67/0
Le 01/02/2024 à 13h56
Effectivement depuis le passage de Mappy de Solocal à RATP Group, il y a peut être quelque chose d'envisageable... c'est noté !!
Le 30/01/2024 à 18h16
Le 30/01/2024 à 18h14
Un point important c'est le côté décentralisé, pour ne pas mettre tous ses oeufs dans un seul panier, trop lourd à porter par un acteur sur le long terme.
Il y a donc actuellement deux instances publiques de Panoramax où l'on peut partager ses photos, celle de l'IGN et celle d'OpenStreetMap France. D'autres devraient prochainement ouvrir dans des pays voisins (Belgique, Suisse) à l'initiative des communautés OSM locales.
Un "méta-catalogue" fédère l'ensemble et permet de naviguer sans couture entre des photos partagées sur des instances différentes.
N'hésitez pas à venir échanger sur https://forum.geocommuns.fr/c/panoramax/6 si le projet vous intéresse !
Le 05/01/2024 à 10h25
Pour comprendre cette loi, il suffit de regarder du code des années 80/90 encore utilisé très largement aujourd'hui car d'une incroyable efficacité. Quelques exemple ? grep, sed, awk...
On doit aussi à Niklaus Wirth le P-code, du code semi-compilé, interprété pour exécution, ce qui permettait d'avoir un compilateur unique et un interpréteur de P-code par plateforme matérielle.
Ce concept sera repris dans... Java !
J'ai beaucoup programmé en Pascal sur Macintosh, un langage clairement pensé pour avoir de bonnes pratiques de programmation (toutes les variables sont typée et déclarées en début de fonction).
Souvenir aussi d'heures passées à lire son livre "Algorithmes et structures de données", qui est encore dans mon bureau !
Le 27/10/2023 à 07h02
NextInpact n’a pas de compte officiel sur mastodon, mais il y a un compte officieux (crosspost que je maintiens):
https://amicale.net/@nextinpact
Le 24/10/2023 à 16h01
Et oui, twitter ne s’est pas fait en un jour non plus !
La rediffusion n’est pas l’idéal (les @xxx inconnus) mais permet déjà de se tenir informé ailleurs que sur X/twitter.
Le 18/10/2023 à 09h14
Une petite présence deGAFAMisée sur des réseaux sociaux libres, ouverts, et interopérables serait sûrement TRES appréciée d’une partie de vos abonnés.
Pour le fediverse/mastodon, vous avez déjà 1200 abonnés à récupérer: https://amicale.net/@nextinpact
Le 25/09/2023 à 16h53
Connaissant Ferdinand, c’est une excellente nouvelle !
Le 05/10/2022 à 14h29
La Loi de Moore est très connue, mais une autre loi en réduit énormément les effets… la Loi de Wirth qui décrit les “obèsiciels” ou “bloatware”.
Le matériel évolue dans le bon sens depuis des décennies, mais le code, lui, évolue à l’opposé.
Du code toujours plus lourd, de moins en moins optimisé (car souvent testé sur des machines rapides), pour ne pas forcément faire beaucoup plus qu’avant.
Certaines pages web pèsent autant que Windows 95 complet.
L’idéal c’est le code écrit pour des machines anciennes, mais tournant sur des machines actuelles (oui, comme Emmabuntüs)… et là ça décoiffe !
Le 05/10/2022 à 09h50
Je parle de dédommagements des patients victimes, pas d’amendes.
Oui, un SI correctement sécurisé ça a un coût, tout comme le matériel médical fonctionnel.
Pour moi ce n’est pas séparable.
Le manque d’investissement dans la sécurité a un énorme coût final quand tout tombe… combien coûte l’arrêt quasi complet d’un hôpital comparé aux investissements manquants ?
C’est comme le manque d’entretien d’un bagnole… jusqu’au jour où cela nous cause un accident grave. Petite économie, grosse conséquence.
Le sujet sécurité sera peut plus sérieusement traité si les conséquences financières sont lourdes.
Le 05/10/2022 à 07h13
Il serait bon de s’intéresser aussi à la responsabilité de l’hôpital qui n’a pas su protéger correctement les données sensibles des patients alors que le risque est de plus en plus avéré (on parle d’un hôpital attaqué chaque semaine).
Des poursuites pour défaut de sécurisation et de lourdes peines financières feront peut être un peu plus agir les autres hôpitaux si les millions non dépensés en sécurité dans le passé partent en dédommagements pour les vraies victimes qui sont les patients (y compris ceux qui n’ont pas pu être soignés suite à l’attaque) et pas l’hôpital.
Le 03/08/2022 à 14h41
Le RAID 0 c’est pire que 0 sécurité, on multiplie les chances de pannes en additionnant celles de chaque disque physique.
A quand un article sur les filesystem modernes qui gèrent cela de façon bien plus souple ? BTRFS, et surtout ZFS…
etc…
Quand on y goute, le RAID 0, 1, 0+1, 5, 6 ou 10 semble d’un autre age !
J’avais écrit un petit billet au sujet de ZFS: https://medium.com/@cq94/zfs-vous-connaissez-vous-devriez-1d2611e7dad6
Le 28/06/2022 à 08h06
Intel uniquement ?
Le 6502 et le Z80 ont aussi été très populaires en 8 bits !
Le 23/06/2022 à 16h34
Et c’est déjà prévu par la Loi pour une République Numérique (“Lemaire” de 2016).
C’est la portabilité des données, avec la même logique quand on demande la portabilité de son numéro de téléphone.
L’interopérabilité c’est autre chose, mais tout aussi utile.
Le 12/04/2022 à 09h57
Il est à l’initiative dela députée Paula Forteza, il ne fait suite à aucune commande ou demande à ce que je sache.
Encore moins de chance d’être suivi d’effet, mais au moins les choses sont écrites et publiques.
L’absence de conséquence dans l’immense majorité des cas où les administrations ne respectent pas la loi, rend l’application de la loi bien théorique.
Il faut avoir de la volonté et de bonnes compétences pour aller jusqu’au bout, c’est à dire le tribunal administratif.
madada.fr est une aide pour les premières étapes, ensuite pour de l’aide il faut se tourner vers des associations comme https://ouvre-boite.org/ anticor ou transparency international.
Le 15/03/2022 à 09h17
iOS 15.4 ;)
Le 05/01/2022 à 10h46
“cette fonctionnalité peut exposer l’empreinte digitale de l’utilisateur”
C’est pas plutôt l’empreinte numérique ?
La confusion digitale/digital est magnifique ici, sauf si il s’agit des capteurs d’empreinte…
Le 05/01/2022 à 10h42
Pas mal ça… 30 jours pour obtenir un (faux) justificatif d’injection car on a utilisé un faux justificatif ?
Le 09/12/2021 à 16h30
Trois finalités seulement ?
TousantiCovid ne fait donc plus le traçage de contacts en mode centralisé ?
C’est quand même la première finalité (chronologique) et le premier gros bouton quand on ouvre l’appli “Activer TousAntiCovid”.
Sûr qu’on n’en entends plus du tout parler vu le fiasco que ça a été…
Le 04/10/2021 à 14h31
Mise en ligne ?
Certaines données ne sont accessibles que via une API où il faut s’enregistrer et utiliser tout un système d’authentification qui va très fortement limiter les réutilisations vue la complexité.
On ne peut vraiment pas parler d’ouverture, ce mode de publication ayant à plusieurs reprise été considéré par la CADA comme non conforme à la loi.
Le 07/07/2021 à 07h45
Deveryware c’était l’appli SAIP… qu’on a déjà oublié !
Le 24/05/2021 à 08h41
22% de la population utilisatrice et 4.7% de cas signalés… c’est conforme à la limite mathématique de ce type de tracing… pour un pourcentage donné de la population utilisant l’app, seul ce même pourcentage ne pourra être informé d’un contact.
10% de la population ne permet de détecter que 1% des contacts
20%, donne 4%
etc…
https://cq94.medium.com/tousanticovid-in-efficacite-en-chiffres-8aba1c107113
Le 16/02/2021 à 09h30
Oui, le versionning est dispo intégralement sur github…
Et tout le code est aussi sur github.
Une API permet d’interroger le contenu: https://disinfo.quaidorsay.fr/api/open-terms-archive/docs
Le 27/11/2020 à 09h50
Ce sont tous les députés qui sont court-circuités… pas que ceux de LREM.
C’est vrai que les autres ont bien plus l’habitude !
Le 17/11/2020 à 09h33
State of the ONION (pour le titre) sauf si l’objectif est de faire un jeu de mot inversé de celui d’origine ;)
Le 17/09/2020 à 08h45
“Publicité adressée” ? Quel affreux anglicisme !
“Publicité ciblée” serait préférable, non ?
Le 24/06/2020 à 09h59
Et pour mettre en perspective… durant ces 3 semaines où 68 personnes ont déclaré leur test positif, 9000 nouveaux cas étaient recensés.
Cela fait… 0,8% autant dire que l’app n’a aucun impact.
L’article ne mentionne pas non plus les 205 “personnes à proximité” identifiées, soit 3 pour un cas déclaré positif, ni que parmi ces 205 personnes, seulement 14 ont été notifiées.
Plus de 90% des personnes à proximité, et donc des données remontées au serveur central, n’ont donc pas servi aux notifications. Ceci intéressera éventuellement la CNIL…
Le 08/06/2020 à 08h59
Et même en imaginant que l’appli tourne parfaitement sur 1 million de smartphones… sans problème de batterie, ni bug, ni faux positifs ou négatifs :
- 1 million / 67 millions = 1,5% de la population
- pour laquelle on ne pourra que détecter 1,5% de leurs contacts… soit 0,022% des “cas contact”
- avec 600 nouveaux cas quotidiens ces derniers jours… 0,022% de 600 = 0,13 cas détectables par jour grâce à l’appli, ce qui fait… 1 cas contact détecté par semaine, au mieux !
Tout ça pour ça !
La fameuse étude d’Oxford citée à maintes reprises par Cédric O pour couper court à l’argument de le nécessité que 60% de la population l’utilise pour qu’elle soit utile l’indique même clairement (et à l’opposé de ses déclarations répétées) :
“The efficacy of contact
tracing (the y axis of Fig. 3) is the square of the
proportion of the population using the app,
multiplied by the probability of the app de-
tecting infectious contacts, multiplied by the
fractional reduction in infectiousness result-
ing from being notified as a contact.”
Le 12/02/2020 à 11h08
“Une « task force » dédiée à l’accessibilité numérique sera pour cela
mise en place au sein de la Direction interministérielle du numérique
(DINUM), un peu comme l’avait récemment préconisé le Conseil national du
numérique.”
Elle existe depuis longtemps (DINSIC et même avant)… elle produit le RGAA (Référentiel Général d’Accessibilité pour les Administrations):http://references.modernisation.gouv.fr/rgaa-accessibilite/
Si l’équipe qui existe depuis des années est renforcée en “task force” c’est très bien, mais parler de “mise en place” c’est juste un effet d’annonce.
De plus, se limiter (désormais) aux 10 sites les plus utilisés est par contre une forme de recul, car la loi de 2005 (15 ans déjà) ne se limite pas à 10 sites principaux… voir:http://references.modernisation.gouv.fr/rgaa-accessibilite/guide-accompagnement-RGAA.html#Qui-est-concerne-par-l-obligation-de-mise-aux-normes
Les sites des “organismes, public ou privé, prenant en charge une activité d’intérêt
général sous le contrôle d’une personne publique” sont tous concernés et doivent être “double A”.
Le 12/12/2019 à 09h45
Un tel protocole existe déjà et est en cours de standardisation au W3C, c’est ActivityPub.
C’est celui sur lequel repose d’ailleurs Mastodon, mais aussi peertube et pixelfed.
Alors que veut donc faire twitter ?
Pourquoi ne pas participer directement au travail fait dans ce domaine par le W3C et vouloir créer un Nième protocole de plus ?
L’interopérabilité passe par des choix issus de consensus.
Le 04/12/2019 à 11h08
@crocodudule: pourtant c’est sûrement dans le domaine des transports publics qu’il y a le plus de données opendata !
Portail dédié surhttps://transport.data.gouv.fr/