votre avatar Abonné

FennNaten

est avec nous depuis le 6 octobre 2008 ❤️

140 commentaires

Le 09/06/2021 à 13h 23


Citan666 a dit:


EDIT : par ailleurs, je n’arrive toujours pas à comprendre quelles sont exactement les données personnelles à risque. Mon nom et mon prénom, je suis bien obligé de les exposer ne serait-ce que sur Linkedin. Ma date de naissance, plus ou moins pareil (je la donne jamais si pas vraiment nécessaire, mais au moins sur les sites de CV et sites officiels ça me paraît compliqué de spécifier un truc faux).



Reste le numéro de sécurité sociale s’il est inclus, mais j’ai cru comprendre que non.



Et le fait qu’on a été vacciné… Oui c’est une donnée personnelle, oui c’est une donnée médicale. Mais je ne vois pas en quoi connaître ça peut permettre de connaître quoi que ce soit d’autre sur mon “profil”, et c’est un peu la donnée essentielle du dispositif donc…



Bref, je comprends qu’on critique sur le principe de non-confidentialité (au moins pour marquer le coup en prévision d’applis futures), mais en l’état concrètement que risque-t-on ???


Pour nom / prénom / date de naissance, ce n’est pas tant le fait de les exposer que le contexte qui va avec. La personne qui va scanner ton QR code obtient ces infos avec en complément le lieu où tu te trouves quand tu scannes et la date. (en gros la même chose que si tu scannais un titre de transport nominatif, un billet d’entrée pour un spectacle ou une carte de fidélité, sauf que là tu n’as pas consenti à un usage de la donnée)
Comme toute l’info se trouve dans le QR (pour rappel, le pb ce n’est pas l’appli, c’est le fait que les infos soient en clair dans le QR, l’attestation papier a le même pb), rien n’empêche le terminal qui scanne de les extraire et de les stocker en plus de vérifier le passe. (car un terminal peut très bien exécuter plusieurs applis, c’est pas parce que l’appli TousAntiCovid-Verif ne stocke rien que le device est clean).
Après ce serait bien évidemment illégal, mais l’illégalité n’est pas une protection a priori.



Pour la donnée de vaccination, je ne vois pas forcément d’exploitation dans le cas “standard”, après par ex si tu as été vacciné plus tôt que l’ouverture de ta classe d’âge, ça va indiquer que soit tu fais partie d’un métier prioritaire, soit tu as bénéficié d’une dose de rab qu’il ne fallait pas perdre, soit tu as une comorbidité, soit tu as fraudé. (sans possibilité de trancher entre les possibles). Difficile d’estimer la valeur/le risque d’une telle info, ça dépend qui la récupère et pourquoi. Je suppose que si j’avais une comorbité, je n’aurais pas forcément envie qu’une assurance le sache par ex.



Après même si je vois mal une exploitation de tout ça à grande échelle se mettre en place, ça reste dommage d’avoir donné la possibilité.

Le 09/06/2021 à 10h 49


Berbe a dit:


Paradoxalement, les plus gros sites Web sont devenus les moins disponibles. Un CDN, c’est bien, mais un CDN redondé c’est mieux… et d’un seul coup les rapports bénéfice/risque & bénéfice/coût ont une autre allure.



Les circuits de secours sont toujours vus comme superfétatoires lorsqu’il s’agit de justifier leur coût, et ça couine quand finalement ils auraient bien été nécessaires. Cas d’école d’une mauvaise gestion de risques : les œufs dans le même panier pour limiter les coûts d’une décision prise sans vue d’ensemble.


Je te trouve bien catégorique. Ces sites n’ont jamais affirmé nulle part garantir un uptime. Les contrats entre grosses boîtes (puisque tu parles spécifiquement des “plus gros sites web”) et gros fournisseurs impliquent en général des SLAs et assurances complémentaires pour couvrir les pertes d’exploitation, c’est aussi une façon de gérer le risque. En l’absence d’accès à l’administratif des entreprises touchées, rien ne permet d’affirmer que ce downtime ne fait pas partie de leur modèle de risque acceptable.
J’ai l’impression que tu confonds “gérer les risques” et “assurer une disponibilité totale”. Mais ça n’a rien à voir. Tant que la durée de dowtime coûte moins cher que ce qu’il aurait fallu pour l’éviter et reste dans une fourchette anticipée, le risque est géré correctement.

Le 29/04/2021 à 12h 50


(quote:1870605:127.0.0.1)
Fun fact sur le site le CNIL:



https://www.cnil.fr/fr/cookies-la-cnil-incite-les-organismes-prives-et-publics-auditer-leurs-sites-web-et-applications



scrollez en bas de la page et admirez le popup de concentement youtube :mdr:


Bah en fait, c’est pas ultra fun ^^” youtube est censé fournir pour les vidéos embedded un “enhanced privacy mode” avec un domaine dédié “youtube-nocookie”. Sauf que dans les faits, les intégrations via ce domaine font quand même des trucs bizarres (stocker des identifiants dans d’autres stockages du browser, stocker quand même un cookie pas au load mais au clic sur play) dont personne n’est sûr que ce soit vraiment conforme RGPD. Et le module embedded lui-même ne demande pas de consentement.
La doc de ce privacy mode se garde bien de dire s’il est conforme RGPD ou non (ce serait trop simple), et se contente de dire que quand il est utilisé, google n’utilise pas de cookie pour personnaliser l’expérience de visionnage et de recommendation. Donc ils n’excluent pas l’utilisation d’autre chose que des cookies, ni l’utilisation de cookies pour d’autres usages (par ex, collecter de la donnée pour de la pub)
(voir ce lien en anglais avec tous les détails techniques à ce sujet: embed youtube videos without cookies )



Du coup, ça fait des expériences du type de ce qui est sur le site de la CNIL, dans le doute, un gros placard à la place de la vidéo, et on ne charge rien en provenance de Youtube tant que l’user n’a pas fait une action pour.



Là où je bosse, on nous a signalé justement un problème de conformité potentiel la semaine dernière, mais personne ne sait si on doit aller aussi loin que la CNIL ou non… Sachant qu’on gère des marques qui mettent parfois des vidéos en page d’accueil de leur site, les discussions sont funky (avec évidemment personne qui veut se mouiller en prenant une décision ferme et définitive)



LE RGPD et ses directives à interprétation variable, ça va faire longtemps la fortune des cabinets d’audit et des fournisseurs de solution de conformité tant c’est l’enfer quand il y a des chaines de responsabilités entre acteurs et des choses qui viennent se cacher dans des détails techniques.

Le 26/02/2021 à 11h 05

Les produits dropshippés sont bien souvent des trucs très génériques (une montre, des écouteurs, etc.) auxquels ils vont créer une fausse image de marque via le site web, avant de payer des “influenceurs” sans trop de scrupules pour promouvoir le truc à leur communauté.
L’idée c’est la même que pour le spam, taper large, chopper un max d’acheteurs crédules, se tirer avec la caisse.
A noter qu’ici, ce qui est vendu l’est souvent au prix qu’aurait un article similaire (mais de bonne qualité), donc les comparaisons ne vont pas apporter grand chose. Là où réside le piège c’est qu’il s’agit en réalité de merdouilles à littéralement 2 balles, et qui seraient parfaitement achetables en ligne au vrai prix si le consommateur pouvait trouver le produit source.
C’est donc essentiel dans ces cas là de pouvoir retrouver le produit de base.
On ne parle pas ici de cas légitimes de délégation de chaine logistique, on parle de gens qui dropshippent des trucs qui viennent d’une autre plateforme de vente en ligne qui vend déjà au detail.

Le 25/02/2021 à 17h 33


Inodemus a dit:


Non, ça c’est juste du commerce. Les prix sont libres, c’est aux clients de comparer.


C’est souvent là que ça pose souci, les dropshippeurs changent les noms des produits et ne donnent pas leurs identifiants internationaux (type UPC, EAN, GTIN etc.) (pour peu que le fabriquant en ait bien donné déjà), ce qui rend la comparaison difficile pour l’utilisateur lambda, car il ne peut pas trouver avec quoi comparer. Le baratin en description laisse souvent peu voire pas de mots clefs discriminants.
Le meilleure pari c’est souvent de faire une recherche d’image inversée, mais même là les templates de sites utilisés emploient parfois des scripts pour désactiver les clics droits (facile à contourner quand on connaît le web, mais quand on connaît le web et qu’on est méfiant, on n’est de toute façon pas vraiment la cible visée)
C’est là qu’on est au borderline du légal.
Une “simple” obligation de fournir de manière bien visible les codes produit fournis par les fabriquants pourrait déjà aider à différencier plus facilement le dropshipping “légitime” de celui qui vise juste à encaisser de la marge sans ajouter de valeur.

Le 19/02/2021 à 19h 05


thecis a dit:


Étude incomplète ne prenant pas en compte le coût énergétique de production d’un bien, notamment le coût de l’extraction des matières premières.


Heu, alors moi avant de chercher à critiquer j’ai ouvert le lien, juste après le sommaire il y a un gros graphique récap’ des données, absolument inratable, et ce graphique comporte, bien visible, une section “car production” et une section “battery production”.
Si on ouvre le pdf et qu’on rentre dans le détail et les différents matériels et méthodes, on peut lire dans la section sur les batteries par ex, que sont prises en compte les émissions à la manufacture avec quatre scenarii pour les mix énergétiques de différents pays: europe moyennes émissions, europe basses émissions, europe hautes émissions, et chine. Sont également prises en compte les émission upstream (minage et raffinage), avec l’hypothèse que les techniques ne vont pas évoluer vers des méthodes plus propres en 10 ans…



En gros, tu prends pour des jambons ceux qui écrivent le papier (qui, eux, sont des experts du sujet qui ont bossé dessus…) sans prendre la peine de lire la source…

Le 18/02/2021 à 15h 56


zogG a dit:


Qu’est-ce qu’il y a de douteux dans l’acquisition des exclusivités sur l’Epic Game Store ?


En vrai c’est pas tant la méthode d’acquisition qui est douteuse que la façon dont c’est présenté par Epic en mode “tout ça c’est pour les devs, nos motivations sont altruistes”



Si on regarde le marché pré-Epic:




  • steam: prend des commissions salées, politique de soldes agressives qui poussent les joueurs à les attendre et dévalue les marge devs, lock-in. Visibilité qui diminue pour les petits éditeurs car car “vieux” store avec énormément de choix. Amène un paquet de features tant aux devs qu’au qu’aux users. (perso il y a des trucs que j’achète sur steam uniquement parce que je veux le remote play par ex)



  • gog/itch.io, pas feature-rich, petite commission, pas de lock-in, positionné sur les créneaux indep/respect du dev et de l’user



  • xbox/PS/Nintendo/Apple/Google, pas feature rich, mais profitent de la position d’éditeur de plateforme



  • du spécifique ubi/EA/Square Enix, un peu osef




Du coup, quel positionnement marché il restait pour un acteur qui débarque avec aucune feature différentiante à proposer, mais une montagne de cash, et qui a en plus une position d’éditeur de jeu et de moteur (comme Valve en son temps)?




  • se faire de gros coup de pubs

  • arroser de cash et profiter des connexions avec les utilisateurs de leur engine pour avoir jeux gratuits+exclus pour appâter les joueurs

  • baisser ses marges (enfin, baisser leur commission, vu que l’absence de feature fait aussi moins de coûts, on ne peut même pas être certain que ça impacte la marge) + exclu deals pour appâter les devs qui n’ont pas besoin des features de steam, mais qui quand même aimeraient bien que leurs joueurs soient DRMisés, ou sont dans une situation financière où on ne refuse pas un sac de pièces d’or tombé du ciel.
    -en remettant sa casquette éditeur, attaquer les stores console/mobile sur le terrain de la réputation pour leur forcer la main sur les commissions en capitalisant sur l’image créée aux étapes d’avant, sa user base et les éditeurs qui utilisent son moteur (attention, je ne dis pas qu’ils aient tort sur le fond, les stores plateforme-specific, ça pose à mon sens de vrais soucis, ce qui n’empêche pas que ça arrange bien la stratégie d’Epic de pouvoir pousser là-dessus)



On a donc une bonne grosse stratégie de prise de position en force sur un marché par (et pour) le pognon, capitalisant sur la bonne image de Tim Sweeney dans l’industrie (note: je ne remets même pas en cause sa bonne foi, il est très possible qu’il s’aveugle de ses bonnes intentions pour ne pas voir le cynisme total de la situation) et vendu dans un emballage “bonne conscience” pour faire croire que les exclus epic, c’est pas un lock-in comme les autres plateformes, nan là c’est pour le bien de l’industrie.



Je sais bien que c’est comme ça que ça se passe dans le grand casino des marchés néo-libéraux, ça donne quand même à chaque fois envie de de mettre des baffes à ceux qui étalent leur hypocrisie de cette façon.

Le 04/02/2021 à 12h 50


spidermoon a dit:


Quelqu’un peut traduire en français ? :transpi:



PS pour les financiers: regardez, on va forcément continuer à gagner plein de thunes, vous pouvez continuer à parier sur nous, bisous.”



:)

Le 29/01/2021 à 12h 30

Je ne comprend pas trop la formulation “ordinateur” utilisée ici. C’est pour faire référence aux disques durs internes ? (en opposition aux externes qui sont déjà taxés)

Le 15/01/2021 à 11h 20

Oui, c’est compliqué. On n’est plus à l’époque où il suffisait de booster “le serveur” et croiser les doigts, chaque service mis en ligne est généralement lui-même une infra de plusieurs éléments, qui va également se reposer sur d’autres services. Tous ces éléments doivent tenir la charge, et pas juste les frontaux web (qui sont d’ailleurs rarement le bottleneck car les infras cloud modernes permettent de les multiplier facilement)



Normalement, ce qui se fait, c’est de mettre en place une copie la plus complète possible de l’infra de prod (rien que ça ça peut être compliqué dans certains contextes) pour ensuite réaliser des tests de montée en charge avec différents profils de trafic et corriger tous les soucis qui se présentent.
Je suis dans la division ecommerce de ma boîte et on fait ça tous les ans pour être sûr qu’on va tenir sans souci les périodes de fêtes/soldes. (spécialement cette année où avec le covid on a dû réviser nos estimations de trafic à la hausse. Sachant qu’on est présents aux US, donc faut encaisser le pic du black friday)
Le truc, c’est d’une part qu’un goulot d’étranglement peut très vite arriver (il suffit parfois d’une ligne de code ou de config pourrie), a fortiori sur une solution qui n’a encore jamais connu ses conditions d’utilisation réelles. Si tu ne fais pas le test, il y a de fortes chances pour que tu penses avoir prévu large, mais qu’en fait un maillon faible oublié te mette dedans.
D’autre part, préparer, faire ses tests de charge proprement et corriger les soucis, c’est (parfois très) long (par ex, notre campagne de préparation cette année a pris deux mois complets), or on est actuellement dans un contexte où toutes les deadlines sont systématiquement ultra serrées, il y a forcément des étapes du cycle de développement qui sont allégées ou carrément sautées.



Du coup personnellement je ne suis pas surpris que ça tombe, et je n’aimerais pas être à la place des équipes qui bossent sur toutes ces solutions autour du covid, parce que ça ne doit pas beaucoup se reposer.

Le 09/01/2021 à 10h 00


carbier a dit:


Dans ton monde il n’y aucune responsabilité individuelle et les médias sont des pieuvres non composées d’individus ayant leur volonté propre. Dans mon monde, tout le monde à sa part de responsabilité, y compris dans l’entreprise dans laquelle il travaille.



Dans ton monde personne n’est neutre. Dans mon monde il existe des personnes de tous bords ayant des idées bien arrêtées mais pour qui l’honnêteté et la justice priment avant tout.



Ton problème n’est pas le sens des mots mais ta vision de l’humanité.


Tu vois, tu continues : j’écris un truc, tu y lis tout un tas de choses que personne n’a dit, sauf dans ta tête. Et tu continues à confondre “neutre” et “honnête”, ce qui montre bien que tu ne sais pas de quoi tu parles.
Est-ce que j’ai écrit qu’il n’y a “aucune” responsabilité individuelle ? Non. J’ai écrit que la responsabilité individuelle n’a rien à voir avec la neutralité, et que ton focus dessus te faisait mélanger à tort les notions de neutralité et d’intégrité.
Est-ce que j’ai écrit que l’honnêteté et le sens de la justice n’existaient pas ? Non plus.
Est-ce que j’ai écrit que les médias étaient “des pieuvres non composées d’individus” ? Toujours pas. J’ai écrit que l’appartenance à un groupe modifie, oriente le comportement des individus, tout comme le font leurs origines ou leur vécu. Ce qui n’a toujours rien à voir avec des questions d’honnêteté ou d’intégrité.
On est tous orientés, et on produit des discours qui le sont, qu’on le veuille ou non. Ce n’est pas “mon” monde, ça s’appelle juste être humain.
Faut redescendre sur terre, et surtout arrêter d’inventer des trucs que les gens n’ont pas dit juste pour pouvoir les désapprouver, à ce stade c’est même plus de l’homme de paille, c’est vivre dans un fantasme.

Le 08/01/2021 à 13h 02


carbier a dit:


Donc il y a vraiment des gens qui croient que tous les médias sont soit partisans, soit corrompus ?



Ta question est édifiante car elle sous entend que tout le monde à part toi est soit corrompu, soit malhonnete.


La neutralité, ça n’existe pas. On fait tous des choix, et ces choix sont biaisés, consciemment ou inconsciemment. Nos idées, nos “valeurs”, notre milieu social, notre expérience personnelle, tout cela oriente fatalement notre discours.
Source: à peu près l’intégralité du corpus de sciences humaines…
De plus, on a tendance à se regrouper autour d’un lot “valeurs” communes, et à tenir des propos conformes aux attentes de la communauté à laquelle on se sent appartenir et à l’image que l’on veut renvoyer de soi. Source: toujours pareil.



D’ailleurs ton post est un bon exemple, quelqu’un dit qu’un média neutre, ça n’existe pas, et directement tu modifies le propos d’origine pour introduire “tout le monde à part toi” => je n’ai pas vu le commentateur s’exclure spécifiquement. De plus, le sujet c’était les médias, donc des institutions, et non des individus. Ce n’est pas la même chose. (source: à peu près l’ensemble du corpus de sociologie)
De plus, tu modifies également le sens d’origine pour attaquer un homme de paille grossier. Du média “non neutre” d’origine, ce qui ne fait pas de présupposé quand à l’intentionnalité de l’orientation dudit média (or la plupart des biais sont inconscients, il ne suffit pas de vouloir être neutre pour l’être effectivement, cf plus haut), tu passes à “corrompu ou malhonnête”, ce qui est une modification drastique du propos de base. C’est un faux dilemme, une réduction artificielle des alternatives. Ce n’est pas parce qu’on dit qu’une chose n’est pas neutre qu’on réduit les possibilités à “corrompu ou malhonnête”.



Du coup je me dois de te retourner ta question: ta déformation du propos de base, tu la fais parce que tu es corrompu, ou malhonnête ? Ou est-ce qu’il n’y aurait pas une autre raison, du genre un biais à vouloir tout ramener à de la responsabilité individuelle en niant l’influence inconsciente du contexte ? Ou est-ce que juste, tu trolles d’abord, et tu réfléchis après (ou pas d’ailleurs) au sens des mots ?

Le 08/01/2021 à 13h 52


bilbonsacquet a dit:


Bah, beaucoup de plateforme (opensource ou non) configurent par défaut ce couple d’identifiant lors de leur installation, à l’administrateur de les changer ensuite, ce qui n’est pas toujours fait, la preuve…



D’autant plus que certaines plateformes ne permettent pas de modifier le login “admin”, juste son mot de passe, ce qui simplifie grandement les piratages… (coucou les Livebox)


C’est clairement lourd ça, d’autant que la première action des outils de pentesting c’est généralement de repérer toutes les applis accessibles et de balancer un bon bruteforce/attaque par dico sur le login “admin” et ses variantes connues.

Le 08/01/2021 à 11h 54

Plussoiement ! :yes:



Ce que je trouve également intéressant ici, c’est la façon dont la section description/objectifs de la cagnotte et son historique sont utilisés comme équivalent aux termes, liants, d’un contrat, ainsi que la façon dont le jugement remonte à la version originale .
ça parait anecdotique, mais c’est une pierre ajoutée à la jurisprudence plus large autour des financements participatifs, et cela peut modifier la façon dont les acteurs structurent leur processus de validation.



Il reste encore pas mal de boulot d’encadrement autour de ces usages à la démocratisation relativement récente.

Le 06/01/2021 à 12h 04

Ça doit être un truc à la pokemon go, où il faut se déplacer physiquement pour jouer (et donc être libre de ses mouvements et de se réunir)

Le 17/12/2020 à 11h 47

J’ai quasi 60h de jeu, en VF, avec un V masculin.
J’ai trouvé les doublages VF globalement bons, à l’exception malheureusement de mon perso, qui se retrouve souvent au sein d’un dialogue à balancer une ou deux phrases dont le ton est en décalage par rapport à l’ambiance, comme si le doubleur avait enregistré une ligne en n’ayant que la phrase elle-même à disposition et pas son contexte. ça arrive surtout quand le perso est censé faire de l’ironie, et ça m’a pas mal fait tiquer.
Si j’ai la foi je referai peut-être en version féminine pour comparer.



Pour ce qui est de l’authenticité, je vais dans ton sens, pour moi ça colle, surtout si on prend en compte le fait qu’on est dans cyberpunk, un univers fantasmé qui a sa propre culture inventée plaquée par-dessus une culture américaine extrapolée au futur. A partir de là, qui peut dire ce qui est “authentique” ou non ?



Là où j’ai régulièrement l’impression de perdre quelque chose avec les VF, plus que l’acting c’est souvent la traduction. Il y a pas mal de références ou jeux de mots qui se perdent (dans la mesure où on connais suffisamment la culture initiale pour les comprendre, évidemment). Mais c’est quelque chose d’inévitable, les cultures et les langues ne sont pas des choses superposables et les équipes de traduction doivent faire des choix peu évidents.

Le 25/11/2020 à 14h 08


Faith a dit:


De plus, gouverner c’est voir à moyen terme. Et sacrifier l’économie en fusillant le commerce en décembre, c’est faire beaucoup plus de dégats que toutes les contaminations qui risquent d’avoir lieu à Noël. Alors ouvrir les magasins maintenant et permettre aux fêtes de se dérouler convenablement, c’était la meilleure des décisions possible, même si c’est au prix de certaines vies.


Je trouve que tu t’avances beaucoup en affirmant que c’est “la meilleure des décisions possibles”.



La vérité, c’est qu’on ne sait pas. Le gouvernement prend ses décisions sans partager ni les chiffres sur lesquels il se base, ni les impératifs qu’il prend en compte avec leur degré de priorité, ni les compromis qu’il fait. C’est l’opacité complète. “Conseil de défense” => secret défense.
Si le couvre-feu était efficace, pourquoi avoir dû choisir de confiner ensuite ? Parce que la mesure avait été prise trop tard ? Pourquoi si tard du coup ? On ne sait pas.



Personnellement, c’est ça que je qualifie de mauvaise gestion de crise de la part du gouvernement, pas tant pour les mesures prises ou non (quoique je reste convaincu que pour le télétravail, ne pas avoir été foutu de légiférer pour mieux l’encadrer et le favoriser, alors même qu’on dépense le temps des parlementaires sur des bouses comme Avia ou le projet sécurité, c’est une erreur monumentale faite par pure idéologie néo-libérale), mais pour l’opacité: ça laisse la porte ouverte à toutes les interprétations, y compris les plus farfelues, ça divise, ça ne permet pas de résoudre les contradictions apparentes et ça fusille l’acceptabilité des mesures parce qu’on n’a pas les données pour jauger. On est censé fonctionner à la confiance pure, alors même que le gouvernement n’en inspire aucune.



On est quasiment forcés de se dire que si le gouvernement refuse de débattre en transparence des choix qui sont faits et des objectifs visés par ces choix, c’est que les objectifs et compromis ne seraient pas acceptés par la population. Ou qu’il ne sait en réalité pas ce qu’il fait, et joue autant au Nostradamus que nous. Ou, si on décide de lui faire confiance, on va aller rationaliser à partir de ce qu’on pense être le compromis, boucher les trous soi-même, comme tu le fais sans en savoir plus que les autres. Pourquoi craindre de partager les CR de réunions décisionnaires et les supports de données, si on n’a rien à cacher ?… Ironiquement, c’est le gouvernement lui-même qui propage cette idée de “aucun pb pour vous surveiller si vous n’avez rien à cacher” pour passer ses propres lois sécuritaires…



Tout ça pour dire, on ne sait pas si les mesures sont bonnes ou non, bien faites ou non, ni surtout pour quelles raisons elles sont prises. Jouent au Nostradamus aussi bien ceux qui les contestent en bloc que ceux qui les approuvent sans réserve.

Le 23/11/2020 à 12h 40


Faith a dit:


Je n’ai jamais eu de problèmes avec la police aux manifestations où je suis allé. Globalement, si tu n’es pas au milieu de casseur, tu n’as rien à craindre.


On n’a clairement pas fait les mêmes manifs. J’ai toujours fait partie de groupes non-violents, et nous avons été nassé.es, matraqué.es, gazé.es. Certain.es ont été choppé.es par les groupes d’intervention en frange de manif, frappé.es, placé.es en gàv. D’autres ont pris des flashballs. Perso j’ai eu de la chance, je n’ai été “que” matraqué. Il m’est aussi arrivé, après une manif, de passer à côté d’un car de CRS en rentrant chez moi (allure et vêture normale, pas de masque, lunette, rien, je venais juste de la direction de la manif’), et qu’un des flics me balance un coup de gazeuse, gratos.
Je devrais me sentir protégé par la police, au lieu de ça, quand j’en croise, je change de trottoir et je passe au large.

Le 19/11/2020 à 16h 01


Carpette a dit:


Le but n’est pas de couper court au marché gris. C’est juste de l’économie de base des biens (mais pas des services !), un bien coûte X dans une monnaie A, il coutera X * taux change monnaie B + les taxes.



Comment voudrait-tu qu’il coute moins cher ?


Désolé, mais tu as une vision un peu trop simpliste de ce que tu appelles “l’économie de base”.
Le prix d’un bien (hors taxes) se décompose grossièrement en coûts de R&D + coûts de fabrication/distribution + coûts marketing + marge.



Ces différentes composantes ne sont pas nécessairement égales à la conversion près dans tous les pays. Cela dépend fortement de la façon dont l’entreprise gère son positionnement sur le marché et de la façon dont elle redistribue (ou non) les coûts et bénéfices entre ses filiales locales.
De fait, il est fréquent de trouver des tarifications différentes d’un même bien entre pays, voire au sein d’un même pays. (l’entreprise va par ex réduire sa marge pour entrer sur un marché où des concurrents sont installés, pour honorer des accords de distribution avec un partenaire, pour la vente de gros, parce que la législation d’un pays impose des normes différents, etc.) Les grossistes sont un bon exemple, ils négocient des tarifs inférieurs au prix de la vente directe en achetant de grosse quantités, pour ensuite distribuer et revendre. Pourtant, les prix de revente finaux sont souvent équivalents, alors que nulle part le produit n’a coûté “moins cher”. Ce n’est “que” du jeu de marge (avec “que” entre guillemets parce que l’équilibrage est complexe).



Ces différences de prix entrainent ce que l’on appelle “marché gris” (achat là où le produit est moins cher pour revendre là où il est plus cher. ), qui est une des problématique très classique des entreprises qui vendent des biens internationalement, avec différentes stratégies de “contre” (lissage des prix, contrôle des rabais offerts aux grossistes, passage par des revendeurs avec exclusivité, limite de quantité achetable en une fois…)



Par ex, sur des produits fabriqués en Chine, qu’anagrys prenait comme exemple, on pourrait très bien considérer que les prix devraient être inférieurs sur place, car pas de transport international. Or les entreprises fabricant ces produits ont fait le choix de lisser leurs prix entre les pays. (ce qui n’est pas sans coût, il faut transférer les capitaux internationalement pour compenser, et potentiellement réduire le nombre de consommateurs qui pourront se procurer le produit dans certaines zones où les moyens sont plus bas mais où il serait possible de conserver une marge). Conclure que ce lissage de prix vise à contrer le marché gris n’est pas forcément l’explication complète, mais ça se tient.



Note: je ne sors pas les explications de mon fondement, je bosse dans le commerce international de biens :)

Le 28/10/2020 à 19h 41

Un souci bien présent qui freine le télétravail et que je vois peu mentionné, c’est l’état actuellement inadapté de la législation hygiène et santé au travail pour le télétravail.
Tant qu’il y aura risque pour les employeurs que des accidents domestiques (énorme proportion des dommages à la personne, proba hyper élevée) se retrouvent qualifiable trop facilement en accident du travail, les boîtes traineront les pieds car grosses primes d’assurances.
Actuellement, on n’y est pas.
service-public.fr Service Public“L’accident survenu sur le lieu où est exercé le télétravail pendant l’exercice de l’activité professionnelle du télétravailleur est présumé être un accident de travail.”
Je ne dis pas qu’il faut 100% dédouaner l’entreprise (ça dépend du poste et du matériel impliqué), mais il faudrait clairement faire mieux que ça.
Dans une grosse entreprise, ce ne sont pas les “petits chefs” qui font la loi, si on vous refuse le télétravail, c’est qu’au niveau plus haut, il y a un risque financier identifié. (et dans une entreprise qui pilote proprement ses dépenses/revenus, ça se sait que le télétravail ne baisse pas la productivité) ^^”

Le 28/10/2020 à 13h 04

Bon, ma vieille 970 achetée peanuts en 2016 commence justement à bien attendre ses limites, même en 1080p, je vais commencer à regarder si la 3070 pourrait se caler dans ma tour… :)

Le 23/10/2020 à 00h 01

cette manière de faire n’est pas limitée aux projets informatiques, elle existe dans tous les domaines où la réglementation impose un appel “ouvert” que les agents peuvent avoir un intérêt à contourner.

Ah mais je n’en doute pas une seconde ! Je ne découvre pas le fonctionnement d’un appel d’offre, j’ai été appelant comme répondant ;)



Je signalais juste que cette déclaration très vertueuse d’apparence comporte ce trou béant bien visible dans sa formulation.
Or, vu comme ce même trou est exploité depuis Mathusalem en informatique, et en particulier pour esquiver les boîtes spécialisées dans l’open source (un peu le thème de la news donc ^^“), je trouve ça drôle dans le contexte.

Le 22/10/2020 à 09h 55

Les solutions open source seront privilégiées lorsqu’elles sont équivalentes en matière de fonctionnalités, de coût total et de cybersécurité



C’est déjà ce principe là qui permet actuellement d’esquiver l’open source en formulant le cahier des charges de façon à ce que seuls certains acteurs puissent répondre (en incluant des fonctionnalités “exclusives”, ou en jouant sur les coûts d’intégration avec des rabais offerts par les gros éditeurs que d’autres ne pourront pas se permettre…)



La formulation, c’est important. ^^”

Le 22/10/2020 à 12h 03

En fait, le plus souvent, ce sont les devDependencies qui sont massives, avec tous les outils de test/lint/build/optimisation du projet pour travailler from source. D’autant que la reco a longtemps été (et est peut-être encore d’ailleurs) de fixer les versions attendues de ces outils et d’en faire une install par projet (pour éviter les soucis de build dépendants du setup individuel des devs)



Mais ce n’est généralement pas ce qu’on va déployer sur les serveurs à la fin ( et heureusement xD ).



Pour essayer de réduire un peu cet effet, les gros frameworks viennent de plus en plus avec leur propre client en ligne de commande, que tu installes hors du projet et qui contient toute la machinerie de build (ce qui est très bien tant que tu utilises la même build suite que le framework)



Après, garder sous contrôle les dépendances externes du projet en lui-même, c’est un travail permanent d’audit, de revue, et de construction de bonnes habitudes, mais ça se fait.

Le 15/10/2020 à 19h 05


Charly32 a dit:


Je ne vois pas le rapport, à ce que je sache ce bureau de Versailles n’est pas issu d’un rachat :keskidit:


En fait, le bureau de Versailles date d’une époque où Blizzard (d’origine US) appartenait majoritairement à Vivendi (FR) suite à des rachats de boîtes US qui avaient les parts. Puis la filiale jeux de Vivendi a fusionné avec Activision (US) (en continuant à appartenir majoritairement à Vivendi), puis encore plus tard (2013) Activision à racheté le contrôle.
C’est compliqué parce que Blizzard est contrôlé depuis longtemps par des investisseurs qui se rachètent/fusionnent/scissionnent, font parfois eux-mêmes partie de groupes, et n’ont pas les mêmes stratégies/management.
Après, je n’irai pas généraliser sur le fait que ce soit spécialement les boîtes US qui délocalisent, Vivendi n’était pas plus altruiste que ne l’est Activision, mais étant d’origine FR ça les arrangeait probablement de maintenir une présence en France.

Le 13/10/2020 à 20h 44

Ce cahier des charges existe, il s’agit des décrets fixant la mission de service audiovisuel public des entités qui le compose. Et c’est plutôt détaillé et complet.



Il est disponible notamment sur le site du CSA.

Vuip, je sais que ça existe, ce que je dis c’est que je trouve anormal de vouloir refonder le mode de financement sans rediscuter d’abord le cahier des charges. Parce que pour moi ce sont des choses qui sont forcément liées.
Ne faire payer que ceux qui (potentiellement) “consomment” le service n’a pas tout à fait les mêmes implications que faire payer tout le monde.

Le 13/10/2020 à 10h 36

Le pb c’est qu’on ne devrait pas se focaliser sur la question de la redevance, qui n’est que le tout dernier maillon de la chaine.



Les points de base sont:




  • est-ce que l’on veut conserver un audiovisuel public ?

  • si oui, sous quel cahier des charges ? (misions, contenu, cible, accès, modèle…) Est-ce que ça a du sens d’être producteur, éditeur et diffuseur ? Est-ce que ça a du sens de mesurer les résultats en audience ? De se financer en partie par de la pub ? Quid des garanties d’indépendance ? qu’est-ce qui devrait être mis en avant ou au contraire n’y a pas sa place ? Quel service est rendu exactement ? Informatif ? Educatif ? Accès culturel ? Autre ?



Et à partir de là, c’est le cahier des charges qui va ouvrir la question des coûts associés, puis du financement. ça n’a pas de sens de changer le financement sans présenter le cahier des charges avec.
C’est une problématique complexe, et éminemment politique dans les choix à faire, pas un truc à règler à coup de petites phrases et d’avis à l’emporte-pièce, au détriment du fond :/

Le 07/10/2020 à 11h 48


tmtisfree a dit:


Évidemment, si tu entends par « social » les obligations, réglementations, interdictions, régulations, contrôles, etc. et autres impositions/taxations dites « sociales » (ou salariales),


J’appel ici “social” et plus précisément “acquis sociaux” plus loin dans le texte des règles qui garantissent à tout un chacun un niveau de vie décent.




tmtisfree a dit:


comme par ex. le SMIC qui fabrique du chômeur comme le socialisme fabrique du pauvre et de la misère pour tous, alors évidemment on ne parle pas du même « social » : le mien a un visage humain alors que le tien fait vivre toute une parasitocratie au pouvoir.


Ah ben oui, parce que dans les pays qui ont moins ou pas de règles de protection sociale, le niveau de vie est plus élevé et la pauvreté moins importante… Wait, ah ben non.
Et au pouvoir en France, on a des champions de la protection sociale… Wait, toujours pas, cf mon message précédent, on a des néo-libéraux qui vivent de la casse sociale et non l’inverse.




tmtisfree a dit:


Le marché est précisément l’ensemble des individus (dont ces employés) qui échangent volontairement et pacifiquement de manière mutuellement bénéfique (sinon ils n’y participeraient pas) : difficile de faire plus « social » comme interaction entre individus.



Ah oui tu as une définition du marché bien au niveau 0, sursimplifiée et qui ne prend pas en compte les contraintes qui s’exercent, par exemple, sur le marché du travail. Comme, au hasard, le fait que dans notre société où les gens ne naissent pas avec une égalité de moyens, les individus sont contraints de participer au “marché du travail” sous peine de ne pas pouvoir bouffer, ce qui, en l’absence de protection sociale pour contrebalancer, permet mécaniquement aux propriétaires de moyens de production de tirer les salaires vers le bas.
Le “marché du travail” n’est ni volontaire, ni pacifique (grèves, tout ça, ça te dit un truc ou pas?)


J’arrête là, j’ai bien vu que ton argumentaire ne dépasse pas le niveau “caricatural” option “troll néo-libéral”, aucun intérêt à discuter, c’est pas trolldi aujourd’hui.

Le 07/10/2020 à 10h 50


tmtisfree a dit:


Ces employés (et bien d’autres) « payent » l’environnement français idéologiquement réfractaire/hostile au marché et une politique électoraliste à courte vue surprotégeant les salariés coûte que coûte qui montre ses limites depuis des décennies avec des charges et réglementations sociales bien trop élevées qui rend les travailleurs locaux peu intéressants sur le marché mondial du travail.



Il est compréhensible qu’une entreprise se réorganise quand elle en a les moyens et non pas quand elle est en redressement judiciaire comme trop souvent au pays du fromage.


Ces employés (et bien d’autres) « payent » la politique capitaliste libérale globale, qui est favorable au marché globalisé, qui pour sa part est réfractaire/hostile au social.
Faut arrêter de considérer comme “normal” que l’objectif des entreprises soit la maximisation du profit et la croissance, et qu’elles se barrent dès qu’elles peuvent aller exploiter du travailleur dans des pays sans protection sociale.



“une politique électoraliste à courte vue surprotégeant les salariés coûte que coûte”

heu… lol?

La politique depuis plusieurs mandats c’est de chercher à toute force à déprotéger (réformes successives des retraites, CPE/CNE, “loi travail”, réduction du nombre de fonctionnaires), ouvrir plus de marchés (privatisations massives), précariser (“uberisation” en abusant du statut d’auto-entrepreneur, durcissement des conditions d’accès aux aides sociales), ponctionner moins de recettes aux riches et grosses entreprises (cadeaux fiscaux en masse). Donc non, à moins de vivre dans une autre dimension, la politique “électoraliste” elle ne va pas du tout vers un renforcement de protection sociale. Les acquis sociaux ne tiennent (difficilement, et de moins en moins) que par les gros mouvements de grève successifs.

Le 22/08/2020 à 11h 17

Pour tout ce qui est formattage de code (tab/espaces, alignement de params, saut de lignes après les conditions ou pas, etc. etc.), quand je bosse sur des projets qui ne sont pas les miens, j’utilise deux configurations de mon outil de formattage:




  • une avec mes préférences perso qui est exécutée quand je sauvegarde ou via un raccourci dans mon éditeur

  • une avec les préférences du projet, partagée dans le repo, et auto-exécutée en pré-commit
    Résultat : je fais ce que je veux quand je code, et tout est aux normes attendues quand c’est soumis. :)

Le 11/08/2020 à 13h 35

OK.



Pour le premier point, il faut relativement bien embrasser la programmation événementielle. J’imagine que le principe de base et de libérer dès que l’on fait un appel aux entrée/sortie (lecture de fichier, requête SQL…) et d’attendre le message. Mais est-ce qu’il faut pousser le vis au point de transformer des boucles très couteuses en fonctions récursives ?



Pour le second point, si tu as plusieurs instance Node.js, elle font toutes tourner les mêmes services ? donc il faut quelque chose qui distribue les requêtes vers ces instances, non ? Faut-il une instance ‘front” qui se charge de gérer une pile de requêtes ou il y a un truc qui gère ça de lui même ?


J’imagine que le principe de base et de libérer dès que l’on fait un appel aux entrée/sortie (lecture de fichier, requête SQL…)


oui, après ça c’est “fourni” par la base library (tous les modules qui permettent l’accès aux fichiers ou au réseau ont une interface qui va soit prendre une fonction de callback en paramètre soit renvoyer un objet Promise). La base library fournit aussi un objet EventEmitter pour pouvoir faire ses events custom, ainsi que des mécaniques pour gérer les streams.
Et depuis un certain temps il y a également la syntaxe async (pour déclarer une fonction comme asynchrone, ce qui fait qu’elle renvoie automatiquement une promise) + await (pour indiquer un point où l’exécution nécessite le résultat d’un ou plusieurs processes asynchrone, et donc indiquer au main thread qu’il peut passer la main en attendant). Node suit les évolutions du langage JS.
Je ne sais pas où ça en est mais le comité technique avait fini par accepter d’ajouter des threads lights, donc quand ce sera finalisé (si c’est pas déjà le cas) ça changera encore probablement la donne et les recos.




Mais est-ce qu’il faut pousser le vis au point de transformer des boucles très couteuses en fonctions récursives ?


C’est du cas par cas, et ça évolue. Au début de node, c’était pas mal conseillé, maintenant, on conseillera plutôt de mettre les traitements potentiellement bourrins dans leur propre process (qui vivra dans un pool, et sera appelé de façon asynchrone par le process qui reçoit les requêtes), ou de combiner les deux techniques. Tout va dépendre de la fréquence et de la criticité, il n’y a pas vraiment de cas général. Un autre souci étant que pendant longtemps, la pile d’exécution asynchrone était horriblement tracée (pas tracée en fait…), ce qui rendait le debug particulièrement atroce. C’est mieux maintenant avec async/await, mais il y a encore des cas pourris quand on mélange les différents constructs asynchrones.




Pour le second point, si tu as plusieurs instance Node.js, elle font toutes tourner les mêmes services ? donc il faut quelque chose qui distribue les requêtes vers ces instances, non ? Faut-il une instance ‘front” qui se charge de gérer une pile de requêtes ou il y a un truc qui gère ça de lui même ?


ça va pas mal dépendre de la typologie de service ou d’application. Node est un process applicatif, pas obligatoirement un serveur http. Un process peut spawner des sous-process avec qui il partagera des ressources. Il y a un module “cluster” disponible de base qui permet un load balancing (round robin ou custom) intégré (https://nodejs.org/api/cluster.html). Donc sur des cas “simples” tout peut se gérer au sein d’un process node. Il y a des produits commerciaux qui font ça aussi. (et qui généralement vont aussi offrir le monitoring des processes, l’auto-restart, etc).
En fait il n’est pas rare de commencer la vie d’une appli en montant tous les endpoints sur un node en mode cluster, puis de mettre un système d’auto-scaling rudimentaire (plusieurs clusters + un load balancer), puis d’aller séparer les services pour mieux répartir la charge une fois qu’on peut mesurer avec du vrai trafic, etc. Le fait de coder “de base” pour le support du cluster fait qu’il devient relativement simple de réorganiser l’ensemble.
Mais là encore, on est sur des choses qui évoluent, avec le développement (relativement) récent des containers, du “serverless” (FaaS), des bases distribuées à la FaunaDB ou CockroachDB, etc, on peut s’attendre à ce que les best practices continuent de changer.

Le 11/08/2020 à 12h 24

OK, du coup, tu utilises de la programmation événementielle pour libérer le thread (tu libères la mains au prochain events qui se pointe).



Mais du coup, ça veut dire que tu gère toutes les requêtes de toutes les sessions dans un seul et unique thread ? ça ne risque pas de faire exploser le temps de traitement lorsque plein de client balancent des requêtes en même temps et que la charge est importante ? On ne peux pas exploiter les CPU multicœur d’un serveur.

C’est un des inconvénients de node, c’est plutôt simple en apparence mais pour faire une prod performante, il faut respecter un certain modèle de déploiement, qui en retour impose des normes en termes de code. (sauf que le dev inexpérimenté ne les découvrira qu’après, quand il faudra deboguer la perf de sa prod, car le modèle de développement ne donne pas un cadre strict qui amènerait aux bonnes pratiques “naturellement”)



Comme il n’y a effectivement qu’un seul thread qui exécute le code js (en vrai il y a quelques autres threads de contrôle qui trainent), pour exploiter correctement la puissance dispo il faut




  • s’assurer que chaque module, individuellement, rende régulièrement la main à l’event loop.

  • faire tourner plusieurs process node sur la machine, que l’OS pourra répartir sur les coeurs (pour simplifier on dit souvent “un coeur -> un worker process” mais en réalité chaque cas est différent et ça demande de mesurer et d’optimiser en faisant des tests de charge)



Le point 1 implique de bien connaître le fonctionnement de l’event loop de node (parce qu’en réalité tous les “events” ne se valent pas, il y a plusieurs priority queues en-dessous.), le point 2 implique de respecter des normes de code qui permettent de réorganiser facilement la chaine d’exécution (en rendant chaque endpoint métier le plus indépendant possible) de façon à pouvoir croître horizontalement sans souci.
Ce qui veut dire plus de complexité niveau architecture et plus de consommation mémoire.



Ce sont des points qu’il faut connaître à l’avance quand on veut se lancer dans un projet node avec un objectif de croissance. (ou juste quand on veut être sûr de tirer le meilleur parti de la techno).

Le 17/07/2020 à 10h 18

Bah c’est le prolongement des chaines Youtube de tuto qui te vendent les produits utilisés dans les tutos avec des liens affiliés. ^^”



 

Le 17/07/2020 à 10h 09

Bonnes vacances !

Le 06/07/2020 à 11h 40

Wé enfin, Apple a proposé en commission que browsers et CAs s’alignent sur une limite d’un an, le vote a été contre, Apple a dit “on s’en fout on le fait quand même à partir de septembre 2020, donc si vous suivez pas tant pis”. La team Chromium a indiqué son full support, Mozilla est of course pour vu que ça va dans le sens de Let’s Encrypt.

A partir de là, les CAs ont un choix limité, s’ils ne s’alignent pas et que des clients achètent par erreur des certificats 2 ans qui se font rejeter, bah les clients se retourneront contre eux.

C’est probablement mieux pour les utilisateurs du web, par contre niveau méthode, c’est pas terrible. Tu ne t’engages pas à participer à une instance pour aligner les décisions si c’est pour ignorer les décisions quand ça ne va pas dans ton sens.

 

 

Le 24/06/2020 à 18h 45

En fait, il faut remettre ça en contexte, à la base Electron c’est le core d’Atom, un IDE orienté technos web made in Github (avant le rachat par Microsoft).

Dans ce contexte là, (puis VS Code dans la lignée directe) ça faisait 100% sens, et ça n’avait rien à voir avec vouloir éviter des formations aux devs:





  • ce sont des outils développés pour faire des app js, intégrer un noyau node, un navigateur avec un V8 et les outils de debugs directement, dont les versions sont à 100% maitrisés avec la distribution, c’était assez bien vu (avec un méchanisme de dogfooding où l’outil sert à se développer lui-même)



  • ça tourne sur tous les OS principaux employés par les devs



    Il y avait donc un business case très fort pour ce type de solution.

     

    Après, est-ce que c’était pertinent d’extraire le framework et de le mettre à dispo de tout le monde, et est-ce que toutes les utilisations qui en sont faites par des entreprises sont bien appropriée ? Il est probable que parfois oui, parfois non, c’est du cas et par cas et il faudrait voir les tradeoffs faits par chacun. (comme je n’arrête pas de le répéter à mes collègues: nous ne sommes pas Google, c’est pas parce que c’est bon pour eux que c’est bon pour nos problématiques.)

     

    Le truc, c’est que ce type de solution, tout comme les PWA dans une autre mesure, ça répond à un vrai besoin, le fameux “write once, run anywhere” promis par Sun avec Java avant le rachat par Oracle. Il s’agit pour les boîtes d’essayer de trouver le moyen de garder la main sur le canal de distribution malgré la disparité des plateformes, tout en réduisant les coûts. (et oui, dans les coûts en question il y a la formation, la réputation et l’attractivité pour le recrutement, ne nous leurrons pas là-dessus) Et quand on tente de résoudre ça, on se rend vite compte que le seul moteur quasi ubiquitaire, c’est le combo V8+blink  (évidemment, sauf sur iOS, parce qu’il en faut toujours un qui mette un verrou…)

    On peut regretter que les innovations viennent des gros,  mais ça coûte cher la R&D, et eux ils ont des piles de cash à mettre dedans ^^”

Le 24/06/2020 à 12h 42

Hello,

Alors Electron c’est un système pour builder des applications qui combine




  • un chromium modifié qui sert à gérer l’interface

  • du node.js pour compléter les APIs de chromium

  • du code glue pour bridger tout ça, notamment en fournissant des APIs javascript additionnelles au process principal, qui vont permettre de toucher certaines fonctionnalités de l’OS (piloter les fenêtres, le systray, les notifications, tout ça)



    ça permet de faire des applis en utilisant des technos web, tout en étant en mesure de les builder et de les déployer vers à peu près tous les systèmes sur lesquels on peut faire tourner chromium et node.js… Soit beaucoup <img data-src=" />



    Ceci dit, les détracteurs avancent différents arguments plus ou moins recevables:



    &nbsp;- Il y a les gens qui n’aiment pas javascript et diront que ce n’est pas fait pour faire de l’applicatif et qu’il faut arrêter d’étendre les usages du langage. Je mets cet argument en premier pour l’évacuer parce que pour moi c’est de l’ordre de la querelle de paroisse et des gens qui veulent conserver leur pré carré, souvent avec une pointe de crainte en voyant les mêmes technologies devenir de plus en plus universelles (peur de voir se dévaluer certaines compétences spécialisées par exemple, ou d’un “nivelage par le bas” du milieu du développement chez ceux qui n’ont jamais considéré les développeurs web comme de “vrais développeurs”)



    &nbsp;- Il y a ceux qui n’aiment pas la façon de faire une UI en techno web. Les goûts et les couleurs…

    &nbsp;

    &nbsp;- Il y a l’argument de la performance: Même si JS tourne bien, on peut faire mieux avec un langage compilé, et parfois encore mieux en allant faire des optimisations obscures à la mano. Dans l’absolu, c’est vrai. Maintenant est-ce que toutes les applis sont CPU/GPU-intensive au point d’avoir besoin d’aller dans le low level? Comme toujours avec les sujets perfs, c’est très cas-par-cas, et le mieux est parfois l’ennemi du bien. D’autant plus que node.js permet d’écrire des modules en C++ au besoin.



  • Un autre argument lié à la performance, c’est la complexité de paralléliser les calculs et de bien gérer le CPU avec un moteur JS qui est par nature mono-threadé. Pour le coup c’est vrai, quand on veut faire des choses non-triviales, ce n’est pas évident et il faut bien connaître le moteur. Il est toutefois possible de s’inspirer de VS Code, IDE open source et optimisé au poil, écrit avec Electron. (C’est d’ailleurs assez hallucinant quand on sait que c’est Microsoft qui gère ça, alors qu’à côté leurs autres app Electron faites par d’autres teams sont très loin d’avoir la même qualité niveau perfs)



  • Les applis Electron sont lourdes, en RAM comme en taille d’exécutable. C’est vrai et c’est un argument recevable. Chaque appli Electron package sa propre version de Chromium light et sa propre version de node.js,ce qui fait que toutes les apps Electrons font plusieurs Mo même si on n’a soi-même écrit que quelque ko de code applicatif. Il y a des tentatives pour mitiger ça avec des systèmes pour partager un runtime Electron entre plusieurs apps, mais c’est difficile à gérer à la fois pour les devs (obligés de prendre en compte le fait que leur code pourrait potentiellement tourner sur des versions différentes de node/chromium) et pour les utilisateurs qui ne sont plus dans le simple clic-executable-to-install.



  • La sécurité ne coule pas de source. L’UI est un vrai chromium, étendu pour que le js qui tourne dedans ait accès à des APIs desktop.&nbsp; Ce qui veut dire qu’une fenêtre d’une app Electron peut de base naviguer vers une url (d’ailleurs c’est comme ça qu’on lui fait loader l’UI, on la lance en lui faisant charger un document html local) qui pourrait potentiellement être n’importe où sur le web. Si un attaquant arrive à exploiter une app chromium, il peut potentiellement lui faire loader du code js remote qui pourra faire bien plus de dégâts que s’il tournait dans un navigateur. Il y a évidemment des mitigations, mais c’est potentiellement plus facile de se tirer une balle dans le pied sans faire exprès qu’avec d’autres technos.

Le 03/05/2020 à 12h 10

Ah mais oui, je suis complètement d’accord. C’est de toute façon tout à fait normal que la chaîne de distribution en ait pris un coup dans le contexte et qu’il y ait un peu de lag.

Même pas besoin d’invoquer les peurs et comportements excessifs pour l’expliquer, clairement passer d’une situation où on mange au taf (ou à l’école) et où y a pas de problème à faire un plein de course hebdo + un peu de ravitaillement en continu à une situation où c’est “tout le monde chez soi” et où on incite à sortir le moins possible (et donc à se faire un stock suffisant pour 710 jours sans réappro), ça change la conso.&nbsp;

D’ailleurs ce n’est pas uniquement l’approvisionnement du stock magasin qui est touché, mais aussi (et surtout, peut-être) la mise en rayon.&nbsp; Quand les caddies sont tous plus gros qu’à l’habitude, les rayons se vident même si tu as du stock, et le commerce n’a pas forcément les moyens d’aller aussi vite à remplir que les clients à vider.

&nbsp;

Je voulais juste souligner qu’en général, quand les gens disent “les prix ont augmenté”, ils font référence au prix qu’ils paient pour leur panier moyen, pas au prix individuel des produits, qui peut être un facteur explicatif mais n’est pas le seul.

&nbsp;

&nbsp;

Le 03/05/2020 à 02h 09







SebGF a écrit :



Personnellement j’ai aussi tiqué sur l’article de l’UFC que je n’avais pas vu… Si les prix du high tech et de l’électroménager semblent avoir gonflé durant cette période d’après eux, il s’avère que l’alimentaire est très stable selon cette analyse qui cite les études de Nielsen.





Les observations qu’on a pu faire avec quelques amis (alors attention, c’est en région parisienne, et c’est de l’échantillon super réduit puisque ce ne sont que nos anecdotes personnelles), c’est que si globalement les prix de chaque produit n’ont pas ou peu varié, en revanche la disponibilité des produits les moins chers a baissé.

&nbsp;

Le résultat c’est que tu vas en magasin, tu as un peu la pression de la limite du nombre de personnes (il y a la queue pour entrer, donc tu veux faire au plus efficace pour que ça circule). A chaque fois que tu vas chopper un produit, la marque que tu prends d’habitude n’est pas là. Soit tu embêtes le personnel qui galère déjà à réassortir ses rayons, soit tu t’en passes jusqu’au prochaines courses, soit tu te rabats sur un produit équivalent mais plus cher. (qui n’a effectivement pas augmenté, mais que tu n’aurais pas acheté en temps normal)

Au final, du point de vue de la personne qui achète, ça donne l’impression que les prix ont augmenté.&nbsp;

Heureusement, ça semble s’arranger au fil du temps (la logistique des commerces qui s’adapte niveau approvisionnement).&nbsp;


Le 03/05/2020 à 01h 22







ProFesseur Onizuka a écrit :



La Chine a déconfiné il y a 1 mois et n’a pas eu de deuxième vague, et le docteur Raoult, d’après son expérience des épidémies similaires, ne croit pas à une deuxième vague même sans vaccin <img data-src=" />





Désolé, mais ça me paraît assez hors sujet de comparer la situation de déconfinement en Chine avec la situation en France. En Chine masques et tests sont ultra massifiés, la population est tellement surveillée qu’on est bien au-delà du stade d’un simple contact tracing et si tu es testé positif on va te mettre en quarantaine d’office sans te demander d’abord si tu es d’accord.

Pour le coup s’ils se prenaient une deuxième vague malgré ça, ça serait un gros indicateur qu’aucun pays ne doit déconfiner.

Mais en l’état, ça ne nous apprend pas grand chose sur la façon dont l’épidémie va se comporter en déconfinant chez nous.&nbsp;


Le 03/05/2020 à 01h 08







ndjpoye a écrit :



Dans le facteur risque, il faut tenir compte de nombreux paramètres :



  - tout ce qui concerne le covid19 : nombre de mort, de malades, capacités de traitement des cas malades, circulation, etc...&nbsp;       

- les autres pathologies dont il faut reprendre les soins : cancers, diabètes, les maladies mentales, certaine anomalie génétiques, etc....

- les pathologie qui peuvent se déclarer à cause du confinement : dépressions, des problèmes provenant d'un manque d'activité, etc...

- les problèmes "individuels" accentué par le confinement : violences conjugales, personnes âgées se laissant mourir car&nbsp;elles sont seules, etc...

- le retard dans l'éducation




  • l’acceptabilité par la population

     - les problèmes des activités économiques et des activités sociales et solidaires (le chômage partiel mis en place, ou même si l'on donnait des revenus à tout le monde, ne résout pas tous les risques à venir)        

    - l'état dans lequel sera le pays après la crise.

    Et il vue l’heure je dois en oublier.



    Juste pour dire que l’équation visant à définir le niveau de risque minimal&nbsp;n’est pas simple, et que je suis bien contant de pas être à leur place.





    Je suis entièrement d’accord, de nombreux facteurs sont à prendre en compte.

    Raison de plus à mon sens pour avoir une approche “par les moyens” et non “par la date”. En termes d’acceptabilité des mesures, si on déconfine une fois et que ça re-flambe, ça sera d’autant plus dur de relancer un cycle.

    ça aurait plus de sens (à mon avis) de travailler d’un côté à rendre le confinement le plus “vivable” possible tout en bossant d’un autre côté sur le dispositif de support au déconfinement, et de baser les annonces sur les indicateurs d’avancée du dispositif.

    De même, motiver chaque mesure prise avec les objectifs visés et de la donnée (publique) en support aiderait à ce que l’on n’ait pas l’impression que tout est fait en dépit du bon sens. (je ne parle pas de “perdre du temps” à produire du rapport pour la forme, mais bien de partager les supports qui servent actuellement à orienter la prise de décision).

    Je sais que ce que je vais dire fait très “technocrate”, mais à ce stade je serais beaucoup plus rassuré sur le niveau de maitrise du bousin si les politiciens se taisaient et étaient remplacés par des gens présentant les choses comme le font des ingénieurs.

    Le peu de rapports que j’ai vus circuler (réalisés par des universitaires avec des données en partie inférées, faute de mieux, et orientés politiquement, donc à prendre avec des grosses pincettes) a tendance à suggérer que pour tous les indicateurs (capacité de test, production de masque, capacité d’accueil en réa, capacité à isoler, etc.) la France est plutôt dans les pays les moins prêts (à stade épidémique égal), et ça me rend super dubitatif quant à la volonté du gouvernement de vouloir absolument annoncer un déconfinement super tôt.

    &nbsp;


Le 01/05/2020 à 16h 59







DanLo a écrit :



Je t’accorde que l’on pourrait se dire que l’avenir est bien inconnu et que potentiellement on pourrait retourner dans une situation assez saine pour que ça ait un intérêt (mais si c’est le cas, alors ça ne voudrait pas dire que le problème se résout… sans l’application ?)… mais… peut-on en toute franchise y croire ?





Heu, ben par exemple, après une période de confinement ? (si on décide qu’on déconfine seulement quand on est redescendu à un seuil de cas/jour gérable). La plupart des gens qui défendent le contact tracing, sous n’importe quelle forme, le font dans une optique où




  • on a confiné pour réduire suffisamment la présence du virus

  • on veut déconfiner en évitant que ça reparte

  • on a le reste du dispositif prêt (notamment les tests)



    Dans tout autre contexte, la question du contact tracing ne se pose même pas (et je pars du principe que ses défenseurs ne sont pas des idiots. charité intellectuelle, tout ça).&nbsp; Du coup dire “c’est trop tard y a trop cas”, c’est un non-sens.

    D’autant plus qu’à l’heure actuelle, vu le niveau d’impréparation et le niveau de nos connaissances réelles sur le virus et l’épidémie encore bas, je ne pense pas exagéré de penser que le risque pour qu’on doive reconfiner est réel. On peut même envisager un scenario où on se retrouve à déconfiner/reconfiner à plusieurs reprises sur une échelle de temps à mesurer en années.&nbsp; Les dernières estimations estiment peu probable que plus de 6% de la population ait été contaminée, et on n’est même pas sûr que ceux qui ont été contaminés sont immunisé.





    Cela rejoins d’autres remarques, que je trouve très pertinentes, sur le fait qu’il y a bien plus important sur quoi se focaliser pour résoudre le souci. Du genre + de moyens pour l’hôpital, des masques, du dépistage, une communication gouvernementale claire, l’isolation des personnes séropositives au Covid-19 etc…



    Personnellement je pense que quand des vies sont en jeu, on doit explorer toutes les pistes accessibles. Y a pas besoin de milliards d’euros pour étudier proprement la façon dont une appli peut aider au contact tracing ce qu’on peut garantir ou non, etc. Donc faisons le (l’étudier hein, pas déployer dans l’urgence une bouse pas finie), et on verra bien si ça mature avant que l’épidémie soit endiguée ou pas.

    Ne tombons pas dans le piège facile qui est de penser que “parce qu’on met des moyens à un endroit, ça revient à dépouiller un autre endroits de moyens”.&nbsp;

    En attendant, évidemment qu’il faut faire le reste.



    (note: mon opinion sur le sujet du déconfinement en général c’est qu’on ne devrait déconfiner globalement la population que si on peut garantir un niveau de risque minimal. Donc déjà, clairement, pas maintenant. Et plus tard, en utilisant tous les moyens qui peuvent démontrablement réduire la propagation épidémique. Evidemment, si l’on confine, on devrait également assurer un revenu de base. C’est le rôle d’un état que d’assurer l’utilisation des ressources commune pour le bien commun, même s’il l’a assurément oublié…)


Le 01/05/2020 à 14h 40







DanLo a écrit :



Du coup le fait que cet “expert”, qui a inventé le bluetooth commence déjà par dire que 90% de la population télécharge des applications de type réseaux sociaux… ahahah je ne vous fait pas un dessin !



[…]



Ceci dit, il reste très pertinent : c’est 10 fois trop tard pour espérer quoi que ce soit pour la pandémie actuelle. On ne peux que préparer l’élan pour la prochaine (s’il y a…).





Juste un point de forme argumentaire, “c’est 10 fois trop tard pour la pandémie actuelle”: à moins d’avoir la capacité à prédire combien de temps elle va durer (pour l’instant on a pas trop le cul sorti des ronces), cette affirmation est aussi fausse et non pertinente que la précédente.

(on n’a pas confirmation que l’exposition crée une immunité, on n’a pas confirmation que si immunité il y a, elle soit durable, on n’a pas confirmation que que l’épidémie soit sensible au changement de saison, on n’a pas confirmation que les mesures que l’on est prêts à appliquer soient suffisantes pour contenir, on ne sait pas si le virus ne va pas muter, on ne sait pas si/quand on n’aura un traitement ou un vaccin…)

&nbsp;

Donc en l’état actuel de ce qu’on sait, on doit continuer à explorer toutes les pistes, court, moyen et long terme, et surtout pas se dire qu’il est “trop tard” pour quoi que ce soit. Pour le peu de données qu’on a, on pourrait aussi bien y être encore dans 10 ans.


Le 01/05/2020 à 14h 08







Gats a écrit :



T’inquiète j’ai très bien compris ce que tu veux dire et c’est un ramassis de conneries.





Va falloir te réveiller, le gourvernement n’a rien prévu à part l’appli StopCovid. Tu penses bien qu’on en aurait entendu parler et tous les spécialistes ne se tireraient pas les cheveux devant autant d’incompétence, voire de malveillance ?



Merci de confirmer ce que je disais, tu ne lis pas, tu ne comprends pas, et tu réponds à côté. Tu m’as vu défendre le gouvernement quelque part? Surement pas. Tu m’as vu défendre StopCovid? Je précise presque à chaque post qu’il ne faut pas confondre contact tracing, contact tracing numérique, et une appli en particulier, et que StopCovid, c’est non.

En fait tu m’inventes des intentions qui existent juste dans ta tête, et tu rages contre.





Tu vis où depuis quelques semaines ? Tu crois sincèrement qu’il faut reprendre toutes les démonstrations à la base à chaque arguments ? Tu penses sincèrement que l’appli StopCovid est capable de voir qui porte un masque ou pas et qui applique ou pas les gestes barrières ? était-ce un contact à risque ? j’ai pas mon téléphone sur moi, il est à la maison ? le voison derrière un mur, la caissière avec son masque et la vitre en plexiglass ?

À ce rythme il faudrait te refaire la démonstration que 2+2=4 à chaque argument.

&nbsp;

Là pareil toujours le même problème.&nbsp;

Je te dis clairement que

UNE application d’aide au contact tracing numérique

SI on veut déconfiner en réduisant le risque au plus bas

SI elle est faite correctement

SI elle est COMPLEMENTEE PAR UN DISPOSITIF COMPLET

et PAS tout de suite maintenant, vu que c’est clairement pas prêt

et PAS StopCovid

ALORS je suis pour



(c’est clair là, ou même en le faisant simplifié c’est trop fatigant pour toi ? Pas trop de problème avec le sens du mot “SI” j’espère ?)&nbsp;



L’application ne doit pas être vue comme la solution, mais comme un complément pour augmenter les chances de détecter précocement plus de cas. (et, oui, en faisant des faux positifs, c’est inévitable. Et en manquant des contacts, c’est inévitable aussi. D’où le “complémentaire”… Cherche le mot dans le dico si tu piges pas ce que ça veut dire hein… Et il faut que plus de 60% des gens qui sortent s’en servent. ‘fin tout ça je l’ai écrit dans les messages précédents en fait, tu réponds juste sans piger, comme un bon troll)

&nbsp;



Tu t’enfonces dans la connerie. Tu me ressors tous les arguments typiques du techno-béat adepte des logiciels magiques. Tiens c’est bizarre, c’est justement le titre de l’article. #jdcjdr

&nbsp;

Encore une fois, j’inscris UNE application, en conditionnant son usage à l’existence un fucking DISPOSITIF COMPLET (et sans dire nulle part que je crois que ce dispositif existe à l’heure actuelle. C’est un autre truc qui était écrit dès mon premier message, PAS LE 11 MAI, ON EST PAS PRETS), en disant que c’est COMPLEMENTAIRE du reste qui DOIT exister et tu réponds “adepte des logiciels magiques”.

Encore une preuve que tu trolles juste sans rien bitter, et que tu préfères inventer dans la tête des autres des trucs qu’ils ne pensent pas que reconnaître&nbsp; juste que tu ne les as pas compris.&nbsp;





Dès l’instant qu’il y a eu contacts multiples à risque pendant plus de 10 jours, de toute façon appli ou pas c’est niqué. Il faut passer au stade supérieur, n’importe qui dans les environs est susceptible d’avoir été contaminé. Tu veux quand même pas que je te refasse une définition de ce qu’est qu’une exponentielle ?



Bon, ben là c’est définitif hein, tu gagnes la palme GPAKOMPRI, félicitations.

Je te dis que la croissance exponentielle c’est tellement violent qu’il faut combiner le plus de solutions différentes possibles (y compris donc un contact tracing numérique, combiné of course à des tests massifs, et pas des tests “uniquement chez les personnes symptomatiques” comme le disent les mous du bulbes qui nous gouvernent, vu que les personnes contaminées sont contagieuses plusieurs jours en stade pré-symptomatique…) pour minimiser le risque. Parce que contre une exponentielle, il faut aller VITE.



Et tu me réponds avec mon argument du coup… Donc là oui, je suis d’accord, contacts multiples à risque pendant 10 jours c’est baisé.&nbsp; Et donc comment on déconfine en évitant ça?

Ben soit on déconfine pas, soit en déconfine en faisant des tests massifs (pour détecter les contaminations avant qu’elles soient symptomatiques), et en faisant du contact tracing pour pouvoir tester encore plus tôt les personnes qui ont été en contact avec le testé positif… Parce que sinon on perd contre l’exponentielle. CQFD…

(c’est pas plutôt toi qui aurait besoin d’un cours sur les exponentielles, les probabilités et la notion de risque plutôt…)



Et je redis pour être sûr d’être bien clair, tout ça c’est SI ON VEUT MINIMISER LE RISQUE TOUT EN DECONFINANT. On peut très bien tenter de déconfiner sans. (bah d’ailleurs c’est ce qui va se faire), et parier que compter juste sur les masques et les gestes barrière et le peu de tests qu’on a, ce sera assez. Peut-être que ce sera le cas, on peut toujours avoir du bol… (et of course j’espère que ce sera le cas). Mais c’est prendre plus de risques. (c’est déjà une prise de risque absurde qui nous a mis dans la merde en premier lieu.)

&nbsp;

&nbsp;Perso, avec des vies humaines en jeu, mon opinion c’est qu’il faut viser le risque minimum (qui serait ici, en plus de toutes les mesures déjà exposées, de ne déconfiner que pour l’essentiel, tout en fournissant à tous de quoi assurer leurs besoins de base plutôt que de vouloir absolument faire bosser les gens, et en réorientant les moyens de production vers la lutte contre le virus pour améliorer au max la préparation en vue d’un déconfinement bien plus tardif)



Et du coup, toi dont la seule contribution à la discussion jusque là c’est de critiquer ce que tu penses avoir compris des positions des autres tout en les insultant et en prenant un ton supérieur, à part “stopcovid cétropouri” (ce avec quoi on est d’accord donc, même si tu sembles pas l’intégrer), tu avais vraiment une opinion éclairée à exposer, ou juste tu trolles pour passer le temps ?



&nbsp;Parce que pour l’instant, c’est comme dit l’adage, j’ai l’impression d’être en train de communiquer avec un pigeon. Tu ne comprends rien à ce que je dis, tu chies sur la discussion en répondant complètement à côté et en garnissant le tout d’insultes, et tu te pavanes en ayant d’avoir l’impression d’avoir “gagné”. (alors qu’à part étaler ta rage et ton incapacité à comprendre un point de vue…)

&nbsp;


Le 29/04/2020 à 13h 00







Gats a écrit :



Toi t’as encore rien compris. Augmenter le nombre de faux-positifs et de faux-négatifs n’a jamais été une solution. Des informations sérieuses sont nécessaires, et pour ça il ne faut surtout pas confier le traitement à des algorithmes stupides. Et encore moins dans la précipitation.



https://www.liberation.fr/debats/2020/04/26/pour-faire-la-guerre-au-virus-armons…





Et avant de dire aux autres qu’ils n’ont “rien compris”, tu as envisagé de toi-même comprendre ce qu’ils disent ?

&nbsp;




  • j’ai dit explicitement que j’étais pour une application de tracing numérique, à condition qu’elle soit finalisée proprement, et PAS stopCovid pourri dans l’urgence.&nbsp;

  • j’ai également dit explicitement que j’étais pour le contact tracing en général, et pour un set complet de mesures.

  • ta source dit qu’il faut voir le contact tracing au delà d’une appli qui focus les rencontres, et former des gens pour être en mesure d’enquêter, notamment parce que les lieux de contamination sont importants, et pas seulement les contacts. (à cause de la transmission potentielle par surface notamment). Je suis bien évidemment 100% d’accord avec ça, ça rentre dans un plan de contact tracing global, en particulier si on refuse une appli avec géoloc, alors il va effectivement falloir se reposer sur des témoignages fiables.



    Ta source et moi sommes donc d’accord. L’appli devrait être une des mesures d’un plan de contact tracing plus global, et ne devrait pas mobiliser toute l’attention. En particulier, on devrait bosser sur le reste et ne pas tout arrêter en attendant l’appli. (Après, ta source ne dit pas que rien n’est fait dans ce domaine)

    D’ailleurs hein, je cite: «Si on n’a pas cette brigade, une app numérique ne marchera pas.»



    En fait il n’y a que toi qui fait une interprétation du texte que tu donnes en lien comme “une appli ça va forcément augmenter le nombre de faux-positifs&nbsp; /&nbsp; faux-négatifs” (l’article n’en parle même pas).

    Déjà, le risque est sur les faux positifs (les faux négatifs, il faut les avoir testés et que le test se foire, et ça n’a pas à voir avec l’appli)

    Ensuite, avec de bons heuristiques, l’appli te sert de préfiltre ultra-rapide. Y a forcément des faux-positifs, (duh…) vu qu’on prévient toutes les personnes ayant été en contact. Pour qu’elles puissent se faire tester. C’est le principe en fait. Alors qu’avec juste une enquête, aussi minutieuse soit-elle, tu te limites à ce qui est dans la mémoire des gens. Et si la personne se souvient qu’elle est passée par un lieu public, et ben t’es bien couillé pour retrouver ne serait-ce que les gens qui ont croisé ton malade dans ce lieu public et les avertir de façon ciblée en moins de 24h pour qu’elles n’aient pas le temps de trop prolonger la chaine de contamination…

    Or pour rappel hein, si une personne en contamine plus d’une autre, c’est un début de pic épidémique…&nbsp;

    Note aussi que les gens que les enquêteurs vont prévenir, ce sera aussi majoritairement des faux positifs. (heureusement qu’il suffit pas de croiser quelqu’un pour lui refiler la covid, on serait bien dans la mouise sinon). Juste l’appli n’aura qu’une partie de l’info (proximité), et les enquêteurs une autre (plus large notion des lieux, éventuelle liste de gens non équipé d’appli). On est dans la complémentarité, pas l’opposition.



    Alors, évidemment, c’est plus simple de dire aux gens “vous n’avez pas compris” et de filer un lien qu’on a survolé, plutôt que de se fatiguer à comprendre à la fois leurs propos et le contenu du lien qu’on poste… Les adeptes du tl;dr et des raisonnements à la va-vite sont la plaie des discussions sur des sujets complexes.

    &nbsp;&nbsp;


Le 29/04/2020 à 11h 32







Norde a écrit :



C’est faux : une application de tracing ne sera pas plus utile maintenant que dans le futur.

Elle n’aiderai en rien à prévenir l’apparition d’épidémies, et ne limitera pas sa propagation mondiale voir même pas nationale.



Le problème de base c’est l’élevage industriel et le bouleversement des écosystèmes combinés avec une diffusion mondiale extrêmement rapide des marchandises.

Vouloir traiter un symptôme par ce qui n’est ni plus ni moins qu’un bracelet électronique est criminel et inefficace.



Qu’adviendra t’il si ce système est généralisé ?

Les contaminés et leur proches seront assignés à domicile, quid des dédommagements, de leur profession et des besoins essentiels ? Et à quoi cela servirait si la réponse n’est pas parfaite à l’échelle de la planète ? On serait en permanence en train de porter des bracelet de flicage ?



Non, c’est tout sauf une solution.







Repenser l’élevage hyperdense et appauvris génétiquement, repenser la destruction de l’écosystème, repenser l’éducation de la population aux gestes barrières, repenser la prise en charge médicale, repenser la recherche.

Ça c’est une réponse.

&nbsp;



On a pas stoppé la tuberculose en fliquant les malades mais en éduquant la population à ne plus cracher par terre.





La réponse n’est pas parfaite, donc ne considérons pas les calculs qui disent que ça peut sauver des vies si ça s’inscrit dans un bon dispositif, et puis continuons à assigner tout le monde à résidence plutôt que juste les personnes contaminées jusqu’à ce qu’on ait un hypothétique traitement/vaccin, qu’on ait “éduqué” tout le monde, ou qu’on ait entièrement réformé le système de soin…

&nbsp;

Bien sûr qu’il faudrait repenser notre économie et notre politique environnementale et sociale, mais ça ça n’a pas à voir avec la choucroute des actions à réaliser à court et moyen terme pour contenir une épidémie une fois déclarée.



Encore une fois, dans ce que j’ai écrit à la base, il y a des hypothèses qui sont posées, notamment un objectif de déconfiner au plus rapide et au moins risqué vis à vis d’une nouvelle flambée. (soit: contact tracing efficace + tests de masse + déconfinement progressif + infrastructures et conditions de quatorzaine qui permettent l’isolement + toutes les mesures de distanciation, désinfection, usage de masque). Chaque mesure retirée, c’est une augmentation du risque. (un risque qui se traduit potentiellement en nombre de morts).

Personnellement, et je n’oblige personne à partager cet avis, je trouve l’échange entre risque de morts et risque de mésusage de la technologie acceptable.

&nbsp;

Si on change les hypothèse de base et les compromis qu’on considère comme acceptables, évidemment on change les conclusions avec. Si pour toi le risque de mésusage de la technologie est trop important pour que tu considères le compromis comme acceptable, et bien nos opinions (qui pour le coup sont des opinions et non des faits, c’est un % de risque hypothétique vs un autre % de risque hypothétique), et bien soit, nos opinions ne sont pas conciliables sur ce point là.



ça n’empêche pas par ailleurs que l’on soit d’accord sur des mesures nécessaires à plus long terme, mais ce n’était pas le sujet de mon post.

&nbsp;


Le 29/04/2020 à 10h 52

Tu as raison, sorry. J’ai tapé ça vite fait sur un téléphone et j’ai posté dans la foulée. J’aurais mieux fait d’attendre de repasser sur un PC pour formatter ^^”

Le 27/04/2020 à 18h 24







Norde a écrit :



Oui, mais une application de tracing serait inutile et dangereuse.



Quand tu as mal à l’orteil tu ne décide pas de l’asperger de javel, si ?

Ça ne sert à rien et tu risque des brulures chimiques.





Comme l’explique mon pavé que tu cites, l’application de tracing est inutile maintenant, parce qu’on est pas prêt du tout à en utiliser une efficacement, et que le protocole n’est pas au point anyway. Elle n’est pas du tout inutile dans l’absolu.

Je voudrais juste qu’on arrête de faire des amalgames à la con entre le contact tracing en général, le contact tracing numérique en général, le contexte d’usage efficace de ce type de solution, et le cas particulier du gouvernement français en roue libre qui fait du n’imp’.

&nbsp;

Est-ce qu’on doit développer une solution de contact tracing, tout en augmentant notre capacité et logistique de tests pour viser une sortie de déconfinement qui minimise le risque de flambée épidémique? Oui

&nbsp;

Est-ce qu’on doit sortir et utiliser StopCovid le 11 mai? Hell no.&nbsp;&nbsp;

&nbsp;


Le 27/04/2020 à 18h 14







DanLo a écrit :



Le raisonnement était correct à ceci près de la dernière phrase (en gras), qui sort de nulle part, et du biais de fausse alternative (ou plutôt de non-alternative).





Mon postulat était “ il faut détecter, remonter les

chaines de transmission, isoler.” Dedans il y a bien “remonter les chaines de transmission” et c’est cette prémisse “remonter les chaines de transmission” qui entraine logiquement la conclusion que le contact tracing est nécessaire pour faire cela de façon efficace. ça ne sort absolument pas “de nulle part”. Le fait est que c’est déjà ce qu’on fait, quand on teste quelqu’un on tente de remonter la chaine, en faisant dire à la personne par où elle est passée, qui elle a rencontré, pour prévenir.

Sauf que de façon non automatisée, c’est lent, et la mémoire des gens, c’est pas le truc le plus fiable qu’on puisse imaginer… Or la maladie étant très contagieuse, et notamment en phase pré-symptomatique, si les personnes détectées ont le temps d’allonger la chaine, c’est mort.

Une croissance exponentielle, ça ne s’endigue malheureusement pas avec du bon vouloir, il faut absolument empêcher que toute personne infectée puisse en moyenne en contaminer plus d’une autre, sinon, c’est une flambée.

Si on ne veut s’en sortir qu’avec des tests, sans tracking, sachant que les résultats des tests ne sont pas instantanés, alors il faut confiner tout le monde, tester pour relâcher, et retester toute la population très régulièrement. Même pas sûr que ça suffise, et ça contredit un autre de mes postulats, qui était “si on vise un déconfinement au plus tôt”. En évacuant cette condition, on peut explorer d’autres pistes (et il faut y penser), mais ce sont d’autres tradeoffs. (et pas certain que ça se tienne en termes de maths.&nbsp; ).

En plus, j’ai lu “le marteau et la danse”, et le texte ne dit pas du tout “il est possible de déconfiner sans contact tracing”. Il dit “il faut évaluer pour chaque mesure la difficulté, le coût, et l’efficacité, implémenter en priorité le meilleur compromis, et continuer à implémenter le reste de la liste qu’on a faite tant qu’on en fait pas assez pour que le taux de reproduction du virus reste en dessous de 1”. Le tout en mettant des tableaux exemples (en disant qu’il faut des ROI pour mettre des vraies data en ce qui concerne les tradeoffs, et que le calcul de ces ROI doit être la priorité), qui mentionnent bien le contact tracing dans les solutions potentielles.

&nbsp;Il faut éviter de faire dire au sources ce qu’elles ne disent pas…

Et moi je n’ai pas dit que l’application, c’était trop tard pour cette crise. J’ai dit que l’application, elle n’était pas prête là, tout de suite, maintenant (aucune mesure d’ailleurs…), et que le déconfinement au 11 mai, dans tous les cas ça pue l’ânerie. En s’y mettant sérieusement par contre, il paraît plus probable d’être en mesure de mettre en place un système tests+applis+isolation bien avant d’être capables de produire assez de tests à la journée pour endiguer l’épidémie avec.


Le 27/04/2020 à 11h 46

Hum, déjà, pour tous ceux qui disent “on aurait dû… blabla”. Oui. Vous avez raison. On aurait dû. Malheureusement, la préparation en amont n’a pas été faite. Maintenant il faut faire avec le monde tel qu’il est, pas tel qu’il aurait dû être.

Maintenant, est-ce qu’on veut sortir du confinement au plus vite (dans la mesure du possible et du safe, pas nécessairement “au 11 mai” que les politiques ont sorti de leur postérieur), ou est-ce qu’on veut rester confinés jusqu’à ce qu’il y ait un traitement miracle/vaccin?

Si la réponse est “on veut pouvoir déconfiner avant le vaccin/la disparition spontanée de l’épidémie”, et s’il s’avère que les beaux jours n’ont pas le même effet atténuant sur la covid que sur la grippe, alors on doit mettre en place une solution qui empêche une flambée épidémique. (ou se dire qu’on s’en fiche et laisser mourir les gens. Mais personnellement je ne retiens pas cette hypothèse)

Et pour ça on n’a pas 36 solutions: il faut détecter, remonter les chaines de transmission, isoler. Donc faire du contact tracing. Et à cause de la contagiosité précoce et élevée de sars-cov-2, il faut automatiser le contact tracing, parce que si on doit attendre 2 à 4 jours pour prévenir les infectés potentiels, c’est déjà trop tard.

Maintenant pour que ça marche, il faut pouvoir tester on demand (on y est pas), et il faut pouvoir mettre les testés positifs à l’isolement dans de bonnes conditions (on y est pas non plus). Il faut aussi que plus de 60% (plus proche de 80 idéalement) des personnes déconfinées jouent le jeu.

Est-ce que c’est du “solutionnisme technologique” ? Non. Il ne faut pas confondre la méthode globale et l’outil applicatif en lui-même déjà. Sans le reste du dispositif, l’outil est useless.

Et il ne faut pas d’un outil sorti à la va-vite, puisqu’il y a une tonne de soucis potentiels à résoudre, notamment pour éviter les faux positifs en masse (par un manque de fiabilité ou par une attaque de type poisonning).

Vers où penche la balance bénéfice/risque ? (Attention ! Un risque se mesure en prenant en compte les dangers potentiels et la probabilité que ces dangers se déclarent. Le risque que l’application soit détournée de son usage n’est pas 100% juste parce que ce serait possible de le faire…). D’un côté on a un hypothétique usage malveillant, de l’autre côté on a des dizaines de milliers de morts si l’épidémie repart et qu’on ne peut pas tester/isoler assez vite. Je ne veux pas minimiser la capacité de nuisance de nos états, mais vu le risque sanitaire, perso je préfère le contact tracing. (commentaire qui vaut en l’état actuel des connaissances sur le sujet)

Ceci dit, le contact tracing à la va-vite via StopCovid pas finie, dès le 11 mai, et sans dispositif tewter/isoler adapté, ça je suis contre. C’est le meilleur moyen pour que ça ne fonctionne pas, et qu’on se condamne à ne plus pouvoir faire une version efficace parce que la version ratée aura définitivement sapé la confiance.