Formidable le site de ces crevards: tu n’as pas le choix que d’accepter les cookies.
J’ai cherché par curiosité, en fait il faut cliquer sur “plus d’informations” dans le bandeau, puis scroller très bas dans leur section “protection des données à caractère personnel” et on finit par tomber sur un bouton “s’opposer au dépôt de cookies” … Un mode opt-out compliqué au lieu d’un opt-in, ça mériterait un signalement CNIL.
Ça dépend quel cookie. Pour les cookies “obligatoires” non soumis au consentement (suivi de session, cookie qui sert à savoir où en sont les consentements, etc), ils peuvent de toute façon être déposés. En revanche, les cookies soumis à acceptation ne doivent pas être déposés avant que le consentement soit donné pour leur catégorie. (le modèle est opt-in, pas opt-out)
Le fait est que les règles du RGPD sont connues de tous depuis 2012-2016. Les règles n’ont pas bougé d’un iota. (j’ai eu mon “rappel” de formation exactement identique à l’initial). Ça fait 5ans que c’est obligatoire, et tous les sites trainent des pieds. Je comprends ta position, mais la situation actuelle est d’abord le pb des sites finaux qui ont tous attendu le dernier moment pour commencer à s’y intéresser. (certains attendent toujours) Si tous les clients (càd détenteur de site web) avaient migrés dés le début les intermédiaires (CMS, régies pubs se seraient soit adaptés, soit auraient coulé faute de clients). Les clients ne jouent pas le jeu, les intermédiaires n’ont aucun intérêt à investir si il n’y’a pas de demande.
En 5ans tu as largement le temps de réécrire n’importe quel site web, y compris les pires daubes à base de CMS et autre *aaS
Désolé, mais je pense que tu n’as pas bien lu les cas que je décris, ou que tu es trop loin du terrain d’une grosse plateforme technique web ou d’un service juridique pour te rendre compte de ce que ça représente au quotidien.
Déjà pour commencer, nous ne sommes pas concerné que par le RGPD, mais par toutes les réglementations cumulées de tous les pays relatives aux cookies, traceurs, etc.
Ensuite, je ne parle pas des bases du RGPD (identifier une donnée personnelle, registre de traitements, obligation de consentement retrait, etc) sur lesquelles on donne des formations génériques en entreprise et qui sont effectivement bateau comme c’est pas permis. Comme j’en ai déjà donné des exemples, il y a plein de cas qui sont des “zones grises”, notamment quand on parle de catégoriser des choses et apporter des preuves (notamment dès qu’on commence à parler d’ “intérêt légitime”). Des choses qu’on ne rencontre que sur le terrain dans les détails d’implémentation techniques, et qui sont systématiquement du cas par cas. Tu te doutes bien que si nos équipes de juristes, dont c’est le métier, n’arrivent pas à trancher facilement les cas qui se présentent, c’est que l’impression de clarté et de simplicité que tu te fais est largement faussée par ta perspective. Et plein de choses ont déjà changé depuis 2016, avec les interprétations locales du RGPD (je rappelle que le droit européen ne s’applique pas tel quel dans les états membres, les directives sont transposées, et donc interprétées.), les clarifications qui ont déjà été émises et le début de jurisprudence.
Point suivant, comme je le dit là aussi dans mon message précédent, la mise en conformité, c’est une chose, le maintient de la conformité, c’en est une autre. Ma boîte fait partie de celles qui ont joué le jeu, quand le RGPD a été officiellement activé en mode “hard”, tout était conforme. (de toute façon on aurait mis offline tout ce qui ne l’aurait pas été. Pour le coup les sanctions sont assez dissuasives pour ça) Et ta vision de “si tous les clients avaient migré, les intermédiaires auraient suivi” est pour moi assez révélatrice du fait que tu n’as aucune idée du fonctionnement des rapports de force entre gros acteurs dans la vie réelle ^^” Ce n’est pas faux dans l’absolu, mais c’est totalement infaisable. C’est comme de dire “ben si tout le monde arrêtait de travailler, le patron serait bien obligé de céder aux exigences des employés”: je pense que tu peux voir qui si c’est effectivement vrai en théorie, en pratique les rapports de force font que les grèves qui aboutissent ne sont pas légion. (et que beaucoup ne démarrent même pas) Et que certains employés ne peuvent pas se permettre de faire grève, parce que sinon ils ne bouffent pas, ou ils arrêtent de fournir un travail duquel d’autres personnes sont dépendantes. Le monde réel, ce n’est pas “yaka faukon”.
En 5ans tu as largement le temps de réécrire n’importe quel site web, y compris les pires daubes à base de CMS et autre *aaS Cette phrase semble indiquer que tu n’as jamais bossé sur de grosses plateformes en constante évolution, avec des bibliothèques partagées, qui hébergent de nombreux sites avec des centaines d’intervenants, et qui fournissent des services nécessaires à l’entreprise, qui doivent rester up tout le temps, et pas juste des contenus à lire… Non, tu ne peux clairement pas réécrire n’importe quel site web en 5 ans. :) ( en tout cas pas en assurant que tout reste up et isofonctionnel en permanence, et pas sans faire exploser tes coûts en démultipliant tes équipes… bref pas en vivant dans le monde réel de l’entreprise)
Vu que la loi FR est claire sur le sujet depuis plus de 10⁄15 ans maintenant, tout le monde a quand même eu un sacré moment pour s’organiser, non ?
Pour le coup, je te trouve super catégorique, à la fois sur le fait que ce serait “clair”, et que “s’organiser” serait une question de temps.
Déjà sur la clarté, chaque pays, en plus de devoir combiner le RGPD à son droit national, va faire ses propres interprétations. (qu’est-ce qui représente un “intérêt légitime” par ex ? ) Il y a des tonnes de cas particuliers, et encore peu de jurisprudence. Cette couche RGPD n’est venue s’ajouter au reste qu’en 2016, ça ne fait pas plus de 10⁄15 ans. (d’autres lois préexistent, mais elles n’ont pas du tout eu l’impact du RGPD. De plus, le montant potentiel des amendes a fait monter fissa la priorité de cette conformité là dans les services)
Ensuite, il ne faut pas seulement se mettre en conformité, il faut le faire à l’échelle, et surtout s’assurer d’y rester, ce qui est bien plus compliqué. Mon équipe s’occupe du “core” pour une plateforme interne utilisée sur près de 200 sites, dans plus d’une quarantaine de pays qui ont chacun leur droit national. Des développeurs d’une dizaine d’entreprises autour du globe contribuent du code H24. Comme il s’agit de ecommerce, les sites sont opérés, via back office, par des équipes “marketing digital”: des gens qui n’ont pas de compétences techniques, chez qui c’est en permanence la valse des stagiaires, et qui sont démarchés en continu par des startups qui essaient de leur refiler des scripts en leur promettant que ça rajoutera des features sans passer par les équipes de dev, que ça boostera leur SEO/rétention/conversion/capacité d’analyses/etc, et in fine leur évolution de carrière. On a beau avoir des auditeurs, des juristes et des responsables sécurité, des processus de revues et d’approbations, des scans automatiques, des formations… ça reste le boxon. Et on aurait 20 ans de plus devant nous que ce serait la même chose.
les différents acteurs de la chaîne ont une co-responsabilité s’il y a pistage non consenti. En cas de contrôle, tous peuvent être impliqués.
Je prends l’exemple d’un truc simple qu’on voit partout: les embed youtube. Et bien même si Youtube fournit un domaine “no-cookie”, nulle part dans la doc n’est donnée la garantie que ce dernier soit compliant avec toutes les régulations sur la vie privée (il ne l’est d’ailleurs probablement pas, il y a dépôt de cookies et d’éléments dans le local storage du nav, sans explication de ce que c’est). Youtube dit juste que sur ce domaine, l’embed ne fournit pas de contenu personnalisé. Mais pas qu’aucune donnée n’est collectée. Et Youtube ne fournit pas de ToS qu’il faudrait accepter avant que l’embed se load. Sur le site même de la CNIL, qui contient des embed Youtube, il y a eu des développements spécifiques pour gérer le cas. (la CNIL met à la place de chaque vidéo son propre placeholder pour prévenir à la place de youtube que l’embed contient des traceurs) ex: https://www.cnil.fr/atom/18912 Sauf que voilà, moi un embed youtube, je me méfie d’office. Mais l’assistant marketing qui fait sa page de contenu quotidienne ? Ben il copie-colle le code que lui file la page youtube. Qui ne lui fournit aucune info sur un éventuel souci. Et n’est même pas fichu de mettre son propre encart de consentement en préalable à l’embed…
Dernier sujet en date encore en cours de traitement dans mon équipe:
un auditeur (contexte: droit français) nous remonte qu’un script, loadé sans consentement préalable, est un traceur
comment il sait que c’est un traceur ? “c’est ghostery qui le flag”
comment ghostery pense savoir que c’est un traceur ? Le domaine qui héberge le script appartient à une entreprise qui fait, entre autres choses, du targeting.
mais que fait ce script en particulier ? est-ce vraiment un traceur ? Et ben difficile à dire, parce qu’évidemment , il est assez massif, et minifié. Et aussi, pas dans notre code source…
d’où vient-il ? il est injecté par le logiciel en SaaS qui nous sert de fondation, et ne fait pas partie des éléments customizables
balle dans le camp de l’éditeur. Qu’est-ce que c’est que ce script ? Comment on le désactive ? On nous répond que c’est une bibliothèque qui sert à plusieurs fonctionalités. Que ça ne collecte pas de données. Qu’ils peuvent nous faire une version sans, mais pas le conditionner à un consentement en l’état actuel. Et que la version sans sera amputée de quelques features qui se basent dessus.
A partir de là, que faire ? L’éditeur assure que le script ne fait pas de tracking, mais est-ce que sa déclaration a valeur de preuve vs les listes de ghostery ? Qu’est-ce qui pourrait, dans ce contexte avoir valeur de preuve de conformité ? Une déclaration d’un auditeur mandaté ? Rien du tout ? Et bien on en sait rien, on a tout fait désactiver, et on attend que les juristes finissent par se mettre d’accord pendant que le business râle parce qu’il n’a plus sa fonctionnalité. Si la loi était vraiment claire, elle permettrait de résoudre ce genre de cas sans même avoir à réfléchir. Si nos juristes, dont c’est le boulot, sont à la peine, c’est qu’on n’y est pas. ^^”
C’est déjà le cas. A part pour les cookies/scripts catégorisés comme “nécessaires”, (par ex ceux qui servent à indiquer au serveur quels consentement ont été donné ou pas, à maintenir la session ou à supporter des fonctionnalités sans lesquelles un site ne peut pas fournir le service qu’il est censé offrir), la loi interdit de déposer quoi que ce soit tant que l’utilisateur n’a pas consenti. (et interdit de cocher les cases par défaut, il faut que l’utilisateur fasse le geste de cocher les cases individuellement par type de consentement avant de valider).
C’est ce qui rend la mise en conformité des sites existants compliquée. Beaucoup de modules, notamment sur les CMS, se contentaient d’ajouter au code source de la page html un script fourni par un tiers, et fin de l’histoire. De nombreux webmestres, qui ne sont pas développeurs, ne savent pas faire autrement. (et ne savent pas non plus ce que les scripts qu’ils ajoutent peuvent bien faire pour fournir leur fonctionnalité)
Ce que font les boîtes qui proposent les bandeaux/popins relatifs aux cookies, c’est fournir un crawler: il interagit avec ton site web, il repère tous les cookies (qu’ils proviennent du site lui même ou qu’ils soient tiers), il te les classes dans les différentes catégories à partir de bases de données sur les différents acteurs, tu peux bouger des trucs via une interface d’admin si tu sais qu’ils ont été mal classifiés, puis tu valides et il te fournit le script qui gère la popin avec toutes ses infos dedans. Pouf, c’est magique, tu as ton outil de collecte du consentement.
Sauf qu’en vrai, la popin, elle n’est pas magique, elle va juste stocker (dans son propre cookie ou dans un store distant interrogeable par API), la liste des consentement que l’utilisateur a donné ou non, mais elle ne bloque pas le dépôt des cookies concernés. Donc elle ne te met pas en conformité. En fait elle fait la partie simple du boulot… Si tu n’as pas derrière un ou des développeurs pour aller analyser d’où vient chaque cookie et ajouter du code qui vérifie le consentement avant d’activer ou non les différents éléments, tu n’es pas conforme. Une vraie usine à gaz. :/
Surtout que tu peux par ex inclure dans ton site une ressource tierce qui elle-même inclut d’autres ressources tierces, mais pas tout le temps les mêmes (c’est typiquement le cas des régies pub). Sauf que bah, c’est le site principal qui est censé recueillir le consentement de ses “partenaires”, du coup les prestataires de pub ne s’embêtent pas, ils fournissent d’énormes listes à intégrer aux popins, et il faut se débrouiller avec ça. C’est un peu la grosse arnaque de l’application du règlement, toute la mise en conformité technique repose sur sur l’opérateur final, qui bien souvent ne tracke rien, au lieu de reposer sur les intermédiaires qui siphonnent la donnée. Eux n’ont rien à faire à part fournir des listes des cookies qu’ils posent…
Bref, sorry pour le pavé, la gestion de la conformité RGPD de différentes plateformes web fait partie de mon quotidien, et c’est source de nombreuses prises de têtes ^^”
À ne pas parler du même sujet, ça risque de finir en “dialogue de sourds” ! Je parle de risque d’indisponibilité, tu parles de risque financier.
Cette dernière manière de penser est tout le nœud du problème : tant qu’il n’y a pas de risque financier, briser la disponibilité n’est pas un problème… et on s’est donc retrouvés avec un grand nombre de grosse plateformes indisponibles. Pour ceux que ça ne choque pas, c’est qu’ils participent à ce second logiciel.
Une n-ème preuve, s’il en fallait, que :
l’utilisateur n’est pas roi, l’argent si (souvenez-vous en quand vous entendrez des discours qui semblent sous-entendre que l’utilisateur est le cœur des priorités)
les grosses structures ne sont pas des modèles
Évidemment je parle de risque financier, parce qu’on parle de plateformes commerciales.
Elles ont été indisponibles 1h, ce qui est largement dans les marges de tolérances. Améliorer la disponibilité, ce n’est pas une opération linéaire en termes de coûts, c’est une exponentielle, les derniers pouillèmes de pourcent à eux seuls sont plus chers que quasiment l’ensemble de la couverture précédente.
Je travaille dans une très grosse boîte et j’opère un grand nombre de sites e-commerce. Nous avons un contrat avec un seul CDN, et un prestataire cloud pour l’infra. Évidemment tout est backupé dans plusieurs data centers (et tous les sites ne tournent pas dans le même) et nous avons une procédure, testée, qui nous permet de tout remonter si ça plante. Mais ce remontage se fait forcément “à froid”, on a donc un incompressible de 1 à quelques heures pour retrouver une activité dans le cas où un datacenter aurait sauté. Le seul moyen pour battre ce gap de dispo, ce serait de pouvoir remonter “à chaud”, et donc d’avoir un full miroir toujours up, dimensionné pour encaisser le pic de transition de tout le traffic si nécessaire. Ça reviendrait à augmenter nos coûts d’infra d’un bon 50%, juste pour gagner 1h ou 2 dans le rare cas où on aurait un datacenter qui chute. (c’est arrivé une fois en 7 ans) Pour des sites de vente en ligne.
J’ai vraiment besoin d’expliquer en quoi ce serait absurde de mettre une telle débauche de moyens (ça cuberait en millions d’euros) pour un gain de dispo aussi ridicule ? (1h de dispo gagnée sur 7 ans…)
Un bon modèle de risque est un modèle qui reste réaliste par rapport à la criticité des services considérés. Est-ce flouer mes utilisateurs de m’autoriser la possibilité d’un downtime ? Je ne pense pas.
Évidemment, si j’opérais l’infra du réseau électrique, des services hospitaliers ou des numéros d’urgence (hem…), le modèle de risque serait entièrement différent.
A mon sens la position que tu sembles défendre comme quoi tout service quel que soit sa nature devrait à ses utilisateurs une dispo 100% à tout prix n’a pas de sens, ce serait juste un gaspillage de ressources monstrueux. Pour une plateforme commerciale non-essentielle, il est tout à fait normal d’intégrer le risque de dispo dans le cadre financier. Pour un service essentiel, la disponibilité devrait primer, mais ici ce n’est pas le contexte.
EDIT : par ailleurs, je n’arrive toujours pas à comprendre quelles sont exactement les données personnelles à risque. Mon nom et mon prénom, je suis bien obligé de les exposer ne serait-ce que sur Linkedin. Ma date de naissance, plus ou moins pareil (je la donne jamais si pas vraiment nécessaire, mais au moins sur les sites de CV et sites officiels ça me paraît compliqué de spécifier un truc faux).
Reste le numéro de sécurité sociale s’il est inclus, mais j’ai cru comprendre que non.
Et le fait qu’on a été vacciné… Oui c’est une donnée personnelle, oui c’est une donnée médicale. Mais je ne vois pas en quoi connaître ça peut permettre de connaître quoi que ce soit d’autre sur mon “profil”, et c’est un peu la donnée essentielle du dispositif donc…
Bref, je comprends qu’on critique sur le principe de non-confidentialité (au moins pour marquer le coup en prévision d’applis futures), mais en l’état concrètement que risque-t-on ???
Pour nom / prénom / date de naissance, ce n’est pas tant le fait de les exposer que le contexte qui va avec. La personne qui va scanner ton QR code obtient ces infos avec en complément le lieu où tu te trouves quand tu scannes et la date. (en gros la même chose que si tu scannais un titre de transport nominatif, un billet d’entrée pour un spectacle ou une carte de fidélité, sauf que là tu n’as pas consenti à un usage de la donnée) Comme toute l’info se trouve dans le QR (pour rappel, le pb ce n’est pas l’appli, c’est le fait que les infos soient en clair dans le QR, l’attestation papier a le même pb), rien n’empêche le terminal qui scanne de les extraire et de les stocker en plus de vérifier le passe. (car un terminal peut très bien exécuter plusieurs applis, c’est pas parce que l’appli TousAntiCovid-Verif ne stocke rien que le device est clean). Après ce serait bien évidemment illégal, mais l’illégalité n’est pas une protection a priori.
Pour la donnée de vaccination, je ne vois pas forcément d’exploitation dans le cas “standard”, après par ex si tu as été vacciné plus tôt que l’ouverture de ta classe d’âge, ça va indiquer que soit tu fais partie d’un métier prioritaire, soit tu as bénéficié d’une dose de rab qu’il ne fallait pas perdre, soit tu as une comorbidité, soit tu as fraudé. (sans possibilité de trancher entre les possibles). Difficile d’estimer la valeur/le risque d’une telle info, ça dépend qui la récupère et pourquoi. Je suppose que si j’avais une comorbité, je n’aurais pas forcément envie qu’une assurance le sache par ex.
Après même si je vois mal une exploitation de tout ça à grande échelle se mettre en place, ça reste dommage d’avoir donné la possibilité.
Paradoxalement, les plus gros sites Web sont devenus les moins disponibles. Un CDN, c’est bien, mais un CDN redondé c’est mieux… et d’un seul coup les rapports bénéfice/risque & bénéfice/coût ont une autre allure.
Les circuits de secours sont toujours vus comme superfétatoires lorsqu’il s’agit de justifier leur coût, et ça couine quand finalement ils auraient bien été nécessaires. Cas d’école d’une mauvaise gestion de risques : les œufs dans le même panier pour limiter les coûts d’une décision prise sans vue d’ensemble.
Je te trouve bien catégorique. Ces sites n’ont jamais affirmé nulle part garantir un uptime. Les contrats entre grosses boîtes (puisque tu parles spécifiquement des “plus gros sites web”) et gros fournisseurs impliquent en général des SLAs et assurances complémentaires pour couvrir les pertes d’exploitation, c’est aussi une façon de gérer le risque. En l’absence d’accès à l’administratif des entreprises touchées, rien ne permet d’affirmer que ce downtime ne fait pas partie de leur modèle de risque acceptable. J’ai l’impression que tu confonds “gérer les risques” et “assurer une disponibilité totale”. Mais ça n’a rien à voir. Tant que la durée de dowtime coûte moins cher que ce qu’il aurait fallu pour l’éviter et reste dans une fourchette anticipée, le risque est géré correctement.
scrollez en bas de la page et admirez le popup de concentement youtube
Bah en fait, c’est pas ultra fun ^^” youtube est censé fournir pour les vidéos embedded un “enhanced privacy mode” avec un domaine dédié “youtube-nocookie”. Sauf que dans les faits, les intégrations via ce domaine font quand même des trucs bizarres (stocker des identifiants dans d’autres stockages du browser, stocker quand même un cookie pas au load mais au clic sur play) dont personne n’est sûr que ce soit vraiment conforme RGPD. Et le module embedded lui-même ne demande pas de consentement. La doc de ce privacy mode se garde bien de dire s’il est conforme RGPD ou non (ce serait trop simple), et se contente de dire que quand il est utilisé, google n’utilise pas de cookie pour personnaliser l’expérience de visionnage et de recommendation. Donc ils n’excluent pas l’utilisation d’autre chose que des cookies, ni l’utilisation de cookies pour d’autres usages (par ex, collecter de la donnée pour de la pub) (voir ce lien en anglais avec tous les détails techniques à ce sujet: embed youtube videos without cookies )
Du coup, ça fait des expériences du type de ce qui est sur le site de la CNIL, dans le doute, un gros placard à la place de la vidéo, et on ne charge rien en provenance de Youtube tant que l’user n’a pas fait une action pour.
Là où je bosse, on nous a signalé justement un problème de conformité potentiel la semaine dernière, mais personne ne sait si on doit aller aussi loin que la CNIL ou non… Sachant qu’on gère des marques qui mettent parfois des vidéos en page d’accueil de leur site, les discussions sont funky (avec évidemment personne qui veut se mouiller en prenant une décision ferme et définitive)
LE RGPD et ses directives à interprétation variable, ça va faire longtemps la fortune des cabinets d’audit et des fournisseurs de solution de conformité tant c’est l’enfer quand il y a des chaines de responsabilités entre acteurs et des choses qui viennent se cacher dans des détails techniques.
Les produits dropshippés sont bien souvent des trucs très génériques (une montre, des écouteurs, etc.) auxquels ils vont créer une fausse image de marque via le site web, avant de payer des “influenceurs” sans trop de scrupules pour promouvoir le truc à leur communauté. L’idée c’est la même que pour le spam, taper large, chopper un max d’acheteurs crédules, se tirer avec la caisse. A noter qu’ici, ce qui est vendu l’est souvent au prix qu’aurait un article similaire (mais de bonne qualité), donc les comparaisons ne vont pas apporter grand chose. Là où réside le piège c’est qu’il s’agit en réalité de merdouilles à littéralement 2 balles, et qui seraient parfaitement achetables en ligne au vrai prix si le consommateur pouvait trouver le produit source. C’est donc essentiel dans ces cas là de pouvoir retrouver le produit de base. On ne parle pas ici de cas légitimes de délégation de chaine logistique, on parle de gens qui dropshippent des trucs qui viennent d’une autre plateforme de vente en ligne qui vend déjà au detail.
Non, ça c’est juste du commerce. Les prix sont libres, c’est aux clients de comparer.
C’est souvent là que ça pose souci, les dropshippeurs changent les noms des produits et ne donnent pas leurs identifiants internationaux (type UPC, EAN, GTIN etc.) (pour peu que le fabriquant en ait bien donné déjà), ce qui rend la comparaison difficile pour l’utilisateur lambda, car il ne peut pas trouver avec quoi comparer. Le baratin en description laisse souvent peu voire pas de mots clefs discriminants. Le meilleure pari c’est souvent de faire une recherche d’image inversée, mais même là les templates de sites utilisés emploient parfois des scripts pour désactiver les clics droits (facile à contourner quand on connaît le web, mais quand on connaît le web et qu’on est méfiant, on n’est de toute façon pas vraiment la cible visée) C’est là qu’on est au borderline du légal. Une “simple” obligation de fournir de manière bien visible les codes produit fournis par les fabriquants pourrait déjà aider à différencier plus facilement le dropshipping “légitime” de celui qui vise juste à encaisser de la marge sans ajouter de valeur.
Étude incomplète ne prenant pas en compte le coût énergétique de production d’un bien, notamment le coût de l’extraction des matières premières.
Heu, alors moi avant de chercher à critiquer j’ai ouvert le lien, juste après le sommaire il y a un gros graphique récap’ des données, absolument inratable, et ce graphique comporte, bien visible, une section “car production” et une section “battery production”. Si on ouvre le pdf et qu’on rentre dans le détail et les différents matériels et méthodes, on peut lire dans la section sur les batteries par ex, que sont prises en compte les émissions à la manufacture avec quatre scenarii pour les mix énergétiques de différents pays: europe moyennes émissions, europe basses émissions, europe hautes émissions, et chine. Sont également prises en compte les émission upstream (minage et raffinage), avec l’hypothèse que les techniques ne vont pas évoluer vers des méthodes plus propres en 10 ans…
En gros, tu prends pour des jambons ceux qui écrivent le papier (qui, eux, sont des experts du sujet qui ont bossé dessus…) sans prendre la peine de lire la source…
Qu’est-ce qu’il y a de douteux dans l’acquisition des exclusivités sur l’Epic Game Store ?
En vrai c’est pas tant la méthode d’acquisition qui est douteuse que la façon dont c’est présenté par Epic en mode “tout ça c’est pour les devs, nos motivations sont altruistes”
Si on regarde le marché pré-Epic:
steam: prend des commissions salées, politique de soldes agressives qui poussent les joueurs à les attendre et dévalue les marge devs, lock-in. Visibilité qui diminue pour les petits éditeurs car car “vieux” store avec énormément de choix. Amène un paquet de features tant aux devs qu’au qu’aux users. (perso il y a des trucs que j’achète sur steam uniquement parce que je veux le remote play par ex)
gog/itch.io, pas feature-rich, petite commission, pas de lock-in, positionné sur les créneaux indep/respect du dev et de l’user
xbox/PS/Nintendo/Apple/Google, pas feature rich, mais profitent de la position d’éditeur de plateforme
du spécifique ubi/EA/Square Enix, un peu osef
Du coup, quel positionnement marché il restait pour un acteur qui débarque avec aucune feature différentiante à proposer, mais une montagne de cash, et qui a en plus une position d’éditeur de jeu et de moteur (comme Valve en son temps)?
se faire de gros coup de pubs
arroser de cash et profiter des connexions avec les utilisateurs de leur engine pour avoir jeux gratuits+exclus pour appâter les joueurs
baisser ses marges (enfin, baisser leur commission, vu que l’absence de feature fait aussi moins de coûts, on ne peut même pas être certain que ça impacte la marge) + exclu deals pour appâter les devs qui n’ont pas besoin des features de steam, mais qui quand même aimeraient bien que leurs joueurs soient DRMisés, ou sont dans une situation financière où on ne refuse pas un sac de pièces d’or tombé du ciel. -en remettant sa casquette éditeur, attaquer les stores console/mobile sur le terrain de la réputation pour leur forcer la main sur les commissions en capitalisant sur l’image créée aux étapes d’avant, sa user base et les éditeurs qui utilisent son moteur (attention, je ne dis pas qu’ils aient tort sur le fond, les stores plateforme-specific, ça pose à mon sens de vrais soucis, ce qui n’empêche pas que ça arrange bien la stratégie d’Epic de pouvoir pousser là-dessus)
On a donc une bonne grosse stratégie de prise de position en force sur un marché par (et pour) le pognon, capitalisant sur la bonne image de Tim Sweeney dans l’industrie (note: je ne remets même pas en cause sa bonne foi, il est très possible qu’il s’aveugle de ses bonnes intentions pour ne pas voir le cynisme total de la situation) et vendu dans un emballage “bonne conscience” pour faire croire que les exclus epic, c’est pas un lock-in comme les autres plateformes, nan là c’est pour le bien de l’industrie.
Je sais bien que c’est comme ça que ça se passe dans le grand casino des marchés néo-libéraux, ça donne quand même à chaque fois envie de de mettre des baffes à ceux qui étalent leur hypocrisie de cette façon.
Je ne comprend pas trop la formulation “ordinateur” utilisée ici. C’est pour faire référence aux disques durs internes ? (en opposition aux externes qui sont déjà taxés)
Oui, c’est compliqué. On n’est plus à l’époque où il suffisait de booster “le serveur” et croiser les doigts, chaque service mis en ligne est généralement lui-même une infra de plusieurs éléments, qui va également se reposer sur d’autres services. Tous ces éléments doivent tenir la charge, et pas juste les frontaux web (qui sont d’ailleurs rarement le bottleneck car les infras cloud modernes permettent de les multiplier facilement)
Normalement, ce qui se fait, c’est de mettre en place une copie la plus complète possible de l’infra de prod (rien que ça ça peut être compliqué dans certains contextes) pour ensuite réaliser des tests de montée en charge avec différents profils de trafic et corriger tous les soucis qui se présentent. Je suis dans la division ecommerce de ma boîte et on fait ça tous les ans pour être sûr qu’on va tenir sans souci les périodes de fêtes/soldes. (spécialement cette année où avec le covid on a dû réviser nos estimations de trafic à la hausse. Sachant qu’on est présents aux US, donc faut encaisser le pic du black friday) Le truc, c’est d’une part qu’un goulot d’étranglement peut très vite arriver (il suffit parfois d’une ligne de code ou de config pourrie), a fortiori sur une solution qui n’a encore jamais connu ses conditions d’utilisation réelles. Si tu ne fais pas le test, il y a de fortes chances pour que tu penses avoir prévu large, mais qu’en fait un maillon faible oublié te mette dedans. D’autre part, préparer, faire ses tests de charge proprement et corriger les soucis, c’est (parfois très) long (par ex, notre campagne de préparation cette année a pris deux mois complets), or on est actuellement dans un contexte où toutes les deadlines sont systématiquement ultra serrées, il y a forcément des étapes du cycle de développement qui sont allégées ou carrément sautées.
Du coup personnellement je ne suis pas surpris que ça tombe, et je n’aimerais pas être à la place des équipes qui bossent sur toutes ces solutions autour du covid, parce que ça ne doit pas beaucoup se reposer.
Dans ton monde il n’y aucune responsabilité individuelle et les médias sont des pieuvres non composées d’individus ayant leur volonté propre. Dans mon monde, tout le monde à sa part de responsabilité, y compris dans l’entreprise dans laquelle il travaille.
Dans ton monde personne n’est neutre. Dans mon monde il existe des personnes de tous bords ayant des idées bien arrêtées mais pour qui l’honnêteté et la justice priment avant tout.
Ton problème n’est pas le sens des mots mais ta vision de l’humanité.
Tu vois, tu continues : j’écris un truc, tu y lis tout un tas de choses que personne n’a dit, sauf dans ta tête. Et tu continues à confondre “neutre” et “honnête”, ce qui montre bien que tu ne sais pas de quoi tu parles. Est-ce que j’ai écrit qu’il n’y a “aucune” responsabilité individuelle ? Non. J’ai écrit que la responsabilité individuelle n’a rien à voir avec la neutralité, et que ton focus dessus te faisait mélanger à tort les notions de neutralité et d’intégrité. Est-ce que j’ai écrit que l’honnêteté et le sens de la justice n’existaient pas ? Non plus. Est-ce que j’ai écrit que les médias étaient “des pieuvres non composées d’individus” ? Toujours pas. J’ai écrit que l’appartenance à un groupe modifie, oriente le comportement des individus, tout comme le font leurs origines ou leur vécu. Ce qui n’a toujours rien à voir avec des questions d’honnêteté ou d’intégrité. On est tous orientés, et on produit des discours qui le sont, qu’on le veuille ou non. Ce n’est pas “mon” monde, ça s’appelle juste être humain. Faut redescendre sur terre, et surtout arrêter d’inventer des trucs que les gens n’ont pas dit juste pour pouvoir les désapprouver, à ce stade c’est même plus de l’homme de paille, c’est vivre dans un fantasme.
Bah, beaucoup de plateforme (opensource ou non) configurent par défaut ce couple d’identifiant lors de leur installation, à l’administrateur de les changer ensuite, ce qui n’est pas toujours fait, la preuve…
D’autant plus que certaines plateformes ne permettent pas de modifier le login “admin”, juste son mot de passe, ce qui simplifie grandement les piratages… (coucou les Livebox)
C’est clairement lourd ça, d’autant que la première action des outils de pentesting c’est généralement de repérer toutes les applis accessibles et de balancer un bon bruteforce/attaque par dico sur le login “admin” et ses variantes connues.
Donc il y a vraiment des gens qui croient que tous les médias sont soit partisans, soit corrompus ?
Ta question est édifiante car elle sous entend que tout le monde à part toi est soit corrompu, soit malhonnete.
La neutralité, ça n’existe pas. On fait tous des choix, et ces choix sont biaisés, consciemment ou inconsciemment. Nos idées, nos “valeurs”, notre milieu social, notre expérience personnelle, tout cela oriente fatalement notre discours. Source: à peu près l’intégralité du corpus de sciences humaines… De plus, on a tendance à se regrouper autour d’un lot “valeurs” communes, et à tenir des propos conformes aux attentes de la communauté à laquelle on se sent appartenir et à l’image que l’on veut renvoyer de soi. Source: toujours pareil.
D’ailleurs ton post est un bon exemple, quelqu’un dit qu’un média neutre, ça n’existe pas, et directement tu modifies le propos d’origine pour introduire “tout le monde à part toi” => je n’ai pas vu le commentateur s’exclure spécifiquement. De plus, le sujet c’était les médias, donc des institutions, et non des individus. Ce n’est pas la même chose. (source: à peu près l’ensemble du corpus de sociologie) De plus, tu modifies également le sens d’origine pour attaquer un homme de paille grossier. Du média “non neutre” d’origine, ce qui ne fait pas de présupposé quand à l’intentionnalité de l’orientation dudit média (or la plupart des biais sont inconscients, il ne suffit pas de vouloir être neutre pour l’être effectivement, cf plus haut), tu passes à “corrompu ou malhonnête”, ce qui est une modification drastique du propos de base. C’est un faux dilemme, une réduction artificielle des alternatives. Ce n’est pas parce qu’on dit qu’une chose n’est pas neutre qu’on réduit les possibilités à “corrompu ou malhonnête”.
Du coup je me dois de te retourner ta question: ta déformation du propos de base, tu la fais parce que tu es corrompu, ou malhonnête ? Ou est-ce qu’il n’y aurait pas une autre raison, du genre un biais à vouloir tout ramener à de la responsabilité individuelle en niant l’influence inconsciente du contexte ? Ou est-ce que juste, tu trolles d’abord, et tu réfléchis après (ou pas d’ailleurs) au sens des mots ?
Ce que je trouve également intéressant ici, c’est la façon dont la section description/objectifs de la cagnotte et son historique sont utilisés comme équivalent aux termes, liants, d’un contrat, ainsi que la façon dont le jugement remonte à la version originale . ça parait anecdotique, mais c’est une pierre ajoutée à la jurisprudence plus large autour des financements participatifs, et cela peut modifier la façon dont les acteurs structurent leur processus de validation.
Il reste encore pas mal de boulot d’encadrement autour de ces usages à la démocratisation relativement récente.
J’ai quasi 60h de jeu, en VF, avec un V masculin. J’ai trouvé les doublages VF globalement bons, à l’exception malheureusement de mon perso, qui se retrouve souvent au sein d’un dialogue à balancer une ou deux phrases dont le ton est en décalage par rapport à l’ambiance, comme si le doubleur avait enregistré une ligne en n’ayant que la phrase elle-même à disposition et pas son contexte. ça arrive surtout quand le perso est censé faire de l’ironie, et ça m’a pas mal fait tiquer. Si j’ai la foi je referai peut-être en version féminine pour comparer.
Pour ce qui est de l’authenticité, je vais dans ton sens, pour moi ça colle, surtout si on prend en compte le fait qu’on est dans cyberpunk, un univers fantasmé qui a sa propre culture inventée plaquée par-dessus une culture américaine extrapolée au futur. A partir de là, qui peut dire ce qui est “authentique” ou non ?
Là où j’ai régulièrement l’impression de perdre quelque chose avec les VF, plus que l’acting c’est souvent la traduction. Il y a pas mal de références ou jeux de mots qui se perdent (dans la mesure où on connais suffisamment la culture initiale pour les comprendre, évidemment). Mais c’est quelque chose d’inévitable, les cultures et les langues ne sont pas des choses superposables et les équipes de traduction doivent faire des choix peu évidents.
De plus, gouverner c’est voir à moyen terme. Et sacrifier l’économie en fusillant le commerce en décembre, c’est faire beaucoup plus de dégats que toutes les contaminations qui risquent d’avoir lieu à Noël. Alors ouvrir les magasins maintenant et permettre aux fêtes de se dérouler convenablement, c’était la meilleure des décisions possible, même si c’est au prix de certaines vies.
Je trouve que tu t’avances beaucoup en affirmant que c’est “la meilleure des décisions possibles”.
La vérité, c’est qu’on ne sait pas. Le gouvernement prend ses décisions sans partager ni les chiffres sur lesquels il se base, ni les impératifs qu’il prend en compte avec leur degré de priorité, ni les compromis qu’il fait. C’est l’opacité complète. “Conseil de défense” => secret défense. Si le couvre-feu était efficace, pourquoi avoir dû choisir de confiner ensuite ? Parce que la mesure avait été prise trop tard ? Pourquoi si tard du coup ? On ne sait pas.
Personnellement, c’est ça que je qualifie de mauvaise gestion de crise de la part du gouvernement, pas tant pour les mesures prises ou non (quoique je reste convaincu que pour le télétravail, ne pas avoir été foutu de légiférer pour mieux l’encadrer et le favoriser, alors même qu’on dépense le temps des parlementaires sur des bouses comme Avia ou le projet sécurité, c’est une erreur monumentale faite par pure idéologie néo-libérale), mais pour l’opacité: ça laisse la porte ouverte à toutes les interprétations, y compris les plus farfelues, ça divise, ça ne permet pas de résoudre les contradictions apparentes et ça fusille l’acceptabilité des mesures parce qu’on n’a pas les données pour jauger. On est censé fonctionner à la confiance pure, alors même que le gouvernement n’en inspire aucune.
On est quasiment forcés de se dire que si le gouvernement refuse de débattre en transparence des choix qui sont faits et des objectifs visés par ces choix, c’est que les objectifs et compromis ne seraient pas acceptés par la population. Ou qu’il ne sait en réalité pas ce qu’il fait, et joue autant au Nostradamus que nous. Ou, si on décide de lui faire confiance, on va aller rationaliser à partir de ce qu’on pense être le compromis, boucher les trous soi-même, comme tu le fais sans en savoir plus que les autres. Pourquoi craindre de partager les CR de réunions décisionnaires et les supports de données, si on n’a rien à cacher ?… Ironiquement, c’est le gouvernement lui-même qui propage cette idée de “aucun pb pour vous surveiller si vous n’avez rien à cacher” pour passer ses propres lois sécuritaires…
Tout ça pour dire, on ne sait pas si les mesures sont bonnes ou non, bien faites ou non, ni surtout pour quelles raisons elles sont prises. Jouent au Nostradamus aussi bien ceux qui les contestent en bloc que ceux qui les approuvent sans réserve.
Je n’ai jamais eu de problèmes avec la police aux manifestations où je suis allé. Globalement, si tu n’es pas au milieu de casseur, tu n’as rien à craindre.
On n’a clairement pas fait les mêmes manifs. J’ai toujours fait partie de groupes non-violents, et nous avons été nassé.es, matraqué.es, gazé.es. Certain.es ont été choppé.es par les groupes d’intervention en frange de manif, frappé.es, placé.es en gàv. D’autres ont pris des flashballs. Perso j’ai eu de la chance, je n’ai été “que” matraqué. Il m’est aussi arrivé, après une manif, de passer à côté d’un car de CRS en rentrant chez moi (allure et vêture normale, pas de masque, lunette, rien, je venais juste de la direction de la manif’), et qu’un des flics me balance un coup de gazeuse, gratos. Je devrais me sentir protégé par la police, au lieu de ça, quand j’en croise, je change de trottoir et je passe au large.
Le but n’est pas de couper court au marché gris. C’est juste de l’économie de base des biens (mais pas des services !), un bien coûte X dans une monnaie A, il coutera X * taux change monnaie B + les taxes.
Comment voudrait-tu qu’il coute moins cher ?
Désolé, mais tu as une vision un peu trop simpliste de ce que tu appelles “l’économie de base”. Le prix d’un bien (hors taxes) se décompose grossièrement en coûts de R&D + coûts de fabrication/distribution + coûts marketing + marge.
Ces différentes composantes ne sont pas nécessairement égales à la conversion près dans tous les pays. Cela dépend fortement de la façon dont l’entreprise gère son positionnement sur le marché et de la façon dont elle redistribue (ou non) les coûts et bénéfices entre ses filiales locales. De fait, il est fréquent de trouver des tarifications différentes d’un même bien entre pays, voire au sein d’un même pays. (l’entreprise va par ex réduire sa marge pour entrer sur un marché où des concurrents sont installés, pour honorer des accords de distribution avec un partenaire, pour la vente de gros, parce que la législation d’un pays impose des normes différents, etc.) Les grossistes sont un bon exemple, ils négocient des tarifs inférieurs au prix de la vente directe en achetant de grosse quantités, pour ensuite distribuer et revendre. Pourtant, les prix de revente finaux sont souvent équivalents, alors que nulle part le produit n’a coûté “moins cher”. Ce n’est “que” du jeu de marge (avec “que” entre guillemets parce que l’équilibrage est complexe).
Ces différences de prix entrainent ce que l’on appelle “marché gris” (achat là où le produit est moins cher pour revendre là où il est plus cher. ), qui est une des problématique très classique des entreprises qui vendent des biens internationalement, avec différentes stratégies de “contre” (lissage des prix, contrôle des rabais offerts aux grossistes, passage par des revendeurs avec exclusivité, limite de quantité achetable en une fois…)
Par ex, sur des produits fabriqués en Chine, qu’anagrys prenait comme exemple, on pourrait très bien considérer que les prix devraient être inférieurs sur place, car pas de transport international. Or les entreprises fabricant ces produits ont fait le choix de lisser leurs prix entre les pays. (ce qui n’est pas sans coût, il faut transférer les capitaux internationalement pour compenser, et potentiellement réduire le nombre de consommateurs qui pourront se procurer le produit dans certaines zones où les moyens sont plus bas mais où il serait possible de conserver une marge). Conclure que ce lissage de prix vise à contrer le marché gris n’est pas forcément l’explication complète, mais ça se tient.
Note: je ne sors pas les explications de mon fondement, je bosse dans le commerce international de biens :)
Un souci bien présent qui freine le télétravail et que je vois peu mentionné, c’est l’état actuellement inadapté de la législation hygiène et santé au travail pour le télétravail. Tant qu’il y aura risque pour les employeurs que des accidents domestiques (énorme proportion des dommages à la personne, proba hyper élevée) se retrouvent qualifiable trop facilement en accident du travail, les boîtes traineront les pieds car grosses primes d’assurances. Actuellement, on n’y est pas. Service Public “L’accident survenu sur le lieu où est exercé le télétravail pendant l’exercice de l’activité professionnelle du télétravailleur est présumé être un accident de travail.” Je ne dis pas qu’il faut 100% dédouaner l’entreprise (ça dépend du poste et du matériel impliqué), mais il faudrait clairement faire mieux que ça. Dans une grosse entreprise, ce ne sont pas les “petits chefs” qui font la loi, si on vous refuse le télétravail, c’est qu’au niveau plus haut, il y a un risque financier identifié. (et dans une entreprise qui pilote proprement ses dépenses/revenus, ça se sait que le télétravail ne baisse pas la productivité) ^^”
Bon, ma vieille 970 achetée peanuts en 2016 commence justement à bien attendre ses limites, même en 1080p, je vais commencer à regarder si la 3070 pourrait se caler dans ma tour… :)
cette manière de faire n’est pas limitée aux projets informatiques, elle existe dans tous les domaines où la réglementation impose un appel “ouvert” que les agents peuvent avoir un intérêt à contourner.
Ah mais je n’en doute pas une seconde ! Je ne découvre pas le fonctionnement d’un appel d’offre, j’ai été appelant comme répondant ;)
Je signalais juste que cette déclaration très vertueuse d’apparence comporte ce trou béant bien visible dans sa formulation. Or, vu comme ce même trou est exploité depuis Mathusalem en informatique, et en particulier pour esquiver les boîtes spécialisées dans l’open source (un peu le thème de la news donc ^^“), je trouve ça drôle dans le contexte.
En fait, le plus souvent, ce sont les devDependencies qui sont massives, avec tous les outils de test/lint/build/optimisation du projet pour travailler from source. D’autant que la reco a longtemps été (et est peut-être encore d’ailleurs) de fixer les versions attendues de ces outils et d’en faire une install par projet (pour éviter les soucis de build dépendants du setup individuel des devs)
Mais ce n’est généralement pas ce qu’on va déployer sur les serveurs à la fin ( et heureusement xD ).
Pour essayer de réduire un peu cet effet, les gros frameworks viennent de plus en plus avec leur propre client en ligne de commande, que tu installes hors du projet et qui contient toute la machinerie de build (ce qui est très bien tant que tu utilises la même build suite que le framework)
Après, garder sous contrôle les dépendances externes du projet en lui-même, c’est un travail permanent d’audit, de revue, et de construction de bonnes habitudes, mais ça se fait.
Les solutions open source seront privilégiées lorsqu’elles sont équivalentes en matière de fonctionnalités, de coût total et de cybersécurité
C’est déjà ce principe là qui permet actuellement d’esquiver l’open source en formulant le cahier des charges de façon à ce que seuls certains acteurs puissent répondre (en incluant des fonctionnalités “exclusives”, ou en jouant sur les coûts d’intégration avec des rabais offerts par les gros éditeurs que d’autres ne pourront pas se permettre…)
Je ne vois pas le rapport, à ce que je sache ce bureau de Versailles n’est pas issu d’un rachat
En fait, le bureau de Versailles date d’une époque où Blizzard (d’origine US) appartenait majoritairement à Vivendi (FR) suite à des rachats de boîtes US qui avaient les parts. Puis la filiale jeux de Vivendi a fusionné avec Activision (US) (en continuant à appartenir majoritairement à Vivendi), puis encore plus tard (2013) Activision à racheté le contrôle. C’est compliqué parce que Blizzard est contrôlé depuis longtemps par des investisseurs qui se rachètent/fusionnent/scissionnent, font parfois eux-mêmes partie de groupes, et n’ont pas les mêmes stratégies/management. Après, je n’irai pas généraliser sur le fait que ce soit spécialement les boîtes US qui délocalisent, Vivendi n’était pas plus altruiste que ne l’est Activision, mais étant d’origine FR ça les arrangeait probablement de maintenir une présence en France.
Ce cahier des charges existe, il s’agit des décrets fixant la mission de service audiovisuel public des entités qui le compose. Et c’est plutôt détaillé et complet.
Vuip, je sais que ça existe, ce que je dis c’est que je trouve anormal de vouloir refonder le mode de financement sans rediscuter d’abord le cahier des charges. Parce que pour moi ce sont des choses qui sont forcément liées. Ne faire payer que ceux qui (potentiellement) “consomment” le service n’a pas tout à fait les mêmes implications que faire payer tout le monde.
Le pb c’est qu’on ne devrait pas se focaliser sur la question de la redevance, qui n’est que le tout dernier maillon de la chaine.
Les points de base sont:
est-ce que l’on veut conserver un audiovisuel public ?
si oui, sous quel cahier des charges ? (misions, contenu, cible, accès, modèle…) Est-ce que ça a du sens d’être producteur, éditeur et diffuseur ? Est-ce que ça a du sens de mesurer les résultats en audience ? De se financer en partie par de la pub ? Quid des garanties d’indépendance ? qu’est-ce qui devrait être mis en avant ou au contraire n’y a pas sa place ? Quel service est rendu exactement ? Informatif ? Educatif ? Accès culturel ? Autre ?
Et à partir de là, c’est le cahier des charges qui va ouvrir la question des coûts associés, puis du financement. ça n’a pas de sens de changer le financement sans présenter le cahier des charges avec. C’est une problématique complexe, et éminemment politique dans les choix à faire, pas un truc à règler à coup de petites phrases et d’avis à l’emporte-pièce, au détriment du fond :/
Évidemment, si tu entends par « social » les obligations, réglementations, interdictions, régulations, contrôles, etc. et autres impositions/taxations dites « sociales » (ou salariales),
J’appel ici “social” et plus précisément “acquis sociaux” plus loin dans le texte des règles qui garantissent à tout un chacun un niveau de vie décent.
tmtisfree a dit:
comme par ex. le SMIC qui fabrique du chômeur comme le socialisme fabrique du pauvre et de la misère pour tous, alors évidemment on ne parle pas du même « social » : le mien a un visage humain alors que le tien fait vivre toute une parasitocratie au pouvoir.
Ah ben oui, parce que dans les pays qui ont moins ou pas de règles de protection sociale, le niveau de vie est plus élevé et la pauvreté moins importante… Wait, ah ben non. Et au pouvoir en France, on a des champions de la protection sociale… Wait, toujours pas, cf mon message précédent, on a des néo-libéraux qui vivent de la casse sociale et non l’inverse.
tmtisfree a dit:
Le marché est précisément l’ensemble des individus (dont ces employés) qui échangent volontairement et pacifiquement de manière mutuellement bénéfique (sinon ils n’y participeraient pas) : difficile de faire plus « social » comme interaction entre individus.
Ah oui tu as une définition du marché bien au niveau 0, sursimplifiée et qui ne prend pas en compte les contraintes qui s’exercent, par exemple, sur le marché du travail. Comme, au hasard, le fait que dans notre société où les gens ne naissent pas avec une égalité de moyens, les individus sont contraints de participer au “marché du travail” sous peine de ne pas pouvoir bouffer, ce qui, en l’absence de protection sociale pour contrebalancer, permet mécaniquement aux propriétaires de moyens de production de tirer les salaires vers le bas. Le “marché du travail” n’est ni volontaire, ni pacifique (grèves, tout ça, ça te dit un truc ou pas?)
J’arrête là, j’ai bien vu que ton argumentaire ne dépasse pas le niveau “caricatural” option “troll néo-libéral”, aucun intérêt à discuter, c’est pas trolldi aujourd’hui.
Ces employés (et bien d’autres) « payent » l’environnement français idéologiquement réfractaire/hostile au marché et une politique électoraliste à courte vue surprotégeant les salariés coûte que coûte qui montre ses limites depuis des décennies avec des charges et réglementations sociales bien trop élevées qui rend les travailleurs locaux peu intéressants sur le marché mondial du travail.
Il est compréhensible qu’une entreprise se réorganise quand elle en a les moyens et non pas quand elle est en redressement judiciaire comme trop souvent au pays du fromage.
Ces employés (et bien d’autres) « payent » la politique capitaliste libérale globale, qui est favorable au marché globalisé, qui pour sa part est réfractaire/hostile au social. Faut arrêter de considérer comme “normal” que l’objectif des entreprises soit la maximisation du profit et la croissance, et qu’elles se barrent dès qu’elles peuvent aller exploiter du travailleur dans des pays sans protection sociale.
“une politique électoraliste à courte vue surprotégeant les salariés coûte que coûte”
heu… lol?
La politique depuis plusieurs mandats c’est de chercher à toute force à déprotéger (réformes successives des retraites, CPE/CNE, “loi travail”, réduction du nombre de fonctionnaires), ouvrir plus de marchés (privatisations massives), précariser (“uberisation” en abusant du statut d’auto-entrepreneur, durcissement des conditions d’accès aux aides sociales), ponctionner moins de recettes aux riches et grosses entreprises (cadeaux fiscaux en masse). Donc non, à moins de vivre dans une autre dimension, la politique “électoraliste” elle ne va pas du tout vers un renforcement de protection sociale. Les acquis sociaux ne tiennent (difficilement, et de moins en moins) que par les gros mouvements de grève successifs.
Pour tout ce qui est formattage de code (tab/espaces, alignement de params, saut de lignes après les conditions ou pas, etc. etc.), quand je bosse sur des projets qui ne sont pas les miens, j’utilise deux configurations de mon outil de formattage:
une avec mes préférences perso qui est exécutée quand je sauvegarde ou via un raccourci dans mon éditeur
une avec les préférences du projet, partagée dans le repo, et auto-exécutée en pré-commit Résultat : je fais ce que je veux quand je code, et tout est aux normes attendues quand c’est soumis. :)
Pour le premier point, il faut relativement bien embrasser la programmation événementielle. J’imagine que le principe de base et de libérer dès que l’on fait un appel aux entrée/sortie (lecture de fichier, requête SQL…) et d’attendre le message. Mais est-ce qu’il faut pousser le vis au point de transformer des boucles très couteuses en fonctions récursives ?
Pour le second point, si tu as plusieurs instance Node.js, elle font toutes tourner les mêmes services ? donc il faut quelque chose qui distribue les requêtes vers ces instances, non ? Faut-il une instance ‘front” qui se charge de gérer une pile de requêtes ou il y a un truc qui gère ça de lui même ?
J’imagine que le principe de base et de libérer dès que l’on fait un appel aux entrée/sortie (lecture de fichier, requête SQL…)
oui, après ça c’est “fourni” par la base library (tous les modules qui permettent l’accès aux fichiers ou au réseau ont une interface qui va soit prendre une fonction de callback en paramètre soit renvoyer un objet Promise). La base library fournit aussi un objet EventEmitter pour pouvoir faire ses events custom, ainsi que des mécaniques pour gérer les streams. Et depuis un certain temps il y a également la syntaxe async (pour déclarer une fonction comme asynchrone, ce qui fait qu’elle renvoie automatiquement une promise) + await (pour indiquer un point où l’exécution nécessite le résultat d’un ou plusieurs processes asynchrone, et donc indiquer au main thread qu’il peut passer la main en attendant). Node suit les évolutions du langage JS. Je ne sais pas où ça en est mais le comité technique avait fini par accepter d’ajouter des threads lights, donc quand ce sera finalisé (si c’est pas déjà le cas) ça changera encore probablement la donne et les recos.
Mais est-ce qu’il faut pousser le vis au point de transformer des boucles très couteuses en fonctions récursives ?
C’est du cas par cas, et ça évolue. Au début de node, c’était pas mal conseillé, maintenant, on conseillera plutôt de mettre les traitements potentiellement bourrins dans leur propre process (qui vivra dans un pool, et sera appelé de façon asynchrone par le process qui reçoit les requêtes), ou de combiner les deux techniques. Tout va dépendre de la fréquence et de la criticité, il n’y a pas vraiment de cas général. Un autre souci étant que pendant longtemps, la pile d’exécution asynchrone était horriblement tracée (pas tracée en fait…), ce qui rendait le debug particulièrement atroce. C’est mieux maintenant avec async/await, mais il y a encore des cas pourris quand on mélange les différents constructs asynchrones.
Pour le second point, si tu as plusieurs instance Node.js, elle font toutes tourner les mêmes services ? donc il faut quelque chose qui distribue les requêtes vers ces instances, non ? Faut-il une instance ‘front” qui se charge de gérer une pile de requêtes ou il y a un truc qui gère ça de lui même ?
ça va pas mal dépendre de la typologie de service ou d’application. Node est un process applicatif, pas obligatoirement un serveur http. Un process peut spawner des sous-process avec qui il partagera des ressources. Il y a un module “cluster” disponible de base qui permet un load balancing (round robin ou custom) intégré (https://nodejs.org/api/cluster.html). Donc sur des cas “simples” tout peut se gérer au sein d’un process node. Il y a des produits commerciaux qui font ça aussi. (et qui généralement vont aussi offrir le monitoring des processes, l’auto-restart, etc). En fait il n’est pas rare de commencer la vie d’une appli en montant tous les endpoints sur un node en mode cluster, puis de mettre un système d’auto-scaling rudimentaire (plusieurs clusters + un load balancer), puis d’aller séparer les services pour mieux répartir la charge une fois qu’on peut mesurer avec du vrai trafic, etc. Le fait de coder “de base” pour le support du cluster fait qu’il devient relativement simple de réorganiser l’ensemble. Mais là encore, on est sur des choses qui évoluent, avec le développement (relativement) récent des containers, du “serverless” (FaaS), des bases distribuées à la FaunaDB ou CockroachDB, etc, on peut s’attendre à ce que les best practices continuent de changer.
OK, du coup, tu utilises de la programmation événementielle pour libérer le thread (tu libères la mains au prochain events qui se pointe).
Mais du coup, ça veut dire que tu gère toutes les requêtes de toutes les sessions dans un seul et unique thread ? ça ne risque pas de faire exploser le temps de traitement lorsque plein de client balancent des requêtes en même temps et que la charge est importante ? On ne peux pas exploiter les CPU multicœur d’un serveur.
C’est un des inconvénients de node, c’est plutôt simple en apparence mais pour faire une prod performante, il faut respecter un certain modèle de déploiement, qui en retour impose des normes en termes de code. (sauf que le dev inexpérimenté ne les découvrira qu’après, quand il faudra deboguer la perf de sa prod, car le modèle de développement ne donne pas un cadre strict qui amènerait aux bonnes pratiques “naturellement”)
Comme il n’y a effectivement qu’un seul thread qui exécute le code js (en vrai il y a quelques autres threads de contrôle qui trainent), pour exploiter correctement la puissance dispo il faut
s’assurer que chaque module, individuellement, rende régulièrement la main à l’event loop.
faire tourner plusieurs process node sur la machine, que l’OS pourra répartir sur les coeurs (pour simplifier on dit souvent “un coeur -> un worker process” mais en réalité chaque cas est différent et ça demande de mesurer et d’optimiser en faisant des tests de charge)
Le point 1 implique de bien connaître le fonctionnement de l’event loop de node (parce qu’en réalité tous les “events” ne se valent pas, il y a plusieurs priority queues en-dessous.), le point 2 implique de respecter des normes de code qui permettent de réorganiser facilement la chaine d’exécution (en rendant chaque endpoint métier le plus indépendant possible) de façon à pouvoir croître horizontalement sans souci. Ce qui veut dire plus de complexité niveau architecture et plus de consommation mémoire.
Ce sont des points qu’il faut connaître à l’avance quand on veut se lancer dans un projet node avec un objectif de croissance. (ou juste quand on veut être sûr de tirer le meilleur parti de la techno).
Wé enfin, Apple a proposé en commission que browsers et CAs s’alignent sur une limite d’un an, le vote a été contre, Apple a dit “on s’en fout on le fait quand même à partir de septembre 2020, donc si vous suivez pas tant pis”. La team Chromium a indiqué son full support, Mozilla est of course pour vu que ça va dans le sens de Let’s Encrypt.
A partir de là, les CAs ont un choix limité, s’ils ne s’alignent pas et que des clients achètent par erreur des certificats 2 ans qui se font rejeter, bah les clients se retourneront contre eux.
C’est probablement mieux pour les utilisateurs du web, par contre niveau méthode, c’est pas terrible. Tu ne t’engages pas à participer à une instance pour aligner les décisions si c’est pour ignorer les décisions quand ça ne va pas dans ton sens.
En fait, il faut remettre ça en contexte, à la base Electron c’est le core d’Atom, un IDE orienté technos web made in Github (avant le rachat par Microsoft).
Dans ce contexte là, (puis VS Code dans la lignée directe) ça faisait 100% sens, et ça n’avait rien à voir avec vouloir éviter des formations aux devs:
ce sont des outils développés pour faire des app js, intégrer un noyau node, un navigateur avec un V8 et les outils de debugs directement, dont les versions sont à 100% maitrisés avec la distribution, c’était assez bien vu (avec un méchanisme de dogfooding où l’outil sert à se développer lui-même)
ça tourne sur tous les OS principaux employés par les devs
Il y avait donc un business case très fort pour ce type de solution.
Après, est-ce que c’était pertinent d’extraire le framework et de le mettre à dispo de tout le monde, et est-ce que toutes les utilisations qui en sont faites par des entreprises sont bien appropriée ? Il est probable que parfois oui, parfois non, c’est du cas et par cas et il faudrait voir les tradeoffs faits par chacun. (comme je n’arrête pas de le répéter à mes collègues: nous ne sommes pas Google, c’est pas parce que c’est bon pour eux que c’est bon pour nos problématiques.)
Le truc, c’est que ce type de solution, tout comme les PWA dans une autre mesure, ça répond à un vrai besoin, le fameux “write once, run anywhere” promis par Sun avec Java avant le rachat par Oracle. Il s’agit pour les boîtes d’essayer de trouver le moyen de garder la main sur le canal de distribution malgré la disparité des plateformes, tout en réduisant les coûts. (et oui, dans les coûts en question il y a la formation, la réputation et l’attractivité pour le recrutement, ne nous leurrons pas là-dessus) Et quand on tente de résoudre ça, on se rend vite compte que le seul moteur quasi ubiquitaire, c’est le combo V8+blink (évidemment, sauf sur iOS, parce qu’il en faut toujours un qui mette un verrou…)
On peut regretter que les innovations viennent des gros, mais ça coûte cher la R&D, et eux ils ont des piles de cash à mettre dedans ^^”
Alors Electron c’est un système pour builder des applications qui combine
un chromium modifié qui sert à gérer l’interface
du node.js pour compléter les APIs de chromium
du code glue pour bridger tout ça, notamment en fournissant des APIs javascript additionnelles au process principal, qui vont permettre de toucher certaines fonctionnalités de l’OS (piloter les fenêtres, le systray, les notifications, tout ça)
ça permet de faire des applis en utilisant des technos web, tout en étant en mesure de les builder et de les déployer vers à peu près tous les systèmes sur lesquels on peut faire tourner chromium et node.js… Soit beaucoup " />
Ceci dit, les détracteurs avancent différents arguments plus ou moins recevables:
- Il y a les gens qui n’aiment pas javascript et diront que ce n’est pas fait pour faire de l’applicatif et qu’il faut arrêter d’étendre les usages du langage. Je mets cet argument en premier pour l’évacuer parce que pour moi c’est de l’ordre de la querelle de paroisse et des gens qui veulent conserver leur pré carré, souvent avec une pointe de crainte en voyant les mêmes technologies devenir de plus en plus universelles (peur de voir se dévaluer certaines compétences spécialisées par exemple, ou d’un “nivelage par le bas” du milieu du développement chez ceux qui n’ont jamais considéré les développeurs web comme de “vrais développeurs”)
- Il y a ceux qui n’aiment pas la façon de faire une UI en techno web. Les goûts et les couleurs…
- Il y a l’argument de la performance: Même si JS tourne bien, on peut faire mieux avec un langage compilé, et parfois encore mieux en allant faire des optimisations obscures à la mano. Dans l’absolu, c’est vrai. Maintenant est-ce que toutes les applis sont CPU/GPU-intensive au point d’avoir besoin d’aller dans le low level? Comme toujours avec les sujets perfs, c’est très cas-par-cas, et le mieux est parfois l’ennemi du bien. D’autant plus que node.js permet d’écrire des modules en C++ au besoin.
Un autre argument lié à la performance, c’est la complexité de paralléliser les calculs et de bien gérer le CPU avec un moteur JS qui est par nature mono-threadé. Pour le coup c’est vrai, quand on veut faire des choses non-triviales, ce n’est pas évident et il faut bien connaître le moteur. Il est toutefois possible de s’inspirer de VS Code, IDE open source et optimisé au poil, écrit avec Electron. (C’est d’ailleurs assez hallucinant quand on sait que c’est Microsoft qui gère ça, alors qu’à côté leurs autres app Electron faites par d’autres teams sont très loin d’avoir la même qualité niveau perfs)
Les applis Electron sont lourdes, en RAM comme en taille d’exécutable. C’est vrai et c’est un argument recevable. Chaque appli Electron package sa propre version de Chromium light et sa propre version de node.js,ce qui fait que toutes les apps Electrons font plusieurs Mo même si on n’a soi-même écrit que quelque ko de code applicatif. Il y a des tentatives pour mitiger ça avec des systèmes pour partager un runtime Electron entre plusieurs apps, mais c’est difficile à gérer à la fois pour les devs (obligés de prendre en compte le fait que leur code pourrait potentiellement tourner sur des versions différentes de node/chromium) et pour les utilisateurs qui ne sont plus dans le simple clic-executable-to-install.
La sécurité ne coule pas de source. L’UI est un vrai chromium, étendu pour que le js qui tourne dedans ait accès à des APIs desktop. Ce qui veut dire qu’une fenêtre d’une app Electron peut de base naviguer vers une url (d’ailleurs c’est comme ça qu’on lui fait loader l’UI, on la lance en lui faisant charger un document html local) qui pourrait potentiellement être n’importe où sur le web. Si un attaquant arrive à exploiter une app chromium, il peut potentiellement lui faire loader du code js remote qui pourra faire bien plus de dégâts que s’il tournait dans un navigateur. Il y a évidemment des mitigations, mais c’est potentiellement plus facile de se tirer une balle dans le pied sans faire exprès qu’avec d’autres technos.
Ah mais oui, je suis complètement d’accord. C’est de toute façon tout à fait normal que la chaîne de distribution en ait pris un coup dans le contexte et qu’il y ait un peu de lag.
Même pas besoin d’invoquer les peurs et comportements excessifs pour l’expliquer, clairement passer d’une situation où on mange au taf (ou à l’école) et où y a pas de problème à faire un plein de course hebdo + un peu de ravitaillement en continu à une situation où c’est “tout le monde chez soi” et où on incite à sortir le moins possible (et donc à se faire un stock suffisant pour 7⁄10 jours sans réappro), ça change la conso.
D’ailleurs ce n’est pas uniquement l’approvisionnement du stock magasin qui est touché, mais aussi (et surtout, peut-être) la mise en rayon. Quand les caddies sont tous plus gros qu’à l’habitude, les rayons se vident même si tu as du stock, et le commerce n’a pas forcément les moyens d’aller aussi vite à remplir que les clients à vider.
Je voulais juste souligner qu’en général, quand les gens disent “les prix ont augmenté”, ils font référence au prix qu’ils paient pour leur panier moyen, pas au prix individuel des produits, qui peut être un facteur explicatif mais n’est pas le seul.
Personnellement j’ai aussi tiqué sur l’article de l’UFC que je n’avais pas vu… Si les prix du high tech et de l’électroménager semblent avoir gonflé durant cette période d’après eux, il s’avère que l’alimentaire est très stable selon cette analyse qui cite les études de Nielsen.
Les observations qu’on a pu faire avec quelques amis (alors attention, c’est en région parisienne, et c’est de l’échantillon super réduit puisque ce ne sont que nos anecdotes personnelles), c’est que si globalement les prix de chaque produit n’ont pas ou peu varié, en revanche la disponibilité des produits les moins chers a baissé.
Le résultat c’est que tu vas en magasin, tu as un peu la pression de la limite du nombre de personnes (il y a la queue pour entrer, donc tu veux faire au plus efficace pour que ça circule). A chaque fois que tu vas chopper un produit, la marque que tu prends d’habitude n’est pas là. Soit tu embêtes le personnel qui galère déjà à réassortir ses rayons, soit tu t’en passes jusqu’au prochaines courses, soit tu te rabats sur un produit équivalent mais plus cher. (qui n’a effectivement pas augmenté, mais que tu n’aurais pas acheté en temps normal)
Au final, du point de vue de la personne qui achète, ça donne l’impression que les prix ont augmenté.
Heureusement, ça semble s’arranger au fil du temps (la logistique des commerces qui s’adapte niveau approvisionnement).
La Chine a déconfiné il y a 1 mois et n’a pas eu de deuxième vague, et le docteur Raoult, d’après son expérience des épidémies similaires, ne croit pas à une deuxième vague même sans vaccin " />
Désolé, mais ça me paraît assez hors sujet de comparer la situation de déconfinement en Chine avec la situation en France. En Chine masques et tests sont ultra massifiés, la population est tellement surveillée qu’on est bien au-delà du stade d’un simple contact tracing et si tu es testé positif on va te mettre en quarantaine d’office sans te demander d’abord si tu es d’accord.
Pour le coup s’ils se prenaient une deuxième vague malgré ça, ça serait un gros indicateur qu’aucun pays ne doit déconfiner.
Mais en l’état, ça ne nous apprend pas grand chose sur la façon dont l’épidémie va se comporter en déconfinant chez nous.
Dans le facteur risque, il faut tenir compte de nombreux paramètres :
- tout ce qui concerne le covid19 : nombre de mort, de malades, capacités de traitement des cas malades, circulation, etc...
- les autres pathologies dont il faut reprendre les soins : cancers, diabètes, les maladies mentales, certaine anomalie génétiques, etc....
- les pathologie qui peuvent se déclarer à cause du confinement : dépressions, des problèmes provenant d'un manque d'activité, etc...
- les problèmes "individuels" accentué par le confinement : violences conjugales, personnes âgées se laissant mourir car elles sont seules, etc...
- le retard dans l'éducation
l’acceptabilité par la population
- les problèmes des activités économiques et des activités sociales et solidaires (le chômage partiel mis en place, ou même si l'on donnait des revenus à tout le monde, ne résout pas tous les risques à venir)
- l'état dans lequel sera le pays après la crise.
Et il vue l’heure je dois en oublier.
Juste pour dire que l’équation visant à définir le niveau de risque minimal n’est pas simple, et que je suis bien contant de pas être à leur place.
Je suis entièrement d’accord, de nombreux facteurs sont à prendre en compte.
Raison de plus à mon sens pour avoir une approche “par les moyens” et non “par la date”. En termes d’acceptabilité des mesures, si on déconfine une fois et que ça re-flambe, ça sera d’autant plus dur de relancer un cycle.
ça aurait plus de sens (à mon avis) de travailler d’un côté à rendre le confinement le plus “vivable” possible tout en bossant d’un autre côté sur le dispositif de support au déconfinement, et de baser les annonces sur les indicateurs d’avancée du dispositif.
De même, motiver chaque mesure prise avec les objectifs visés et de la donnée (publique) en support aiderait à ce que l’on n’ait pas l’impression que tout est fait en dépit du bon sens. (je ne parle pas de “perdre du temps” à produire du rapport pour la forme, mais bien de partager les supports qui servent actuellement à orienter la prise de décision).
Je sais que ce que je vais dire fait très “technocrate”, mais à ce stade je serais beaucoup plus rassuré sur le niveau de maitrise du bousin si les politiciens se taisaient et étaient remplacés par des gens présentant les choses comme le font des ingénieurs.
Le peu de rapports que j’ai vus circuler (réalisés par des universitaires avec des données en partie inférées, faute de mieux, et orientés politiquement, donc à prendre avec des grosses pincettes) a tendance à suggérer que pour tous les indicateurs (capacité de test, production de masque, capacité d’accueil en réa, capacité à isoler, etc.) la France est plutôt dans les pays les moins prêts (à stade épidémique égal), et ça me rend super dubitatif quant à la volonté du gouvernement de vouloir absolument annoncer un déconfinement super tôt.
Je t’accorde que l’on pourrait se dire que l’avenir est bien inconnu et que potentiellement on pourrait retourner dans une situation assez saine pour que ça ait un intérêt (mais si c’est le cas, alors ça ne voudrait pas dire que le problème se résout… sans l’application ?)… mais… peut-on en toute franchise y croire ?
Heu, ben par exemple, après une période de confinement ? (si on décide qu’on déconfine seulement quand on est redescendu à un seuil de cas/jour gérable). La plupart des gens qui défendent le contact tracing, sous n’importe quelle forme, le font dans une optique où
on a confiné pour réduire suffisamment la présence du virus
on veut déconfiner en évitant que ça reparte
on a le reste du dispositif prêt (notamment les tests)
Dans tout autre contexte, la question du contact tracing ne se pose même pas (et je pars du principe que ses défenseurs ne sont pas des idiots. charité intellectuelle, tout ça). Du coup dire “c’est trop tard y a trop cas”, c’est un non-sens.
D’autant plus qu’à l’heure actuelle, vu le niveau d’impréparation et le niveau de nos connaissances réelles sur le virus et l’épidémie encore bas, je ne pense pas exagéré de penser que le risque pour qu’on doive reconfiner est réel. On peut même envisager un scenario où on se retrouve à déconfiner/reconfiner à plusieurs reprises sur une échelle de temps à mesurer en années. Les dernières estimations estiment peu probable que plus de 6% de la population ait été contaminée, et on n’est même pas sûr que ceux qui ont été contaminés sont immunisé.
Cela rejoins d’autres remarques, que je trouve très pertinentes, sur le fait qu’il y a bien plus important sur quoi se focaliser pour résoudre le souci. Du genre + de moyens pour l’hôpital, des masques, du dépistage, une communication gouvernementale claire, l’isolation des personnes séropositives au Covid-19 etc…
Personnellement je pense que quand des vies sont en jeu, on doit explorer toutes les pistes accessibles. Y a pas besoin de milliards d’euros pour étudier proprement la façon dont une appli peut aider au contact tracing ce qu’on peut garantir ou non, etc. Donc faisons le (l’étudier hein, pas déployer dans l’urgence une bouse pas finie), et on verra bien si ça mature avant que l’épidémie soit endiguée ou pas.
Ne tombons pas dans le piège facile qui est de penser que “parce qu’on met des moyens à un endroit, ça revient à dépouiller un autre endroits de moyens”.
En attendant, évidemment qu’il faut faire le reste.
(note: mon opinion sur le sujet du déconfinement en général c’est qu’on ne devrait déconfiner globalement la population que si on peut garantir un niveau de risque minimal. Donc déjà, clairement, pas maintenant. Et plus tard, en utilisant tous les moyens qui peuvent démontrablement réduire la propagation épidémique. Evidemment, si l’on confine, on devrait également assurer un revenu de base. C’est le rôle d’un état que d’assurer l’utilisation des ressources commune pour le bien commun, même s’il l’a assurément oublié…)
Du coup le fait que cet “expert”, qui a inventé le bluetooth commence déjà par dire que 90% de la population télécharge des applications de type réseaux sociaux… ahahah je ne vous fait pas un dessin !
[…]
Ceci dit, il reste très pertinent : c’est 10 fois trop tard pour espérer quoi que ce soit pour la pandémie actuelle. On ne peux que préparer l’élan pour la prochaine (s’il y a…).
Juste un point de forme argumentaire, “c’est 10 fois trop tard pour la pandémie actuelle”: à moins d’avoir la capacité à prédire combien de temps elle va durer (pour l’instant on a pas trop le cul sorti des ronces), cette affirmation est aussi fausse et non pertinente que la précédente.
(on n’a pas confirmation que l’exposition crée une immunité, on n’a pas confirmation que si immunité il y a, elle soit durable, on n’a pas confirmation que que l’épidémie soit sensible au changement de saison, on n’a pas confirmation que les mesures que l’on est prêts à appliquer soient suffisantes pour contenir, on ne sait pas si le virus ne va pas muter, on ne sait pas si/quand on n’aura un traitement ou un vaccin…)
Donc en l’état actuel de ce qu’on sait, on doit continuer à explorer toutes les pistes, court, moyen et long terme, et surtout pas se dire qu’il est “trop tard” pour quoi que ce soit. Pour le peu de données qu’on a, on pourrait aussi bien y être encore dans 10 ans.
147 commentaires
Le 16/09/2021 à 09h25
Allez, ça ne coûte rien de participer ! Et ma machine a bien besoin d’un upgrade ^^”
Le 16/07/2021 à 09h14
J’ai cherché par curiosité, en fait il faut cliquer sur “plus d’informations” dans le bandeau, puis scroller très bas dans leur section “protection des données à caractère personnel” et on finit par tomber sur un bouton “s’opposer au dépôt de cookies” …
Un mode opt-out compliqué au lieu d’un opt-in, ça mériterait un signalement CNIL.
Le 30/06/2021 à 09h23
Ça dépend quel cookie.
Pour les cookies “obligatoires” non soumis au consentement (suivi de session, cookie qui sert à savoir où en sont les consentements, etc), ils peuvent de toute façon être déposés.
En revanche, les cookies soumis à acceptation ne doivent pas être déposés avant que le consentement soit donné pour leur catégorie. (le modèle est opt-in, pas opt-out)
Le 18/06/2021 à 14h05
Désolé, mais je pense que tu n’as pas bien lu les cas que je décris, ou que tu es trop loin du terrain d’une grosse plateforme technique web ou d’un service juridique pour te rendre compte de ce que ça représente au quotidien.
Déjà pour commencer, nous ne sommes pas concerné que par le RGPD, mais par toutes les réglementations cumulées de tous les pays relatives aux cookies, traceurs, etc.
Ensuite, je ne parle pas des bases du RGPD (identifier une donnée personnelle, registre de traitements, obligation de consentement retrait, etc) sur lesquelles on donne des formations génériques en entreprise et qui sont effectivement bateau comme c’est pas permis.
Comme j’en ai déjà donné des exemples, il y a plein de cas qui sont des “zones grises”, notamment quand on parle de catégoriser des choses et apporter des preuves (notamment dès qu’on commence à parler d’ “intérêt légitime”). Des choses qu’on ne rencontre que sur le terrain dans les détails d’implémentation techniques, et qui sont systématiquement du cas par cas.
Tu te doutes bien que si nos équipes de juristes, dont c’est le métier, n’arrivent pas à trancher facilement les cas qui se présentent, c’est que l’impression de clarté et de simplicité que tu te fais est largement faussée par ta perspective.
Et plein de choses ont déjà changé depuis 2016, avec les interprétations locales du RGPD (je rappelle que le droit européen ne s’applique pas tel quel dans les états membres, les directives sont transposées, et donc interprétées.), les clarifications qui ont déjà été émises et le début de jurisprudence.
Point suivant, comme je le dit là aussi dans mon message précédent, la mise en conformité, c’est une chose, le maintient de la conformité, c’en est une autre.
Ma boîte fait partie de celles qui ont joué le jeu, quand le RGPD a été officiellement activé en mode “hard”, tout était conforme. (de toute façon on aurait mis offline tout ce qui ne l’aurait pas été. Pour le coup les sanctions sont assez dissuasives pour ça)
Et ta vision de “si tous les clients avaient migré, les intermédiaires auraient suivi” est pour moi assez révélatrice du fait que tu n’as aucune idée du fonctionnement des rapports de force entre gros acteurs dans la vie réelle ^^” Ce n’est pas faux dans l’absolu, mais c’est totalement infaisable.
C’est comme de dire “ben si tout le monde arrêtait de travailler, le patron serait bien obligé de céder aux exigences des employés”: je pense que tu peux voir qui si c’est effectivement vrai en théorie, en pratique les rapports de force font que les grèves qui aboutissent ne sont pas légion. (et que beaucoup ne démarrent même pas) Et que certains employés ne peuvent pas se permettre de faire grève, parce que sinon ils ne bouffent pas, ou ils arrêtent de fournir un travail duquel d’autres personnes sont dépendantes.
Le monde réel, ce n’est pas “yaka faukon”.
Le 18/06/2021 à 02h27
Pour le coup, je te trouve super catégorique, à la fois sur le fait que ce serait “clair”, et que “s’organiser” serait une question de temps.
Déjà sur la clarté, chaque pays, en plus de devoir combiner le RGPD à son droit national, va faire ses propres interprétations. (qu’est-ce qui représente un “intérêt légitime” par ex ? ) Il y a des tonnes de cas particuliers, et encore peu de jurisprudence. Cette couche RGPD n’est venue s’ajouter au reste qu’en 2016, ça ne fait pas plus de 10⁄15 ans. (d’autres lois préexistent, mais elles n’ont pas du tout eu l’impact du RGPD. De plus, le montant potentiel des amendes a fait monter fissa la priorité de cette conformité là dans les services)
Ensuite, il ne faut pas seulement se mettre en conformité, il faut le faire à l’échelle, et surtout s’assurer d’y rester, ce qui est bien plus compliqué.
Mon équipe s’occupe du “core” pour une plateforme interne utilisée sur près de 200 sites, dans plus d’une quarantaine de pays qui ont chacun leur droit national. Des développeurs d’une dizaine d’entreprises autour du globe contribuent du code H24. Comme il s’agit de ecommerce, les sites sont opérés, via back office, par des équipes “marketing digital”: des gens qui n’ont pas de compétences techniques, chez qui c’est en permanence la valse des stagiaires, et qui sont démarchés en continu par des startups qui essaient de leur refiler des scripts en leur promettant que ça rajoutera des features sans passer par les équipes de dev, que ça boostera leur SEO/rétention/conversion/capacité d’analyses/etc, et in fine leur évolution de carrière.
On a beau avoir des auditeurs, des juristes et des responsables sécurité, des processus de revues et d’approbations, des scans automatiques, des formations… ça reste le boxon. Et on aurait 20 ans de plus devant nous que ce serait la même chose.
Je prends l’exemple d’un truc simple qu’on voit partout: les embed youtube. Et bien même si Youtube fournit un domaine “no-cookie”, nulle part dans la doc n’est donnée la garantie que ce dernier soit compliant avec toutes les régulations sur la vie privée (il ne l’est d’ailleurs probablement pas, il y a dépôt de cookies et d’éléments dans le local storage du nav, sans explication de ce que c’est). Youtube dit juste que sur ce domaine, l’embed ne fournit pas de contenu personnalisé. Mais pas qu’aucune donnée n’est collectée. Et Youtube ne fournit pas de ToS qu’il faudrait accepter avant que l’embed se load.
Sur le site même de la CNIL, qui contient des embed Youtube, il y a eu des développements spécifiques pour gérer le cas. (la CNIL met à la place de chaque vidéo son propre placeholder pour prévenir à la place de youtube que l’embed contient des traceurs) ex: https://www.cnil.fr/atom/18912
Sauf que voilà, moi un embed youtube, je me méfie d’office. Mais l’assistant marketing qui fait sa page de contenu quotidienne ? Ben il copie-colle le code que lui file la page youtube. Qui ne lui fournit aucune info sur un éventuel souci. Et n’est même pas fichu de mettre son propre encart de consentement en préalable à l’embed…
Dernier sujet en date encore en cours de traitement dans mon équipe:
On nous répond que c’est une bibliothèque qui sert à plusieurs fonctionalités. Que ça ne collecte pas de données. Qu’ils peuvent nous faire une version sans, mais pas le conditionner à un consentement en l’état actuel. Et que la version sans sera amputée de quelques features qui se basent dessus.
A partir de là, que faire ? L’éditeur assure que le script ne fait pas de tracking, mais est-ce que sa déclaration a valeur de preuve vs les listes de ghostery ? Qu’est-ce qui pourrait, dans ce contexte avoir valeur de preuve de conformité ? Une déclaration d’un auditeur mandaté ? Rien du tout ?
Et bien on en sait rien, on a tout fait désactiver, et on attend que les juristes finissent par se mettre d’accord pendant que le business râle parce qu’il n’a plus sa fonctionnalité.
Si la loi était vraiment claire, elle permettrait de résoudre ce genre de cas sans même avoir à réfléchir. Si nos juristes, dont c’est le boulot, sont à la peine, c’est qu’on n’y est pas. ^^”
Le 16/06/2021 à 15h24
C’est déjà le cas. A part pour les cookies/scripts catégorisés comme “nécessaires”, (par ex ceux qui servent à indiquer au serveur quels consentement ont été donné ou pas, à maintenir la session ou à supporter des fonctionnalités sans lesquelles un site ne peut pas fournir le service qu’il est censé offrir), la loi interdit de déposer quoi que ce soit tant que l’utilisateur n’a pas consenti. (et interdit de cocher les cases par défaut, il faut que l’utilisateur fasse le geste de cocher les cases individuellement par type de consentement avant de valider).
C’est ce qui rend la mise en conformité des sites existants compliquée. Beaucoup de modules, notamment sur les CMS, se contentaient d’ajouter au code source de la page html un script fourni par un tiers, et fin de l’histoire. De nombreux webmestres, qui ne sont pas développeurs, ne savent pas faire autrement. (et ne savent pas non plus ce que les scripts qu’ils ajoutent peuvent bien faire pour fournir leur fonctionnalité)
Ce que font les boîtes qui proposent les bandeaux/popins relatifs aux cookies, c’est fournir un crawler: il interagit avec ton site web, il repère tous les cookies (qu’ils proviennent du site lui même ou qu’ils soient tiers), il te les classes dans les différentes catégories à partir de bases de données sur les différents acteurs, tu peux bouger des trucs via une interface d’admin si tu sais qu’ils ont été mal classifiés, puis tu valides et il te fournit le script qui gère la popin avec toutes ses infos dedans.
Pouf, c’est magique, tu as ton outil de collecte du consentement.
Sauf qu’en vrai, la popin, elle n’est pas magique, elle va juste stocker (dans son propre cookie ou dans un store distant interrogeable par API), la liste des consentement que l’utilisateur a donné ou non, mais elle ne bloque pas le dépôt des cookies concernés. Donc elle ne te met pas en conformité. En fait elle fait la partie simple du boulot…
Si tu n’as pas derrière un ou des développeurs pour aller analyser d’où vient chaque cookie et ajouter du code qui vérifie le consentement avant d’activer ou non les différents éléments, tu n’es pas conforme. Une vraie usine à gaz. :/
Surtout que tu peux par ex inclure dans ton site une ressource tierce qui elle-même inclut d’autres ressources tierces, mais pas tout le temps les mêmes (c’est typiquement le cas des régies pub).
Sauf que bah, c’est le site principal qui est censé recueillir le consentement de ses “partenaires”, du coup les prestataires de pub ne s’embêtent pas, ils fournissent d’énormes listes à intégrer aux popins, et il faut se débrouiller avec ça.
C’est un peu la grosse arnaque de l’application du règlement, toute la mise en conformité technique repose sur sur l’opérateur final, qui bien souvent ne tracke rien, au lieu de reposer sur les intermédiaires qui siphonnent la donnée. Eux n’ont rien à faire à part fournir des listes des cookies qu’ils posent…
Bref, sorry pour le pavé, la gestion de la conformité RGPD de différentes plateformes web fait partie de mon quotidien, et c’est source de nombreuses prises de têtes ^^”
Le 14/06/2021 à 14h39
Évidemment je parle de risque financier, parce qu’on parle de plateformes commerciales.
Elles ont été indisponibles 1h, ce qui est largement dans les marges de tolérances. Améliorer la disponibilité, ce n’est pas une opération linéaire en termes de coûts, c’est une exponentielle, les derniers pouillèmes de pourcent à eux seuls sont plus chers que quasiment l’ensemble de la couverture précédente.
Je travaille dans une très grosse boîte et j’opère un grand nombre de sites e-commerce. Nous avons un contrat avec un seul CDN, et un prestataire cloud pour l’infra. Évidemment tout est backupé dans plusieurs data centers (et tous les sites ne tournent pas dans le même) et nous avons une procédure, testée, qui nous permet de tout remonter si ça plante.
Mais ce remontage se fait forcément “à froid”, on a donc un incompressible de 1 à quelques heures pour retrouver une activité dans le cas où un datacenter aurait sauté.
Le seul moyen pour battre ce gap de dispo, ce serait de pouvoir remonter “à chaud”, et donc d’avoir un full miroir toujours up, dimensionné pour encaisser le pic de transition de tout le traffic si nécessaire. Ça reviendrait à augmenter nos coûts d’infra d’un bon 50%, juste pour gagner 1h ou 2 dans le rare cas où on aurait un datacenter qui chute. (c’est arrivé une fois en 7 ans)
Pour des sites de vente en ligne.
J’ai vraiment besoin d’expliquer en quoi ce serait absurde de mettre une telle débauche de moyens (ça cuberait en millions d’euros) pour un gain de dispo aussi ridicule ? (1h de dispo gagnée sur 7 ans…)
Un bon modèle de risque est un modèle qui reste réaliste par rapport à la criticité des services considérés. Est-ce flouer mes utilisateurs de m’autoriser la possibilité d’un downtime ? Je ne pense pas.
Évidemment, si j’opérais l’infra du réseau électrique, des services hospitaliers ou des numéros d’urgence (hem…), le modèle de risque serait entièrement différent.
A mon sens la position que tu sembles défendre comme quoi tout service quel que soit sa nature devrait à ses utilisateurs une dispo 100% à tout prix n’a pas de sens, ce serait juste un gaspillage de ressources monstrueux.
Pour une plateforme commerciale non-essentielle, il est tout à fait normal d’intégrer le risque de dispo dans le cadre financier.
Pour un service essentiel, la disponibilité devrait primer, mais ici ce n’est pas le contexte.
Le 09/06/2021 à 13h23
Pour nom / prénom / date de naissance, ce n’est pas tant le fait de les exposer que le contexte qui va avec. La personne qui va scanner ton QR code obtient ces infos avec en complément le lieu où tu te trouves quand tu scannes et la date. (en gros la même chose que si tu scannais un titre de transport nominatif, un billet d’entrée pour un spectacle ou une carte de fidélité, sauf que là tu n’as pas consenti à un usage de la donnée)
Comme toute l’info se trouve dans le QR (pour rappel, le pb ce n’est pas l’appli, c’est le fait que les infos soient en clair dans le QR, l’attestation papier a le même pb), rien n’empêche le terminal qui scanne de les extraire et de les stocker en plus de vérifier le passe. (car un terminal peut très bien exécuter plusieurs applis, c’est pas parce que l’appli TousAntiCovid-Verif ne stocke rien que le device est clean).
Après ce serait bien évidemment illégal, mais l’illégalité n’est pas une protection a priori.
Pour la donnée de vaccination, je ne vois pas forcément d’exploitation dans le cas “standard”, après par ex si tu as été vacciné plus tôt que l’ouverture de ta classe d’âge, ça va indiquer que soit tu fais partie d’un métier prioritaire, soit tu as bénéficié d’une dose de rab qu’il ne fallait pas perdre, soit tu as une comorbidité, soit tu as fraudé. (sans possibilité de trancher entre les possibles). Difficile d’estimer la valeur/le risque d’une telle info, ça dépend qui la récupère et pourquoi. Je suppose que si j’avais une comorbité, je n’aurais pas forcément envie qu’une assurance le sache par ex.
Après même si je vois mal une exploitation de tout ça à grande échelle se mettre en place, ça reste dommage d’avoir donné la possibilité.
Le 09/06/2021 à 10h49
Je te trouve bien catégorique. Ces sites n’ont jamais affirmé nulle part garantir un uptime. Les contrats entre grosses boîtes (puisque tu parles spécifiquement des “plus gros sites web”) et gros fournisseurs impliquent en général des SLAs et assurances complémentaires pour couvrir les pertes d’exploitation, c’est aussi une façon de gérer le risque. En l’absence d’accès à l’administratif des entreprises touchées, rien ne permet d’affirmer que ce downtime ne fait pas partie de leur modèle de risque acceptable.
J’ai l’impression que tu confonds “gérer les risques” et “assurer une disponibilité totale”. Mais ça n’a rien à voir. Tant que la durée de dowtime coûte moins cher que ce qu’il aurait fallu pour l’éviter et reste dans une fourchette anticipée, le risque est géré correctement.
Le 29/04/2021 à 12h50
Bah en fait, c’est pas ultra fun ^^” youtube est censé fournir pour les vidéos embedded un “enhanced privacy mode” avec un domaine dédié “youtube-nocookie”. Sauf que dans les faits, les intégrations via ce domaine font quand même des trucs bizarres (stocker des identifiants dans d’autres stockages du browser, stocker quand même un cookie pas au load mais au clic sur play) dont personne n’est sûr que ce soit vraiment conforme RGPD. Et le module embedded lui-même ne demande pas de consentement.
La doc de ce privacy mode se garde bien de dire s’il est conforme RGPD ou non (ce serait trop simple), et se contente de dire que quand il est utilisé, google n’utilise pas de cookie pour personnaliser l’expérience de visionnage et de recommendation. Donc ils n’excluent pas l’utilisation d’autre chose que des cookies, ni l’utilisation de cookies pour d’autres usages (par ex, collecter de la donnée pour de la pub)
(voir ce lien en anglais avec tous les détails techniques à ce sujet: embed youtube videos without cookies )
Du coup, ça fait des expériences du type de ce qui est sur le site de la CNIL, dans le doute, un gros placard à la place de la vidéo, et on ne charge rien en provenance de Youtube tant que l’user n’a pas fait une action pour.
Là où je bosse, on nous a signalé justement un problème de conformité potentiel la semaine dernière, mais personne ne sait si on doit aller aussi loin que la CNIL ou non… Sachant qu’on gère des marques qui mettent parfois des vidéos en page d’accueil de leur site, les discussions sont funky (avec évidemment personne qui veut se mouiller en prenant une décision ferme et définitive)
LE RGPD et ses directives à interprétation variable, ça va faire longtemps la fortune des cabinets d’audit et des fournisseurs de solution de conformité tant c’est l’enfer quand il y a des chaines de responsabilités entre acteurs et des choses qui viennent se cacher dans des détails techniques.
Le 26/02/2021 à 11h05
Les produits dropshippés sont bien souvent des trucs très génériques (une montre, des écouteurs, etc.) auxquels ils vont créer une fausse image de marque via le site web, avant de payer des “influenceurs” sans trop de scrupules pour promouvoir le truc à leur communauté.
L’idée c’est la même que pour le spam, taper large, chopper un max d’acheteurs crédules, se tirer avec la caisse.
A noter qu’ici, ce qui est vendu l’est souvent au prix qu’aurait un article similaire (mais de bonne qualité), donc les comparaisons ne vont pas apporter grand chose. Là où réside le piège c’est qu’il s’agit en réalité de merdouilles à littéralement 2 balles, et qui seraient parfaitement achetables en ligne au vrai prix si le consommateur pouvait trouver le produit source.
C’est donc essentiel dans ces cas là de pouvoir retrouver le produit de base.
On ne parle pas ici de cas légitimes de délégation de chaine logistique, on parle de gens qui dropshippent des trucs qui viennent d’une autre plateforme de vente en ligne qui vend déjà au detail.
Le 25/02/2021 à 17h33
C’est souvent là que ça pose souci, les dropshippeurs changent les noms des produits et ne donnent pas leurs identifiants internationaux (type UPC, EAN, GTIN etc.) (pour peu que le fabriquant en ait bien donné déjà), ce qui rend la comparaison difficile pour l’utilisateur lambda, car il ne peut pas trouver avec quoi comparer. Le baratin en description laisse souvent peu voire pas de mots clefs discriminants.
Le meilleure pari c’est souvent de faire une recherche d’image inversée, mais même là les templates de sites utilisés emploient parfois des scripts pour désactiver les clics droits (facile à contourner quand on connaît le web, mais quand on connaît le web et qu’on est méfiant, on n’est de toute façon pas vraiment la cible visée)
C’est là qu’on est au borderline du légal.
Une “simple” obligation de fournir de manière bien visible les codes produit fournis par les fabriquants pourrait déjà aider à différencier plus facilement le dropshipping “légitime” de celui qui vise juste à encaisser de la marge sans ajouter de valeur.
Le 19/02/2021 à 19h05
Heu, alors moi avant de chercher à critiquer j’ai ouvert le lien, juste après le sommaire il y a un gros graphique récap’ des données, absolument inratable, et ce graphique comporte, bien visible, une section “car production” et une section “battery production”.
Si on ouvre le pdf et qu’on rentre dans le détail et les différents matériels et méthodes, on peut lire dans la section sur les batteries par ex, que sont prises en compte les émissions à la manufacture avec quatre scenarii pour les mix énergétiques de différents pays: europe moyennes émissions, europe basses émissions, europe hautes émissions, et chine. Sont également prises en compte les émission upstream (minage et raffinage), avec l’hypothèse que les techniques ne vont pas évoluer vers des méthodes plus propres en 10 ans…
En gros, tu prends pour des jambons ceux qui écrivent le papier (qui, eux, sont des experts du sujet qui ont bossé dessus…) sans prendre la peine de lire la source…
Le 18/02/2021 à 15h56
En vrai c’est pas tant la méthode d’acquisition qui est douteuse que la façon dont c’est présenté par Epic en mode “tout ça c’est pour les devs, nos motivations sont altruistes”
Si on regarde le marché pré-Epic:
steam: prend des commissions salées, politique de soldes agressives qui poussent les joueurs à les attendre et dévalue les marge devs, lock-in. Visibilité qui diminue pour les petits éditeurs car car “vieux” store avec énormément de choix. Amène un paquet de features tant aux devs qu’au qu’aux users. (perso il y a des trucs que j’achète sur steam uniquement parce que je veux le remote play par ex)
gog/itch.io, pas feature-rich, petite commission, pas de lock-in, positionné sur les créneaux indep/respect du dev et de l’user
xbox/PS/Nintendo/Apple/Google, pas feature rich, mais profitent de la position d’éditeur de plateforme
du spécifique ubi/EA/Square Enix, un peu osef
Du coup, quel positionnement marché il restait pour un acteur qui débarque avec aucune feature différentiante à proposer, mais une montagne de cash, et qui a en plus une position d’éditeur de jeu et de moteur (comme Valve en son temps)?
-en remettant sa casquette éditeur, attaquer les stores console/mobile sur le terrain de la réputation pour leur forcer la main sur les commissions en capitalisant sur l’image créée aux étapes d’avant, sa user base et les éditeurs qui utilisent son moteur (attention, je ne dis pas qu’ils aient tort sur le fond, les stores plateforme-specific, ça pose à mon sens de vrais soucis, ce qui n’empêche pas que ça arrange bien la stratégie d’Epic de pouvoir pousser là-dessus)
On a donc une bonne grosse stratégie de prise de position en force sur un marché par (et pour) le pognon, capitalisant sur la bonne image de Tim Sweeney dans l’industrie (note: je ne remets même pas en cause sa bonne foi, il est très possible qu’il s’aveugle de ses bonnes intentions pour ne pas voir le cynisme total de la situation) et vendu dans un emballage “bonne conscience” pour faire croire que les exclus epic, c’est pas un lock-in comme les autres plateformes, nan là c’est pour le bien de l’industrie.
Je sais bien que c’est comme ça que ça se passe dans le grand casino des marchés néo-libéraux, ça donne quand même à chaque fois envie de de mettre des baffes à ceux qui étalent leur hypocrisie de cette façon.
Le 04/02/2021 à 12h50
:)
Le 29/01/2021 à 12h30
Je ne comprend pas trop la formulation “ordinateur” utilisée ici. C’est pour faire référence aux disques durs internes ? (en opposition aux externes qui sont déjà taxés)
Le 15/01/2021 à 11h20
Oui, c’est compliqué. On n’est plus à l’époque où il suffisait de booster “le serveur” et croiser les doigts, chaque service mis en ligne est généralement lui-même une infra de plusieurs éléments, qui va également se reposer sur d’autres services. Tous ces éléments doivent tenir la charge, et pas juste les frontaux web (qui sont d’ailleurs rarement le bottleneck car les infras cloud modernes permettent de les multiplier facilement)
Normalement, ce qui se fait, c’est de mettre en place une copie la plus complète possible de l’infra de prod (rien que ça ça peut être compliqué dans certains contextes) pour ensuite réaliser des tests de montée en charge avec différents profils de trafic et corriger tous les soucis qui se présentent.
Je suis dans la division ecommerce de ma boîte et on fait ça tous les ans pour être sûr qu’on va tenir sans souci les périodes de fêtes/soldes. (spécialement cette année où avec le covid on a dû réviser nos estimations de trafic à la hausse. Sachant qu’on est présents aux US, donc faut encaisser le pic du black friday)
Le truc, c’est d’une part qu’un goulot d’étranglement peut très vite arriver (il suffit parfois d’une ligne de code ou de config pourrie), a fortiori sur une solution qui n’a encore jamais connu ses conditions d’utilisation réelles. Si tu ne fais pas le test, il y a de fortes chances pour que tu penses avoir prévu large, mais qu’en fait un maillon faible oublié te mette dedans.
D’autre part, préparer, faire ses tests de charge proprement et corriger les soucis, c’est (parfois très) long (par ex, notre campagne de préparation cette année a pris deux mois complets), or on est actuellement dans un contexte où toutes les deadlines sont systématiquement ultra serrées, il y a forcément des étapes du cycle de développement qui sont allégées ou carrément sautées.
Du coup personnellement je ne suis pas surpris que ça tombe, et je n’aimerais pas être à la place des équipes qui bossent sur toutes ces solutions autour du covid, parce que ça ne doit pas beaucoup se reposer.
Le 09/01/2021 à 10h00
Tu vois, tu continues : j’écris un truc, tu y lis tout un tas de choses que personne n’a dit, sauf dans ta tête. Et tu continues à confondre “neutre” et “honnête”, ce qui montre bien que tu ne sais pas de quoi tu parles.
Est-ce que j’ai écrit qu’il n’y a “aucune” responsabilité individuelle ? Non. J’ai écrit que la responsabilité individuelle n’a rien à voir avec la neutralité, et que ton focus dessus te faisait mélanger à tort les notions de neutralité et d’intégrité.
Est-ce que j’ai écrit que l’honnêteté et le sens de la justice n’existaient pas ? Non plus.
Est-ce que j’ai écrit que les médias étaient “des pieuvres non composées d’individus” ? Toujours pas. J’ai écrit que l’appartenance à un groupe modifie, oriente le comportement des individus, tout comme le font leurs origines ou leur vécu. Ce qui n’a toujours rien à voir avec des questions d’honnêteté ou d’intégrité.
On est tous orientés, et on produit des discours qui le sont, qu’on le veuille ou non. Ce n’est pas “mon” monde, ça s’appelle juste être humain.
Faut redescendre sur terre, et surtout arrêter d’inventer des trucs que les gens n’ont pas dit juste pour pouvoir les désapprouver, à ce stade c’est même plus de l’homme de paille, c’est vivre dans un fantasme.
Le 08/01/2021 à 13h52
C’est clairement lourd ça, d’autant que la première action des outils de pentesting c’est généralement de repérer toutes les applis accessibles et de balancer un bon bruteforce/attaque par dico sur le login “admin” et ses variantes connues.
Le 08/01/2021 à 13h02
La neutralité, ça n’existe pas. On fait tous des choix, et ces choix sont biaisés, consciemment ou inconsciemment. Nos idées, nos “valeurs”, notre milieu social, notre expérience personnelle, tout cela oriente fatalement notre discours.
Source: à peu près l’intégralité du corpus de sciences humaines…
De plus, on a tendance à se regrouper autour d’un lot “valeurs” communes, et à tenir des propos conformes aux attentes de la communauté à laquelle on se sent appartenir et à l’image que l’on veut renvoyer de soi. Source: toujours pareil.
D’ailleurs ton post est un bon exemple, quelqu’un dit qu’un média neutre, ça n’existe pas, et directement tu modifies le propos d’origine pour introduire “tout le monde à part toi” => je n’ai pas vu le commentateur s’exclure spécifiquement. De plus, le sujet c’était les médias, donc des institutions, et non des individus. Ce n’est pas la même chose. (source: à peu près l’ensemble du corpus de sociologie)
De plus, tu modifies également le sens d’origine pour attaquer un homme de paille grossier. Du média “non neutre” d’origine, ce qui ne fait pas de présupposé quand à l’intentionnalité de l’orientation dudit média (or la plupart des biais sont inconscients, il ne suffit pas de vouloir être neutre pour l’être effectivement, cf plus haut), tu passes à “corrompu ou malhonnête”, ce qui est une modification drastique du propos de base. C’est un faux dilemme, une réduction artificielle des alternatives. Ce n’est pas parce qu’on dit qu’une chose n’est pas neutre qu’on réduit les possibilités à “corrompu ou malhonnête”.
Du coup je me dois de te retourner ta question: ta déformation du propos de base, tu la fais parce que tu es corrompu, ou malhonnête ? Ou est-ce qu’il n’y aurait pas une autre raison, du genre un biais à vouloir tout ramener à de la responsabilité individuelle en niant l’influence inconsciente du contexte ? Ou est-ce que juste, tu trolles d’abord, et tu réfléchis après (ou pas d’ailleurs) au sens des mots ?
Le 08/01/2021 à 11h54
Plussoiement !
Ce que je trouve également intéressant ici, c’est la façon dont la section description/objectifs de la cagnotte et son historique sont utilisés comme équivalent aux termes, liants, d’un contrat, ainsi que la façon dont le jugement remonte à la version originale .
ça parait anecdotique, mais c’est une pierre ajoutée à la jurisprudence plus large autour des financements participatifs, et cela peut modifier la façon dont les acteurs structurent leur processus de validation.
Il reste encore pas mal de boulot d’encadrement autour de ces usages à la démocratisation relativement récente.
Le 06/01/2021 à 12h04
Ça doit être un truc à la pokemon go, où il faut se déplacer physiquement pour jouer (et donc être libre de ses mouvements et de se réunir)
Le 17/12/2020 à 11h47
J’ai quasi 60h de jeu, en VF, avec un V masculin.
J’ai trouvé les doublages VF globalement bons, à l’exception malheureusement de mon perso, qui se retrouve souvent au sein d’un dialogue à balancer une ou deux phrases dont le ton est en décalage par rapport à l’ambiance, comme si le doubleur avait enregistré une ligne en n’ayant que la phrase elle-même à disposition et pas son contexte. ça arrive surtout quand le perso est censé faire de l’ironie, et ça m’a pas mal fait tiquer.
Si j’ai la foi je referai peut-être en version féminine pour comparer.
Pour ce qui est de l’authenticité, je vais dans ton sens, pour moi ça colle, surtout si on prend en compte le fait qu’on est dans cyberpunk, un univers fantasmé qui a sa propre culture inventée plaquée par-dessus une culture américaine extrapolée au futur. A partir de là, qui peut dire ce qui est “authentique” ou non ?
Là où j’ai régulièrement l’impression de perdre quelque chose avec les VF, plus que l’acting c’est souvent la traduction. Il y a pas mal de références ou jeux de mots qui se perdent (dans la mesure où on connais suffisamment la culture initiale pour les comprendre, évidemment). Mais c’est quelque chose d’inévitable, les cultures et les langues ne sont pas des choses superposables et les équipes de traduction doivent faire des choix peu évidents.
Le 25/11/2020 à 14h08
Je trouve que tu t’avances beaucoup en affirmant que c’est “la meilleure des décisions possibles”.
La vérité, c’est qu’on ne sait pas. Le gouvernement prend ses décisions sans partager ni les chiffres sur lesquels il se base, ni les impératifs qu’il prend en compte avec leur degré de priorité, ni les compromis qu’il fait. C’est l’opacité complète. “Conseil de défense” => secret défense.
Si le couvre-feu était efficace, pourquoi avoir dû choisir de confiner ensuite ? Parce que la mesure avait été prise trop tard ? Pourquoi si tard du coup ? On ne sait pas.
Personnellement, c’est ça que je qualifie de mauvaise gestion de crise de la part du gouvernement, pas tant pour les mesures prises ou non (quoique je reste convaincu que pour le télétravail, ne pas avoir été foutu de légiférer pour mieux l’encadrer et le favoriser, alors même qu’on dépense le temps des parlementaires sur des bouses comme Avia ou le projet sécurité, c’est une erreur monumentale faite par pure idéologie néo-libérale), mais pour l’opacité: ça laisse la porte ouverte à toutes les interprétations, y compris les plus farfelues, ça divise, ça ne permet pas de résoudre les contradictions apparentes et ça fusille l’acceptabilité des mesures parce qu’on n’a pas les données pour jauger. On est censé fonctionner à la confiance pure, alors même que le gouvernement n’en inspire aucune.
On est quasiment forcés de se dire que si le gouvernement refuse de débattre en transparence des choix qui sont faits et des objectifs visés par ces choix, c’est que les objectifs et compromis ne seraient pas acceptés par la population. Ou qu’il ne sait en réalité pas ce qu’il fait, et joue autant au Nostradamus que nous. Ou, si on décide de lui faire confiance, on va aller rationaliser à partir de ce qu’on pense être le compromis, boucher les trous soi-même, comme tu le fais sans en savoir plus que les autres. Pourquoi craindre de partager les CR de réunions décisionnaires et les supports de données, si on n’a rien à cacher ?… Ironiquement, c’est le gouvernement lui-même qui propage cette idée de “aucun pb pour vous surveiller si vous n’avez rien à cacher” pour passer ses propres lois sécuritaires…
Tout ça pour dire, on ne sait pas si les mesures sont bonnes ou non, bien faites ou non, ni surtout pour quelles raisons elles sont prises. Jouent au Nostradamus aussi bien ceux qui les contestent en bloc que ceux qui les approuvent sans réserve.
Le 23/11/2020 à 12h40
On n’a clairement pas fait les mêmes manifs. J’ai toujours fait partie de groupes non-violents, et nous avons été nassé.es, matraqué.es, gazé.es. Certain.es ont été choppé.es par les groupes d’intervention en frange de manif, frappé.es, placé.es en gàv. D’autres ont pris des flashballs. Perso j’ai eu de la chance, je n’ai été “que” matraqué. Il m’est aussi arrivé, après une manif, de passer à côté d’un car de CRS en rentrant chez moi (allure et vêture normale, pas de masque, lunette, rien, je venais juste de la direction de la manif’), et qu’un des flics me balance un coup de gazeuse, gratos.
Je devrais me sentir protégé par la police, au lieu de ça, quand j’en croise, je change de trottoir et je passe au large.
Le 19/11/2020 à 16h01
Désolé, mais tu as une vision un peu trop simpliste de ce que tu appelles “l’économie de base”.
Le prix d’un bien (hors taxes) se décompose grossièrement en coûts de R&D + coûts de fabrication/distribution + coûts marketing + marge.
Ces différentes composantes ne sont pas nécessairement égales à la conversion près dans tous les pays. Cela dépend fortement de la façon dont l’entreprise gère son positionnement sur le marché et de la façon dont elle redistribue (ou non) les coûts et bénéfices entre ses filiales locales.
De fait, il est fréquent de trouver des tarifications différentes d’un même bien entre pays, voire au sein d’un même pays. (l’entreprise va par ex réduire sa marge pour entrer sur un marché où des concurrents sont installés, pour honorer des accords de distribution avec un partenaire, pour la vente de gros, parce que la législation d’un pays impose des normes différents, etc.) Les grossistes sont un bon exemple, ils négocient des tarifs inférieurs au prix de la vente directe en achetant de grosse quantités, pour ensuite distribuer et revendre. Pourtant, les prix de revente finaux sont souvent équivalents, alors que nulle part le produit n’a coûté “moins cher”. Ce n’est “que” du jeu de marge (avec “que” entre guillemets parce que l’équilibrage est complexe).
Ces différences de prix entrainent ce que l’on appelle “marché gris” (achat là où le produit est moins cher pour revendre là où il est plus cher. ), qui est une des problématique très classique des entreprises qui vendent des biens internationalement, avec différentes stratégies de “contre” (lissage des prix, contrôle des rabais offerts aux grossistes, passage par des revendeurs avec exclusivité, limite de quantité achetable en une fois…)
Par ex, sur des produits fabriqués en Chine, qu’anagrys prenait comme exemple, on pourrait très bien considérer que les prix devraient être inférieurs sur place, car pas de transport international. Or les entreprises fabricant ces produits ont fait le choix de lisser leurs prix entre les pays. (ce qui n’est pas sans coût, il faut transférer les capitaux internationalement pour compenser, et potentiellement réduire le nombre de consommateurs qui pourront se procurer le produit dans certaines zones où les moyens sont plus bas mais où il serait possible de conserver une marge). Conclure que ce lissage de prix vise à contrer le marché gris n’est pas forcément l’explication complète, mais ça se tient.
Note: je ne sors pas les explications de mon fondement, je bosse dans le commerce international de biens :)
Le 28/10/2020 à 19h41
Un souci bien présent qui freine le télétravail et que je vois peu mentionné, c’est l’état actuellement inadapté de la législation hygiène et santé au travail pour le télétravail.
Service Public
Tant qu’il y aura risque pour les employeurs que des accidents domestiques (énorme proportion des dommages à la personne, proba hyper élevée) se retrouvent qualifiable trop facilement en accident du travail, les boîtes traineront les pieds car grosses primes d’assurances.
Actuellement, on n’y est pas.
“L’accident survenu sur le lieu où est exercé le télétravail pendant l’exercice de l’activité professionnelle du télétravailleur est présumé être un accident de travail.”
Je ne dis pas qu’il faut 100% dédouaner l’entreprise (ça dépend du poste et du matériel impliqué), mais il faudrait clairement faire mieux que ça.
Dans une grosse entreprise, ce ne sont pas les “petits chefs” qui font la loi, si on vous refuse le télétravail, c’est qu’au niveau plus haut, il y a un risque financier identifié. (et dans une entreprise qui pilote proprement ses dépenses/revenus, ça se sait que le télétravail ne baisse pas la productivité) ^^”
Le 28/10/2020 à 13h04
Bon, ma vieille 970 achetée peanuts en 2016 commence justement à bien attendre ses limites, même en 1080p, je vais commencer à regarder si la 3070 pourrait se caler dans ma tour… :)
Le 23/10/2020 à 00h01
Ah mais je n’en doute pas une seconde ! Je ne découvre pas le fonctionnement d’un appel d’offre, j’ai été appelant comme répondant ;)
Je signalais juste que cette déclaration très vertueuse d’apparence comporte ce trou béant bien visible dans sa formulation.
Or, vu comme ce même trou est exploité depuis Mathusalem en informatique, et en particulier pour esquiver les boîtes spécialisées dans l’open source (un peu le thème de la news donc ^^“), je trouve ça drôle dans le contexte.
Le 22/10/2020 à 12h03
En fait, le plus souvent, ce sont les devDependencies qui sont massives, avec tous les outils de test/lint/build/optimisation du projet pour travailler from source. D’autant que la reco a longtemps été (et est peut-être encore d’ailleurs) de fixer les versions attendues de ces outils et d’en faire une install par projet (pour éviter les soucis de build dépendants du setup individuel des devs)
Mais ce n’est généralement pas ce qu’on va déployer sur les serveurs à la fin ( et heureusement xD ).
Pour essayer de réduire un peu cet effet, les gros frameworks viennent de plus en plus avec leur propre client en ligne de commande, que tu installes hors du projet et qui contient toute la machinerie de build (ce qui est très bien tant que tu utilises la même build suite que le framework)
Après, garder sous contrôle les dépendances externes du projet en lui-même, c’est un travail permanent d’audit, de revue, et de construction de bonnes habitudes, mais ça se fait.
Le 22/10/2020 à 09h55
Les solutions open source seront privilégiées lorsqu’elles sont équivalentes en matière de fonctionnalités, de coût total et de cybersécurité
C’est déjà ce principe là qui permet actuellement d’esquiver l’open source en formulant le cahier des charges de façon à ce que seuls certains acteurs puissent répondre (en incluant des fonctionnalités “exclusives”, ou en jouant sur les coûts d’intégration avec des rabais offerts par les gros éditeurs que d’autres ne pourront pas se permettre…)
La formulation, c’est important. ^^”
Le 15/10/2020 à 19h05
En fait, le bureau de Versailles date d’une époque où Blizzard (d’origine US) appartenait majoritairement à Vivendi (FR) suite à des rachats de boîtes US qui avaient les parts. Puis la filiale jeux de Vivendi a fusionné avec Activision (US) (en continuant à appartenir majoritairement à Vivendi), puis encore plus tard (2013) Activision à racheté le contrôle.
C’est compliqué parce que Blizzard est contrôlé depuis longtemps par des investisseurs qui se rachètent/fusionnent/scissionnent, font parfois eux-mêmes partie de groupes, et n’ont pas les mêmes stratégies/management.
Après, je n’irai pas généraliser sur le fait que ce soit spécialement les boîtes US qui délocalisent, Vivendi n’était pas plus altruiste que ne l’est Activision, mais étant d’origine FR ça les arrangeait probablement de maintenir une présence en France.
Le 13/10/2020 à 20h44
Vuip, je sais que ça existe, ce que je dis c’est que je trouve anormal de vouloir refonder le mode de financement sans rediscuter d’abord le cahier des charges. Parce que pour moi ce sont des choses qui sont forcément liées.
Ne faire payer que ceux qui (potentiellement) “consomment” le service n’a pas tout à fait les mêmes implications que faire payer tout le monde.
Le 13/10/2020 à 10h36
Le pb c’est qu’on ne devrait pas se focaliser sur la question de la redevance, qui n’est que le tout dernier maillon de la chaine.
Les points de base sont:
Et à partir de là, c’est le cahier des charges qui va ouvrir la question des coûts associés, puis du financement. ça n’a pas de sens de changer le financement sans présenter le cahier des charges avec.
C’est une problématique complexe, et éminemment politique dans les choix à faire, pas un truc à règler à coup de petites phrases et d’avis à l’emporte-pièce, au détriment du fond :/
Le 07/10/2020 à 11h48
J’appel ici “social” et plus précisément “acquis sociaux” plus loin dans le texte des règles qui garantissent à tout un chacun un niveau de vie décent.
Ah ben oui, parce que dans les pays qui ont moins ou pas de règles de protection sociale, le niveau de vie est plus élevé et la pauvreté moins importante… Wait, ah ben non.
Et au pouvoir en France, on a des champions de la protection sociale… Wait, toujours pas, cf mon message précédent, on a des néo-libéraux qui vivent de la casse sociale et non l’inverse.
J’arrête là, j’ai bien vu que ton argumentaire ne dépasse pas le niveau “caricatural” option “troll néo-libéral”, aucun intérêt à discuter, c’est pas trolldi aujourd’hui.
Le 07/10/2020 à 10h50
Ces employés (et bien d’autres) « payent » la politique capitaliste libérale globale, qui est favorable au marché globalisé, qui pour sa part est réfractaire/hostile au social.
Faut arrêter de considérer comme “normal” que l’objectif des entreprises soit la maximisation du profit et la croissance, et qu’elles se barrent dès qu’elles peuvent aller exploiter du travailleur dans des pays sans protection sociale.
“une politique électoraliste à courte vue surprotégeant les salariés coûte que coûte”
heu… lol?
La politique depuis plusieurs mandats c’est de chercher à toute force à déprotéger (réformes successives des retraites, CPE/CNE, “loi travail”, réduction du nombre de fonctionnaires), ouvrir plus de marchés (privatisations massives), précariser (“uberisation” en abusant du statut d’auto-entrepreneur, durcissement des conditions d’accès aux aides sociales), ponctionner moins de recettes aux riches et grosses entreprises (cadeaux fiscaux en masse). Donc non, à moins de vivre dans une autre dimension, la politique “électoraliste” elle ne va pas du tout vers un renforcement de protection sociale. Les acquis sociaux ne tiennent (difficilement, et de moins en moins) que par les gros mouvements de grève successifs.
Le 22/08/2020 à 11h17
Pour tout ce qui est formattage de code (tab/espaces, alignement de params, saut de lignes après les conditions ou pas, etc. etc.), quand je bosse sur des projets qui ne sont pas les miens, j’utilise deux configurations de mon outil de formattage:
Résultat : je fais ce que je veux quand je code, et tout est aux normes attendues quand c’est soumis. :)
Le 11/08/2020 à 13h35
oui, après ça c’est “fourni” par la base library (tous les modules qui permettent l’accès aux fichiers ou au réseau ont une interface qui va soit prendre une fonction de callback en paramètre soit renvoyer un objet Promise). La base library fournit aussi un objet EventEmitter pour pouvoir faire ses events custom, ainsi que des mécaniques pour gérer les streams.
Et depuis un certain temps il y a également la syntaxe async (pour déclarer une fonction comme asynchrone, ce qui fait qu’elle renvoie automatiquement une promise) + await (pour indiquer un point où l’exécution nécessite le résultat d’un ou plusieurs processes asynchrone, et donc indiquer au main thread qu’il peut passer la main en attendant). Node suit les évolutions du langage JS.
Je ne sais pas où ça en est mais le comité technique avait fini par accepter d’ajouter des threads lights, donc quand ce sera finalisé (si c’est pas déjà le cas) ça changera encore probablement la donne et les recos.
C’est du cas par cas, et ça évolue. Au début de node, c’était pas mal conseillé, maintenant, on conseillera plutôt de mettre les traitements potentiellement bourrins dans leur propre process (qui vivra dans un pool, et sera appelé de façon asynchrone par le process qui reçoit les requêtes), ou de combiner les deux techniques. Tout va dépendre de la fréquence et de la criticité, il n’y a pas vraiment de cas général. Un autre souci étant que pendant longtemps, la pile d’exécution asynchrone était horriblement tracée (pas tracée en fait…), ce qui rendait le debug particulièrement atroce. C’est mieux maintenant avec async/await, mais il y a encore des cas pourris quand on mélange les différents constructs asynchrones.
ça va pas mal dépendre de la typologie de service ou d’application. Node est un process applicatif, pas obligatoirement un serveur http. Un process peut spawner des sous-process avec qui il partagera des ressources. Il y a un module “cluster” disponible de base qui permet un load balancing (round robin ou custom) intégré (https://nodejs.org/api/cluster.html). Donc sur des cas “simples” tout peut se gérer au sein d’un process node. Il y a des produits commerciaux qui font ça aussi. (et qui généralement vont aussi offrir le monitoring des processes, l’auto-restart, etc).
En fait il n’est pas rare de commencer la vie d’une appli en montant tous les endpoints sur un node en mode cluster, puis de mettre un système d’auto-scaling rudimentaire (plusieurs clusters + un load balancer), puis d’aller séparer les services pour mieux répartir la charge une fois qu’on peut mesurer avec du vrai trafic, etc. Le fait de coder “de base” pour le support du cluster fait qu’il devient relativement simple de réorganiser l’ensemble.
Mais là encore, on est sur des choses qui évoluent, avec le développement (relativement) récent des containers, du “serverless” (FaaS), des bases distribuées à la FaunaDB ou CockroachDB, etc, on peut s’attendre à ce que les best practices continuent de changer.
Le 11/08/2020 à 12h24
C’est un des inconvénients de node, c’est plutôt simple en apparence mais pour faire une prod performante, il faut respecter un certain modèle de déploiement, qui en retour impose des normes en termes de code. (sauf que le dev inexpérimenté ne les découvrira qu’après, quand il faudra deboguer la perf de sa prod, car le modèle de développement ne donne pas un cadre strict qui amènerait aux bonnes pratiques “naturellement”)
Comme il n’y a effectivement qu’un seul thread qui exécute le code js (en vrai il y a quelques autres threads de contrôle qui trainent), pour exploiter correctement la puissance dispo il faut
Le point 1 implique de bien connaître le fonctionnement de l’event loop de node (parce qu’en réalité tous les “events” ne se valent pas, il y a plusieurs priority queues en-dessous.), le point 2 implique de respecter des normes de code qui permettent de réorganiser facilement la chaine d’exécution (en rendant chaque endpoint métier le plus indépendant possible) de façon à pouvoir croître horizontalement sans souci.
Ce qui veut dire plus de complexité niveau architecture et plus de consommation mémoire.
Ce sont des points qu’il faut connaître à l’avance quand on veut se lancer dans un projet node avec un objectif de croissance. (ou juste quand on veut être sûr de tirer le meilleur parti de la techno).
Le 17/07/2020 à 10h18
Bah c’est le prolongement des chaines Youtube de tuto qui te vendent les produits utilisés dans les tutos avec des liens affiliés. ^^”
Le 17/07/2020 à 10h09
Bonnes vacances !
Le 06/07/2020 à 11h40
Wé enfin, Apple a proposé en commission que browsers et CAs s’alignent sur une limite d’un an, le vote a été contre, Apple a dit “on s’en fout on le fait quand même à partir de septembre 2020, donc si vous suivez pas tant pis”. La team Chromium a indiqué son full support, Mozilla est of course pour vu que ça va dans le sens de Let’s Encrypt.
A partir de là, les CAs ont un choix limité, s’ils ne s’alignent pas et que des clients achètent par erreur des certificats 2 ans qui se font rejeter, bah les clients se retourneront contre eux.
C’est probablement mieux pour les utilisateurs du web, par contre niveau méthode, c’est pas terrible. Tu ne t’engages pas à participer à une instance pour aligner les décisions si c’est pour ignorer les décisions quand ça ne va pas dans ton sens.
Le 24/06/2020 à 18h45
En fait, il faut remettre ça en contexte, à la base Electron c’est le core d’Atom, un IDE orienté technos web made in Github (avant le rachat par Microsoft).
Dans ce contexte là, (puis VS Code dans la lignée directe) ça faisait 100% sens, et ça n’avait rien à voir avec vouloir éviter des formations aux devs:
Il y avait donc un business case très fort pour ce type de solution.
Après, est-ce que c’était pertinent d’extraire le framework et de le mettre à dispo de tout le monde, et est-ce que toutes les utilisations qui en sont faites par des entreprises sont bien appropriée ? Il est probable que parfois oui, parfois non, c’est du cas et par cas et il faudrait voir les tradeoffs faits par chacun. (comme je n’arrête pas de le répéter à mes collègues: nous ne sommes pas Google, c’est pas parce que c’est bon pour eux que c’est bon pour nos problématiques.)
Le truc, c’est que ce type de solution, tout comme les PWA dans une autre mesure, ça répond à un vrai besoin, le fameux “write once, run anywhere” promis par Sun avec Java avant le rachat par Oracle. Il s’agit pour les boîtes d’essayer de trouver le moyen de garder la main sur le canal de distribution malgré la disparité des plateformes, tout en réduisant les coûts. (et oui, dans les coûts en question il y a la formation, la réputation et l’attractivité pour le recrutement, ne nous leurrons pas là-dessus) Et quand on tente de résoudre ça, on se rend vite compte que le seul moteur quasi ubiquitaire, c’est le combo V8+blink (évidemment, sauf sur iOS, parce qu’il en faut toujours un qui mette un verrou…)
On peut regretter que les innovations viennent des gros, mais ça coûte cher la R&D, et eux ils ont des piles de cash à mettre dedans ^^”
Le 24/06/2020 à 12h42
Hello,
Alors Electron c’est un système pour builder des applications qui combine
ça permet de faire des applis en utilisant des technos web, tout en étant en mesure de les builder et de les déployer vers à peu près tous les systèmes sur lesquels on peut faire tourner chromium et node.js… Soit beaucoup
Ceci dit, les détracteurs avancent différents arguments plus ou moins recevables:
- Il y a les gens qui n’aiment pas javascript et diront que ce n’est pas fait pour faire de l’applicatif et qu’il faut arrêter d’étendre les usages du langage. Je mets cet argument en premier pour l’évacuer parce que pour moi c’est de l’ordre de la querelle de paroisse et des gens qui veulent conserver leur pré carré, souvent avec une pointe de crainte en voyant les mêmes technologies devenir de plus en plus universelles (peur de voir se dévaluer certaines compétences spécialisées par exemple, ou d’un “nivelage par le bas” du milieu du développement chez ceux qui n’ont jamais considéré les développeurs web comme de “vrais développeurs”)
- Il y a ceux qui n’aiment pas la façon de faire une UI en techno web. Les goûts et les couleurs…
- Il y a l’argument de la performance: Même si JS tourne bien, on peut faire mieux avec un langage compilé, et parfois encore mieux en allant faire des optimisations obscures à la mano. Dans l’absolu, c’est vrai. Maintenant est-ce que toutes les applis sont CPU/GPU-intensive au point d’avoir besoin d’aller dans le low level? Comme toujours avec les sujets perfs, c’est très cas-par-cas, et le mieux est parfois l’ennemi du bien. D’autant plus que node.js permet d’écrire des modules en C++ au besoin.
Le 03/05/2020 à 12h10
Ah mais oui, je suis complètement d’accord. C’est de toute façon tout à fait normal que la chaîne de distribution en ait pris un coup dans le contexte et qu’il y ait un peu de lag.
Même pas besoin d’invoquer les peurs et comportements excessifs pour l’expliquer, clairement passer d’une situation où on mange au taf (ou à l’école) et où y a pas de problème à faire un plein de course hebdo + un peu de ravitaillement en continu à une situation où c’est “tout le monde chez soi” et où on incite à sortir le moins possible (et donc à se faire un stock suffisant pour 7⁄10 jours sans réappro), ça change la conso.
D’ailleurs ce n’est pas uniquement l’approvisionnement du stock magasin qui est touché, mais aussi (et surtout, peut-être) la mise en rayon. Quand les caddies sont tous plus gros qu’à l’habitude, les rayons se vident même si tu as du stock, et le commerce n’a pas forcément les moyens d’aller aussi vite à remplir que les clients à vider.
Je voulais juste souligner qu’en général, quand les gens disent “les prix ont augmenté”, ils font référence au prix qu’ils paient pour leur panier moyen, pas au prix individuel des produits, qui peut être un facteur explicatif mais n’est pas le seul.
Le 03/05/2020 à 02h09
Le 03/05/2020 à 01h22
Le 03/05/2020 à 01h08
Le 01/05/2020 à 16h59
Le 01/05/2020 à 14h40