votre avatar Abonné

FennNaten

est avec nous depuis le 6 octobre 2008 ❤️

140 commentaires

Le 16/09/2024 à 19h 01

Alors, pour l'histoire des touches, ça n'a rien à voir avec Unity, qui fournit aux développeurs un système de gestion des entrées (en fait, deux) supportant la reconfiguration et les paramètres régionaux. Et le web ne manque pas de ressources expliquant comment le gérer, voire de code tout fait.
Le souci est plutôt à chercher du côté des devs qui ne réfléchissent pas toujours aux problématiques d'accessibilité, surtout pour des demos.

La popularité actuelle de Unity s'explique assez bien historiquement, par son focus sur l'accessibilité et le cross-platform qui a permis à beaucoup d'indépendants de se lancer sans avoir à connaître trouzmille SDK et langages. La base utilisateurs a gonflé, du coup il y a eu énormément de tutos, contenus, kits de démarrage, amenant encore plus d'utilisateurs, etc. Ça n'est pas surprenant de choisir un moteur éprouvé, bourré de fonctionnalités, sur-documenté, avec une grosse communauté et une version gratuite.

Unreal est meilleur que Unity sur la perf 3D (et heureusement j'ai envie de dire parce que c'est son focus principal), mais pas de beaucoup. Par contre il est derrière côté 2D et plus intimidant d'accès. Beaucoup de devs commencent avec de la 2D (donc plutôt Unity), et il leur est plus simple de garder le même moteur quand ils passent à la 3D plutôt que de se reformer. Surtout qu'avant d'avoir besoin du côté "pointu" d'Unreal, faut avoir un jeu sacrément ambitieux.

Après bien sûr il y a plein d'alternatives, open source ou non, payantes ou non, et à chacun de voir en fonction de ses compétences, moyens, objectifs et valeurs. Un programmeur chevronné qui veut aller bosser sur des jeux AAA ne va pas aller vers les mêmes outils qu'un game designer ne sachant pas coder qui voudrait faire des petits jeux de jam pour se faire la main. ;)

Le 13/08/2024 à 15h 36

après ce délai, toute personne qui souscrira un nouvel abonnement depuis l’application Patreon pour iOS verra par défaut une formule 30 % plus chère, pour compenser les 30 % prélevés par Apple.
Attention, les pourcentages c'est souvent trompeur ^^"
Si le but c'est de compenser totalement le prélèvement d'Apple, alors l'augmentation doit être plus élevée que 30%.
Si j'augmente 100 de 30%, ça fait 130. Mais si je réduis 130 de 30%, ça ne fait plus que 91.
Il faut augmenter d'environ 43% un prix pour compenser une ponction de 30% sur le résultat final. Si Patreon n'augmente que de 30%, ce sera encore à perte pour les créateurs et pour eux.

Le 07/12/2023 à 23h 52

Je pense pas qu'il faille forcément y voir le mal, pour les gens qui ne sont pas du métier c'est difficile de se rendre compte de ce qui est vraiment complexe et de ce qui ne l'est pas, et souvent dans la tête des néophytes "gros volume" = "ça doit être super compliqué".
Alors qu'ici, ça peut en réalité être complexe de savoir quel prix un seul client donné va payer à un instant T pour un seul produit (par ex avec la joie des promos en pourcentage et des coupons, on peut rapidement avoir des cas moisis de moteurs mal paramétrés qui vont donner des prix différents en fonction de l'ordre d'application de plusieurs promos).
Alors qu'en effet, même sur des volumes immenses, c'est trivial d'avoir le prix le plus bas ou le prix moyen sur 30 jours: la loi oblige à conserver toutes les commandes passées avec le détail du prix payé par article, et c'est super simple à agréger à chaud, ou à recalculer et besoin. Et c'est important de le monitorer en temps réel, parce qu'il y aura toujours un utilisateur qui fera une erreur de paramétrage du moteur de promotion mentionné plus haut et donnera des promos de 100%, ou qui enverra sans faire exprès des prix de test en prod, ou un dev qui va se foirer sur une règle de gestion et permettra à un hacker un peu malin de passer des commandes invalides... (oui, c'est mon métier le e-commerce, et oui, tous ces exemples sont du vécu)

Le 20/11/2023 à 00h 03

Mais pour complémenter ce type de méthodologie, il faut un langage vraiment sûr qui garantit le résolution rapide des erreurs :D github.com GitHub(blague de niche, pas récent, lien en anglais)

Le 23/10/2023 à 12h 56

Pensez-vous que nous devrions limiter ou arrêter certaines thématiques ?
Pas spécialement. Il faut bien tenter des choses pour voir si le lectorat accroche ou non. Au pire si ça ne m’intéresse pas, ben je ne lis pas.
Juste veiller à équilibrer avec la bande passante disponible pour que chacun y trouve son compte, en fonction des retours. (d’où l’importance de la communication avec les lecteurs)



Devrions-nous au contraire renforcer certaines thématiques ou en lancer de nouvelles ? Si oui, lesquelles ?
Je trouve la ligne actuelle assez équilibrée. Ce qui m’importe surtout c’est que les articles soient fouillés et apportent des éléments (avis de professionnels du secteur, contexte/articulation avec des sujets numériques connexes, etc.) qu’un média non-spécialisé dans le numérique ne peut pas apporter.



Nos articles sont-ils souvent trop longs ?
Pas de mon point de vue, mais je suis quelqu’un qui prend pas mal de temps pour lire, donc pas représentatif sur ce point.



Faut-il rouvrir la salle B4 ?
Pourquoi pas? Les concours n’étaient pas spécialement ma came, mais ça peut être sympa comme animation communautaire ponctuelle.

Le 02/10/2023 à 12h 27


Mihashi a dit:


J’ai jamais compris comment Epic pouvait s’en sortir en offrant un à trois jeux (et pas forcément des navets) par semaine…


Ben c’est simple, il ne s’en sorte pas xD
En tout cas pas sur leur boutique/launcher.
Comme ils sont arrivés les derniers sur un marché saturé, et sans avoir aucune fonctionnalité qui ne se fasse pas déjà ailleurs en mieux, pour pouvoir exister ils crament du cash.
D’un côté pour que les développeurs mettent des jeux chez eux, ils leur signent des exclus temporaires et ils les rémunèrent mieux (et en plus ça leur permet de se vendre comme “soucieux de la juste compensation des devs”).
De l’autre côté, pour que les utilisateurs se pointent et aient envie d’acheter les jeux dessus (parce que c’est beau de laisser une plus grosse part aux créateurs, mais si c’est une grosse part de 0 vente, ce n’est pas très utile), bah ils offrent des jeux.
Bien sûr avec tout ça ils sont déficitaires sur le magasin, mais l’idée de base c’est d’éponger avec les autres activités (surtout les gros benefs de Fortnite), en espérant acquérir sur le long terme assez d’utilisateurs pour équilibrer.

Le 02/08/2023 à 01h 26


typhoon006 a dit:


Cette internalisation ne conduirait en outre a priori pas à des surcoûts : le coût annuel du marché est de 358 000 €, alors qu’une internalisation coûterait de l’ordre de 250 000 €. »



Le presta se goinfre un peu, à la louche 3x le tarif “normal”


358k€ / 4 personnes / 12 mois / 20 jours travaillés par mois en moyenne = environ 370€/jour/presta.
Si on cherche pour se faire une idée des offres type “technicien support informatique N1/helpdesk” en région parisienne (je pars du principe que ce sont des techniciens qui vont intervenir sur place à l’Elysée, donc tarif parisien, et pas du helpdesk offshore) sur les différentes plateformes de freelance, on va avoir des tarifs journaliers qui vont osciller entre 150 et 350€ selon XP, avec une moyenne sur différents sites qui oscille entre 200 et 250€ selon XP (malheureusement aucun site ne donne sa médiane, il faut donc se contenter de moyennes. Mais il n’y a pas trop de variance sur ce type de poste).



370€ c’est dans la fourchette haute, mais déjà les SSII ESNs facturent un poil plus que les tarifs freelance sur les postes “faciles à trouver” (au cas où elles seraient obligées de prendre elles-même un freelance à refacturer pour combler un effectif manquant, parce que bon, c’est toujours mieux quand c’est le client qui porte le risque). Et si ça comporte un bouquet de services en plus du tarif de base par prestataire (ex: des termes de services contraignants niveau temps de réponse/résolution, un volume garanti de tâche traitées, des astreintes, des accréditations, des certifications, la garantie de remplacement d’un presta absent) ce n’est pas forcément si salé que ça. Difficile d’être affirmatif sans connaître les détails de ce qui est compris dans le contrat.



In fine, ça fait une prestation 40% plus chère qu’une internalisation (ou une internalisation 30% moins chère que la prestation si on le compte dans l’autre sens), ce qui n’est pas déconnant pour du service IT



Attention, je dis “pas déconnant” comparativement à ce qui se fait sur le marché des ESNs, je ne dis pas que c’est négligeable comme surcoût, et je ne dis pas que l’ESN ne se gave pas (le technicien N1 étant payé aux alentours de 2000€ bruts comme l’indique justement le commentaire de swiper, même en admettant de grosses astreintes, y a une belle marge sur son dos).



Bref, tout ça pour dire qu’il faut se garder des simplifications un peu rapides, cette boîte se goinfre, oui, mais pas trois fois plus que les autres, se goinfrer c’est le standard de toutes les entreprises de ce secteur. :mad2: :cap: :troll:

Le 08/06/2023 à 14h 45

Tu ne regardes pas les bonnes références. ;-)



Chez Nokia, il y avait le E70 à 500\( à sa sortie en 2006 (345\) en 2007) et le 8800 par exemple à 800€ à sa sortie en 2005.
Le Nokia E90 valait 400€.
Ensuite, je te l’accorde, je ne sais pas si les tarifs étaient avec abonnement ou sans (les 400€ de l’iPhone était sous réserve de souscrire un abonnement). L’iPhone restait cher mais les autres marques avaient des téléphones aussi chers voire plus à côté de leurs best sellers grand public.

Ah, comme tu parlais de Nokia “classiques” je me suis limité aux modèles grand public, et j’ai donc exclu les séries E et leurs prédécesseurs numérotés qui étaient des modèles enterprise.
Si on se place sur cette cible là le tarif est effectivement “standard”, mais ce n’est pas vraiment sur ce segment que l’iphone avait été positionné dans la comm’ Apple ^^”

Le 08/06/2023 à 12h 08


Thorgalix_21 a dit:


Globalement d’accord sauf sur le “hors de prix” de l’iPhone à son lancement. Il était moins cher (de mémoire, l’iPhone 4Go était à 499 €) que l’entrée de gamme actuelle. Il faut se rappeler que certains téléphones “classiques” (Nokia notamment) était encore plus chers.


Oulà, attention quand même.
Déjà, même maintenant, 499€ c’est pas de l’entrée de gamme, plutôt du milieu. Si je prends Samsung pour rester sur du gros acteur, leur entrée c’est le A13, à moins de 200€.
Ensuite, il ne faut pas comparer un prix de l’époque avec le marché de maintenant. Déjà avec l’inflation tout ça il y a un gros ajustement à faire pour les équivalences.
Mais surtout le marché de la téléphonie de l’époque ne se distribuait pas du tout pareil en termes de gamme.
Quand l’iphone 4Go sort (2007), l’entrée de gamme des téléphones portables est autour des 50€, et le top du top (déjà proche du smartphone, avec appareil photo etc ) c’est le nokia N95 à 199€ https://fr.m.wikipedia.org/wiki/Nokia_N95
L’iphone sort en France à 399€, (499$ aux US) soit le double du prix du N95. (je ne sais pas trop d’où tu tiens que même des nokia “classiques” étaient plus cher Oo )
Donc clairement si, à l’époque, même si ça ne valait pas encore un SMIC, c’était considéré comme hors de prix dans l’espace de la téléphonie.

Le 04/04/2023 à 09h 37


ForceRouge a dit:


Pour KKBB, je crois que c’est pas exactement le même principe.


À l’origine non, mais ils ont récemment ouvert un service de tips (ponctuels et récurrents) en plus de leur service initial de financement par projet.




hellmut a dit:


se baser sur un unique presta qui détient les joyaux de la couronne, c’est aussi totalement hallucinant.


C’est la norme avec les prestataires de paiement en ligne, surtout pour les boîtes qui margent peu. C’est la chasse aux frais les plus bas. Utip permettait de passer par Paypal plutôt que par mangopay, mais les frais étaient plus élevés d’un ordre de grandeur. Et paypal a un lourd historique de blocage de fonds des plateformes de financement.

Le 03/02/2023 à 11h 48


Mihashi a dit:


Je ne crois pas que CloudFlare soit hébergeur, juste une sorte de proxy entre le visiteur et l’hébergeur réel.


CloudFlare ça fait un peu tout ^^” DNS, certificats, CDN, proxy, firewall applicatif, anti-bot, anti-ddos…
Il y a dans le lot des services de stockage et distribution de données, de fichiers et de sites web statiques, et un service d’exécution de code “serverless” pour les portions dynamiques. Il est donc tout à fait possible de l’utiliser comme hébergeur.

Le 16/12/2022 à 13h 55

Alors en fait ce n’est pas ma base de données, c’est celle de l’utilisateur de notre plateforme. A priori c’est ses clients et il me semble que la RGPD autorise la prospection de produits complémentaire à ses clients avec droits d’opposition.
Nous on leur demande lors de l’import de leur base de s’assurer qu’ils ont bien le consentement de leurs destinataires.

En effet, s’il s’agit d’un client de l’entreprise, ça rentre dans le cadre d’une exception. :yaisse:
Du coup à l’exception près de conservation d’un hash plutôt que d’un numéro (minimisation tout ça), c’est all good.
Les guidelines de la cnil pour les listes d’opposition: https://www.cnil.fr/fr/comment-utiliser-une-liste-repoussoir-pour-respecter-lopposition-la-prospection-commerciale

Le 15/12/2022 à 17h 56


aurel_gogo a dit:


Tiens question à ceux qui savent.



Pour faire simple, on va dire que ma boite est une sorte d’intermédiaire technique qui permet à des PME de faire du marketing direct par SMS.



Quand un utilisateur se désabonne, on lui donne une adresse email de contact si il veut plus d’info.



Un des désabonnés m’a demandé de supprimer toutes les données qu’on a sur lui. Pas de soucis, j’ai que le téléphone, donc c’est simple…. Sauf que je lui ai dit que je ne supprimerai pas son numéro de téléphone car cela serait contraire à sa demande de désabonnement.



En gros, pour qu’un utilisateur ne reçoive plus de SMS, il me faut une “blocklist”, si je supprime son numéro, il n’est plus dans la blocklist et peut donc recevoir des SMS marketing et c’est donc en opposition avec son souhait.



Ai-je bien répondu, à votre avis ?


Question, quand tu dis “marketing direct”, est-ce que tu parles de prospection/démarchage (les sms sont envoyés à froid à des gens qui n’ont rien demandé -> du spam quoi), ou de comm promotionnelle qui demande que la personne se soit inscrite (avec consentement) au préalable ?



Parce que dans le cadre de la prospection, effectivement il doit être possible de s’opposer, et donc il te faut une liste d’opposition. (et informer l’utilisateur que tu as besoin de conserver a minima un hash de son numéro pour ta liste d’opposition, comme dit par aeris22) (vous utilisez bloctel? :p )



Mais tu parles de “désabonnement” et pas d’opposition, or ce n’est pas la même chose. Pour qu’il y ait désabonnement, il faut qu’il y ait abonnement, et donc une liste de contacts ayant consenti (avec trace du consentement). Dans ce cadre là, tu n’es de toute façon pas censé envoyer de message à un numéro qui serait hors de ta liste d’abonnement, donc une blocklist n’a pas lieu d’être, pour respecter le RGPD ta boîte devrait avoir une allowlist. Tu devrais alors supprimer le numéro de tes bases, et le remonter au gestionnaire du consentement pour qu’il note qu’il n’a plus le droit d’utiliser le numéro à des fins de communication commerciale.



D’ailleurs, je ne suis même pas certain que la prospection SMS sans consentement préalable soit légale. Si j’en crois la cnil, non: https://www.cnil.fr/fr/la-prospection-commerciale-par-sms-mms




La prospection commerciale par SMS ou MMS est possible mais les personnes doivent d’abord en être informées. Elles doivent également y consentir préalablement s’il s’agit de particuliers ou pouvoir s’y opposer s’il s’agit de professionnels.


Le 04/12/2022 à 00h 15


(quote:2107870:127.0.0.1)
Non, ce n’est pas le meme raisonnement si on considère ce que disais plus haut sur sa probable vision de la liberté d’expression.



Dans un cas, un employé a utilisé son droit de libre expression et en a subi les conséquences. Dans l’autre, une société refuse de faire de la pub sur un site qui prône la libre expression.



Le premier cas est qqc de normal pour Musk, alors que le 2nd cas est qqc d’anormal.



Suivant ce schéma, Musk aurait sans doute trouvé davantage “normal” que Apple fasse des campagnes de pub anti-twitter sur twitter, plutôt que d’arrêter simplement la pub.


Bon, bah du coup je pense qu’il est clair qu’on ne parviendra juste pas à être d’accord. Apple ne refuse pas de faire de la pub sur le site “parce qu’il prône la liberté d’expression”, mais bien parce qu’il y a des propos dessus avec lesquels la marque ne veut pas être associée (et que sur Twitter, contrairement à d’autres sites genre Youtube, il n’y a pas de catégorisation des contenus et de “désassociation sélective”). De la même façon que Musk n’a pas licencié son employé “parce qu’il défendait la liberté d’expression” (alors que c’est peut-être bien une valeur importante que cet employé defendait) mais comme conséquence des propos que ce dernier a tenu.



Et bon, même si je ne cache pas avoir peu de considération pour Elon Musk, je pense qu’en bon troll de compétition, il est conscient d’être de mauvaise foi et ne fait que déployer un argument claqué parce que c’est ce que sa fanbase attend de lui. Et ça marche puisquil y a une news dessus et qu’on en débat. ^^”

Le 30/11/2022 à 19h 19


(quote:2107847:127.0.0.1)
source ?



Pour ma part, en bon américain qu’il est, je pense qu’il parle de liberté d’expression au sens de la constitution américaine. Donc qqc comme “pas de loi/règle qui restreint ce qu’on peut dire”.



Cf. sa décision récente de mettre fin à la lutte contre la desinformation sur le covid-19.



Pour autant cette façon d’envisager la liberté d’expression n’est pas un totem d’immunité ou un pardon inconditionnel pour tout ce qu’on peut dire. Au contraire, c’est plutôt “t’as le droit de tout dire, mais tu dois assumer les conséquences”. Donc l’inverse du “politically correct” qui veut qu’on s’auto-censure pour ne pas heurter les autres.


Relire mon commentaire: Musk fait lui-même ce qu’il reproche à Apple, et il le reproche bien à Apple au nom de la liberté d’expression. C’est le sujet de la news…



Je cite le texte de l’article, signé Musk lui-même (à la traduction près), comme source ça se pose là:




Apple a pratiquement arrêté la publicité sur Twitter. Haïssent-ils la liberté d’expression en Amérique ?


Apple arrête de financer (conséquence négative) pour ne pas être associé aux propos qui ne leur plaisent pas => atteinte à la liberté d’expression.



Selon le même raisonnement que Musk donc, virer un employé (je pense qu’on peut être d’accord que ça compte comme un arrêt de financement…) pour des propos qui ne lui plaisent pas => atteinte à la liberté d’expression



Ou alors peut-être que Musk change sa définition de liberté d’expression comme ça l’arrange pour matcher ses intérêts du moment, et n’est pas vraiment un défenseur de la liberté d’expression, ce qui explique l’incohérence entre ce qu’il dit et ce qu’il fait.

Le 30/11/2022 à 17h 13


(quote:2107792:127.0.0.1)
Quel rapport avec la liberté d’expression ? :keskidit:


La liberté d’expression version Musk, c’est de pouvoir dire ce qu’on veut sans répercussions négatives. C’est son “argument” pour “attaquer” Apple dans la news: quand on s’exprime librement vous arrêtez de nous financer (répercussions négatives), donc vous êtes contre la liberté d’expression.
Or dans le cas de son employé, Elon Musk l’a viré justement parce qu’il s’est exprimé librement. Donc selon le même raisonnement, il est contre la liberté d’expression… Il a donc une conception de la liberté d’expression stupidement simpliste, qu’il prétend “defendre” alors qu’il ne l’applique même pas.

Le 04/11/2022 à 00h 30


Tandhruil a dit:


A titre perso je suis resté au modèle où tu achètes un produit fini, tu à le droit à des correctifs mineurs pendant 1 an mais pas de limite d’utilisation.



Mais c’est de plus en plus difficile à trouver, surtout sur les “stores” (en dehors de gog). :cartonjaune:


Hello,
Désolé, mais j’ai du mal à comprendre ton commentaire. Depuis la démocratisation des moteurs et SDK cross-platform abordables (tant en prix qu’en accessibilité des outils), le jeu indé a complètement explosé. D’autant plus que depuis les premiers gros succès (l’époque de fez, super meatboy, limbo, hotline miami, etc. ), éditeurs spécialisés et crowdfundings sont entrés dans la danse, facilitant l’accès aux financements pour les studios. Ce sont quasi uniquement des jeux finis qui s’achètent une fois, et il en sort plus chaque année qu’il n’est possible d’en jouer. Les stores PC et consoles sont pleins à craquer d’excellents jeux avec des durées de vie oscillant entre 20 et 100 heures.
Du coup le “de plus en plus difficile à trouver” me surprend pas mal quand j’ai personnellement des années de retard rien que sur les “must play” de ma ludothèque (et pas un seul free-to-play ou abonnement là-dedans) ^^”
Est-ce que ton commentaire se limitait aux jeux des gros éditeurs ? Ou aux jeux multi peut-être ?

Le 22/06/2022 à 13h 10


serpolet a dit:



Non, la nature du scrutin (majoritaire à deux tours) y est pour beaucoup.


L’exemple que je donne quand je parle de “pur” artefact de découpage porte uniquement sur le second tour après report de voix/effet élimination du remier tour. Il s’agit d’une comparaison des résultats en voix, en %, et des résultats en siège, en %. L’écart entre les deux n’est que le fruit du découpage (le fait qu’on ait plein de mini-scrutins au lieu d’un seul occasionne des sur et sous représentations en fonction de la “concentration” des électeurs dans tel ou tel territoire). C’est précisé explicitement dans mon message.
Avant de critiquer un truc il faut lire le contexte, merci.




Cumbalero a dit:


On peut critiquer tant qu’on veut le mode de scrutin. Perso, je pense que la proportionnelle pour les législatives entraînerait encore plus d’abstention, en particulier avec le calendrier électoral pourri que l’on a. Se déplacer pour voter pour des listes nationales 2 mois après un autre scrutin national ?


Je suis effectivement d’accord avec toi pour dire que le mode de scrutin n’est pas le seul problème. Globalement pour lutter contre l’abstention je pense qu’il faudrait essentiellement que les citoyens aient l’impression que leurs avis compte en étant sollicités sur des points concrets, pour recréer du lien et de la discussion, mais sans non plus être obligés de déployer tous les 4 matins l’arsenal de l’urne, bulletins, etc. C’est loin d’être évident.




(quote:2078139:alex.d.)
Bien sûr que le tripatouillage de 2010 où on a fusionné des zones urbaines avec de la campagne pour amortir l’impact du FN et le diluer avait eu une influence. Mais en 12 ans, la dynamique électorale a changé, et ces circonscriptions ont basculé vers le FN (pour celles que je connais). Ce découpage avait été fait à un moment où le FN n’était pas si haut, le PS était puissant et espérait revenir, l’UMP dominait tout, et Macron était au biberon. L’électorat a tellement changé entre temps que ce découpage est désormais juste random par rapport à l’électorat actuel. Pour qu’un tripatouillage de carte électoral marche, il faut qu’il soit assez frais, sinon ça ne marche plus.


Là tu surinterprètes mon propos. Quand je dis que le découpage a une influence, je ne parle pas d’une influence volontairement manipulée par je ne sais qui (pas dans le contexte de ces élections). Juste du fait que, mécaniquement, le fait qu’il y ait un découpage non randomisé (ici les textes sur la constitution de la carte obligent à ce que les circos soient par département) induit forcément un biais dans les données qui fausse la représentation en fonction de la concentration de l’électorat (ceux qui ont un électorat plus “concentré” localement vont gagner certaines circos en mode “overkill” avec bien plus de voix qu’il n’en faudrait, mais en contrepartie gagnent moins de circos en nombre, et sont donc sous-représentés au parlement par rapport au niveau de support national).
C’est juste des purs maths.
Et je constate via les rapports de force de l’actuelle assemblée que dans le cas spécifique de l’élection en cours, ce simple biais est suffisant pour “fausser” la mécanique de l’assemblée par rapport à ce qu’elle serait sur un résultat représentatif.
A chacun de décider ensuite selon ses sensibilités si c’est souhaitable/pas souhaitable ou si on s’en fout. Je suis dans le camp qui pense “pas souhaitable si on peut faire mieux”




carbier a dit:


De quand date le dernier découpage électoral ? Depuis ce temps la démographie des circonscriptions a-t’elle évolué ?



Le problème pour les partis extrémistes: c’est le scrutin à 2 tours. Quand on est clivant (ou en tout cas plus clivant que son adversaire), on part avec un handicap dans ce genre d’élections.



La situation actuelle va permettre de voir si la proportionnelle est la solution à tous les maux comme beaucoup le demandent. Or cela semble mal parti.


Idem que pour alex.d, tu surinterprètes un peu mon propos, quand je dis qu’on “peut découper pour filer une majorité à une minorité”, je ne sous-entends pas que c’est le cas actuellement, je sais très bien que la situation qui était un peu “intentionnelle” lors du dernier découpage n’est plus la même. Ce n’est pas mon point.
Et je ne dis pas que le scrutin à deux tours n’a pas d’influence.
Je me contente de constater que la simple mécanique de découper induit par nature un biais (que l’on peut mesurer approximativement en comparant les résultats en voix et en siège sur le second tour.), et que ce biais vient s’ajouter à celui du scrutin à deux tours pour fausser encore plus la représentativité.

Le 21/06/2022 à 00h 50

Non, le découpage n’a pas une si grande importance. D’ailleurs, là on a bien vu, à la présidentielle comme aux législatives, le résultat est le même : Macron devant, mais pas très large ; Le Pen ensuite ; et Mélanchon qui talonne. Qu’on regarde à la présidentielle, en pourcentage aux législatives, ou au nombre de députés, le schéma reste le même.

Désolé, mais ce que tu dis est juste faux. Les maths et les stats, c’est pas juste “j’ai l’impression que ça colle à vue de pif, donc ça doit pas avoir d’effet, c’est bon, circulez”.
On sait, mathématiquement, que le découpage a une influence. On est même capables de découper un territoire de façon à ce que des minorités en voix se transforment en majorité en sièges.



Le résultat des législatives est une fonction directe du découpage mis en relation avec la “concentration” des électorats dans chaque territoire. Si la répartition des électeurs était purement homogène, on aurait alors le même résultat dans toutes les circos, et une assemblée d’une seule couleur. A l’inverse, si les électeurs de chaque bloc ne se mélangeaient pas du tout et avaient chacun leur territoire, on aurait alors l’équivalent en siège d’une proportionnelle.
Le réel est bien évidemment entre les deux, mais on n’arrive pas à quelque chose qui serait “le même schéma” en voix et en siège.
Cela se voit très bien quand on regarde les résultats du second tour. Comme je le disais dans mon premier message, il n’y a entre Ensemble! et NUPES que 7 points de % d’écart en termes de voix au second tour (donc après report des voix du 1er tour), et pourtant 114 sièges d’écart (l’équivalent de 19,6 points de %, presque trois fois plus que l’écart en voix). De la même façon, LR, qui ne fait que 7% des voix au second tour, prend pourtant 61 sièges (10,5%). On a là un pur artefact de découpage/répartition des électeurs, et c’est un effet qui n’est pas négligeable du tout. Si la projection en sièges respectait le second tour en voix, Ensemble! serait plus loin de la majorité absolue, et le groupement LR/UDI n’aurait pas tout seul suffisamment de voix pour combler le manque, ce qui obligerait Macron à composer avec une partie de la gauche et/ou du RN pour toutes ses réformes, là où dans la configuration actuelle, il peut se contenter de sa droite.
Ce n’est donc pas du tout anodin en terme d’impact sur les politiques que pourront/vont être menées.



Maintenant on peut se demander “est-ce que c’est grave ?”, et là et bien ça dépend à quel point on est attaché à la démocratie et à la notion de représentativité.
Personnellement, je trouve qu’on devrait avoir une assemblée (et un processus décisionnaire) plus représentative des opinions de la population. ( tout comme je trouve que ladite population devrait être consultée plus souvent et sur plus de points, et devrait également avoir la possibilité de mettre elle-même des points à l’ordre du jour), donc forcément je suis plutôt en défaveur des institutions et modes de scrutins actuels, dont les mécaniques favorisent partisanisme, polarisation, et catégories sociales élevées.

Le 20/06/2022 à 18h 18


Kaelhan a dit:


Il faut arrêter ce genre de phrase de “tous les pouvoirs” ce gouvernement n’avait pas les pleins pouvoirs, il existait d’autres contre-pouvoirs : le Sénat et les régions.
Que le pouvoir exécutif et législatif soient aux mains d’une même majorité est l’essence même de la Vème République afin d’assurer une stabilité législative et d’éviter les affres de la IVème République.


Le sénat peut ralentir les choses, pas vraiment les empêcher, on fait mieux comme contre-pouvoir. Et avec le 49.3 combiné à une majorité absolue, on garde le spectre d’une mesure majeure par session parlementaire, sans contre. Ton avis peut différer, mais pour moi on est suffisamment proche du “tous les pouvoirs” pour se permettre d’utiliser la formule.



Oui, dans la 5ème, exécutif et législatif sont censé avoir la même majorité… puisque le chef de l’exécutif, c’est le 1er ministre, et qu’il doit être issu de (a minima avoir l’approbation de) la majorité à l’assemblée pour ne pas se faire sortir. Et justement, qu’un parti n’ait qu’une majorité relative oblige à composer avec les autres force pour ne pas dégager.
Le rôle du président est censé être d’arbitrer (proposer un premier ministre, dissoudre l’assemblée, soumettre une proposition des assemblées ou du gouvernement au referendum…), pas de diriger, et le régime tolère très bien les cohabitations (qui avaient lieu quand les calendriers électoraux n’étaient pas alignés).



Et j’ajoute que de toute façon, même si “un truc” était “l’essence de la 5ème”, ce ne serait pas un argument en la faveur de “un truc”. La 5ème n’est pas un modèle indépassable, loin de là. C’est un modèle bâtit par et pour des conservateurs, sur fond de guerres coloniales (indochine, algérie), et on a vécu suffisamment sous ce régime pour en voir les défauts.

Le 20/06/2022 à 17h 20


(quote:2078058:alex.d.)
Ce n’est pas du tout le découpage électoral qui cause ça, mais le scrutin majoritaire à deux tours. Tu connais l’adage, au premier tour on choisit ; au deuxième tour, on élimine. Pour réussir à être élu en France, il faut être capable de passer un deuxième tour, c’est-à-dire avoir plus de la moitié des gens qui votent pour toi, même si tu n’es pas leur premier choix. En d’autres termes, le FN plaît peut-être à beaucoup de gens, mais il déplaît à plus de gens que LREM. Le système favorise le candidat qui déplaît le moins.


Je t’encourage à relire le commentaire auquel tu réponds, je mentionne bien les effets des deux, à la fois le scrutin majoritaire à deux tours (=effet de report de voix) et le découpage électoral.




  • Le découpage a un impact, qu’on le veuille ou non, c’est purement mathématique. Les différences de “concentration” des voix de certains partis dans certaines zones ainsi que la différence de nombre d’électeurs par circo ont forcément des effets qui faussent la représentation.

  • L’élection d’un parlement avec plus de 500 sièges, ce n’est pas la même chose qu’élire une seule figure comme aux présidentielles. En faisant un tas de mini-scrutins, on va mécaniquement aller minorer voire éliminer complètement des opinions qui auraient pourtant leur place dans le débat démocratique, ce qui n’est à mon avis pas souhaitable. Qui sait, peut-être qu’avec un système un peu plus proportionnel, certains absentionnistes qui ne vont pas voter car ils sont sûrs que leurs opinions ne peuvent pas gagner une circo se verraient ré-intéressés à la politique du pays.

Le 20/06/2022 à 16h 31


Cumbalero a dit:


Ce qui ne tient pas dans ton raisonnement, c’est que tu comptes des voix au niveau national pour une multitude de scrutins locaux.


Mon point c’est justement de dire que le fait que ce soit une multitude de scrutin locaux et pas une proportionnelle empêche l’équilibre des pouvoirs à l’assemblée d’être représentatif des opinions de l’électorat. Et que donc la politique appliquée n’est pas voulue par “une majorité de français”.

Le 20/06/2022 à 15h 11


fate1 a dit:


Bon, je sais que je ne vais pas me faire des copains avec post, mais J’ai du mal à comprendre cette critique, que je lis très souvent ici et ailleurs, envers le gouvernement. Le peuple en 2017 lui a donné la majorité absolue à l’assemblée et 5 ans plus tard les gens se plaignent qu’il n’a fait aucune concession sur ses réformes et n’a pas pris en compte les demandes de l’opposition.
[…] Les gens donnent les pleins pouvoirs à un parti politique et ensuite râlent parce que ce même parti a utilisé ces pleins pouvoirs (étonnant de la part des politiques…). J’imagine que dans 5 ans les mêmes gens viendront se plaindre en disant qu’en 5 ans le gouvernement n’a rien fait et n’a rien réformé et que c’est la faute du gouvernement si tout va mal. Les français, jamais content ? Non, c’est un cliché voyons :D


Malheureusement il y a un truc qui ne tient pas dans ce raisonnement. Si on prend les résultats du premier tour (=le tour où les gens votent effectivement en fonction de leur opinion) de 2017 comme de 2022, le parti du président n’aurait dû avoir qu’une majorité relative en 2017 (7M votants REM+MoDEM sur 22M votants) et à peine la majorité relative en 2022. (c’est à 10k voix près avec la NUPES)
Même sur le nombre de voix du second tour, on voit que “Ensemble!” score 100 sièges de plus que la NUPES en étant seulement 6 points de pourcentage des voix au-dessus.
Ce qu’on en déduit, c’est que ce ne sont pas “les français” qui donne autant de pouvoir au gouvernement, mais purement le mode de scrutin complètement naze à coups de “barrages” et de reports de voix sur des seconds tours, après que les gens aient “perdu” le candidat qu’ils préféraient, par le jeu du découpage électoral.
Sous couvert de “représentation des territoires” (prétexte d’autant plus ridicule qu’on peut sans problème parachuter des candidats sans lien avec la circonscription), on se retrouve avec des assemblées dont la composition n’a rien à voir avec la réalité des forces politiques en termes de soutien par les électeurs. (et si on prend en compte le fait qu’on a moins de la moitié des gens qui votent et qu’on ignore donc totalement quelles seraient les propositions politiques à même de plaire à ces non-votants, c’est encore pire…)
Dans les pays avec une culture plus démocratique que la nôtre, avec du débat et du compromis au parlement, les élections du parlement national sont tout ou partie proportionnelles.



Donc désolé, les français ont eu bien raison de râler lors du premier quinquennat, puisqu’ils ont pu voir, un peu horrifiés, un gouvernement récupérer les pleins pouvoirs alors que ce n’était pas du tout conforme aux intentions électorales, et ensuite utiliser ces pleins pouvoirs comme s’il était légitime à le faire…

Le 18/03/2022 à 15h 56

J’ai bien lu ton commentaire initial, et le fait que ton raisonnement se concentre sur la comparaison du prix de l’abonnement et de la quantité de donnée transféré, et maintenant, dans ton dernier commentaire, de l’utilisation de “ressource”. Sauf que tu te trompes complètement car ce n’est pas la diffusion qui coute le plus cher.



Ce raisonnement est d’autant plus faux sachant que Netflix a des serveurs de caches directement hébergés chez chaque gros FAI. Donc Netflix ne paye même pas la bande passante de ses serveurs…



Le calcul grosse maille pour Netflix, c’est “combien une série coûte-t-elle à produire” VS “combien elle va rapporter en prorata sur abonnement”, le fait que tu regardes en boucle le même épisode 247 pour cramer de la bande passante n’impacte quasiment rien du tout.



Donc si une série est vu par 1000 personnes de foyers différents, mais que ces 1000 personnes se cachent en réalité derrière 250 abonnements partagés en 4, tu vois bien qu’il va y avoir un problème à la fin?



Donc je me répète, derrière le mot illimité par foyer, ça s’entend évidement en utilisation normal.



Si tu veux faire un calcul du tarif pour du vrai illimité 4 écrans partageable à loisirs 247, par exemple:




  • en moyenne (au doigt mouillé) un foyer regarde 3 écrans 2h par jour => 6h

  • 4 écrans x 24h => 96h possible par jour

  • produit en croix: 18€ x 96h / 6h = 288€


le fait que ton raisonnement se concentre sur la comparaison du prix de l’abonnement et de la quantité de donnée transféré


Encore une fois, c’est une chose qui est mentionnée, mais ce n’est pas ce sur quoi mon raisonnement “se concentre”. Tu prends un point hors contexte, sans prendre en compte le rôle de ce point dans l’objectif de mon argumentaire, et tu bloques dessus comme si c’était ma thèse. Mais pas du tout. C’est pour ça que je dis que soit tu n’as pas tout lu, soit tu n’as pas compris.



Je réponds à un commentaire qui dit deux choses:




  • que ça lui semble “normal” de faire une distinction “par foyer” du service et qu’il faudrait un “lock” strict (type par IP ou par whitelist de device)

  • que Netflix est “gentil” de ne pas mettre de telles restrictions en place



Ma thèse à moi ici c’est:




  • il n’y a rien de “normal” dans un découpage “par foyer”, un découpage, quel qu’il soit, est fait en fonction des objectifs et contraintes de l’entreprise, et c’est tout.

  • il n’y a pas de gentillesse ou de bienveillance dans le modèle actuel permettant la mutualisation, c’est un pur calcul visant au plus rentable compte tenu des contraintes



En réponse pour le premier point, déjà j’explique pourquoi la notion de “foyer”, dans le contexte d’un service non-physique, n’a pas de sens, puisque par ex même le titulaire du compte peut avoir un usage nomade. (entre autres raisons).
Ensuite, je me concentre sur la “normalité” du découpage par foyer, pour dire qu’elle ne coule pas du tout de source.
D’une part parce que c’est techniquement compliqué d’établir une définition et de s’y restreindre, et d’autre part parce que dans le contexte actuel de l’offre illimitée telle que définie, on ne peut pas prétendre que la mutualisation engendre des coûts additionnels. C’est uniquement là que vient mon exemple pété qui n’a pas vocation à être réaliste, pour appuyer sur le fait qu’il n’y a pas là de normalité qui découlerait des coûts (“coûts” ou “ressources” ici englobent l’infra, les serveurs, les coûts de production de séries, les droits de diffusion, etc.)



Je ne dis pas qu’il n’y a aucun argument en faveur d’un “type” de découpage (d’ailleurs j’y viens ensuite quand je me concentre sur le côté pseudo-“gentillesse”/“tolérance” de la situation actuelle), je dis juste que les coûts ne sont spécifiquement pas un argument valable.



(une parenthèse:




Donc je me répète, derrière le mot illimité par foyer, ça s’entend évidement en utilisation normal.


Désolé mais mon post initial concerne l’explication de raisons factuelles derrière une proposition commerciale. Dans ce contexte, “ça s’entend évidemment comme” est proscrit. Les opérateurs qui offrent du “faux” illimité, il y en a, et quand c’est le cas, les limites ne sont pas constituées d’élément arbitraires telles que le “raisonnable”, l’offre détaille les caps et ce qu’il se passe quand on les franchit. Quand on veut générer une contrainte légale, ce qui est la thèse de la personne à qui je réponds et non la mienne, on doit être précis. Fin de parenthèse )



Une fois cela dit, j’enchaine sur le fait que Netflix ne fait pas dans la “gentillesse”, mais au contraire cherche un équilibre purement intéressé entre le manque à gagner lié à la mutualisation des abonnements et le manque à gagner lié à la perte d’abonnements en cas de restrictions techniques ou de complexification tarifaire.



Manque à gagner != coût.



Je n’ai jamais prétendu que parce que le stream était illimité, la mutualisation n’engendrait aucun manque à gagner. Une personne qui ne s’abonne pas, c’est le prix d’un abonnement en moins qui rentre dans les caisses. Duh.



Et c’est tout.



Je rappelle que c’est bien la personne à qui je réponds qui affirme que Netflix devrait mettre en place un blocage technique par foyer.
De leur côté, chez Netflix, tout ce qu’il font c’est introduire, pour quelques euros de plus, une notion de “sous-compte” (distincte de la notion actuelle de profil), pour inciter ceux qui partagent des comptes à filer un peu d’argent supplémentaire.
Le titre de la news fait penser à une obligation, et j’ai l’impression que ça cause des mauvaises interprétations dans les commentaires, mais ce n’est pas du tout le cas.
“Netflix veut inciter les foyers qui partagent un compte à lâcher 2 euros de plus par mois” serait un titre plus exact. ^^”

Le 18/03/2022 à 13h 12


OB a dit:


Je pense que tu va trop chercher midi à 14h: Déjà , ils regardent l’adresse IP. Lorsque je regarde netflix avec le compte de ma belle-mère, elle reçois des tas de mail pour lui signaler que son comte est utilisé ailleurs…. parfois plus de 30 mails dans la soirée.


Il y a un pb avec la façon dont tu setup. Netflix n’envoie de mail que quand une nouvelle connexion est établie. (saisie des credentials). Tant que tu ne déconnectes/reconnectes pas ou que tu ne purges pas les cookies, pas d’alerte. C’est inhérent au modèle nomade + multi-device.
La seule restriction technique que fait Netflix, c’est le nombre de streams simultanés.




Plus la boite grossi, plus les cas particuliers ne l’intéresse plus. Un gars qui a plusieurs lignes fixe chez lui ? Si la nouvelle politique le bloque, ils s’en foutent. Si des gens dans un même foyer regardent l’un en 4G l’autre en fixe et que ça déclenchent leur système, ben ils s’en foutent aussi sauf si ça devient un problème commercial.



On a souvent tendance à “idéaliser” les boites en trouvant des cas tordus. Mais en vrai ces cas sont juste pas pris en compte, et c’est du profit & pertes.


Heu… le combo fixe + mobile c’est pas du tout un cas tordu ou à la marge. Comme tu le dis, s’ils pensaient pouvoir faire la restriction sans impact commercial, ils le feraient (c’est d’ailleurs ce que j’ai écrit dans le post auquel tu réponds…). S’ils ne le font pas, c’est qu’ils estiment que ça tuerait trop leur profit.
(la brève initiale n’est pas ultra claire, mais il n’est pas question de mettre des restrictions, Netflix a juste mis en test la possibilité de faire des “sous-comptes” = des comptes qui restent payés par la personne qui possède le compte principal, pour un tout petit peu plus cher, et qui ont leur propre login/mot de passe/série de profils)




Au final le seul aiguillon que ces sites ont, c’est le piratage. Si ils emmerdent trop leurs clients, ces derniers arrêteront de payer, mais pas de regarder leurs séries , donc c’est là qu’il doivent bien gérer leur équilibre. Le problème c’est surtout les financiers , qui veulent du +10% / ans , qu’il pleuve, qu’il vente, ou qu’il neige, sinon ils retirent leurs billes. Ca pousse des boites comme netflix qui ont trouvé un modèle somme toute fonctionnel à le casser pour des gens qui n’en ont rien a foutre.


Ils ne cassent rien du tout hein, cf plus haut dans ma réponse. Ils testent juste une mécanique qui est incitative, et pas coercitive.

Le 18/03/2022 à 12h 43


SomeDudeOnTheInternet a dit:


Je ne suis pas d’accord. Je pense que pour eux c’est une personne = un abonnement. Mais ils tolèrent que ça soit partagé entre membres d’un foyer parce que sinon ça serait compliqué à faire avaler commercialement.


Heu… Dans ton premier post, auquel je répondais, tu disais que Netflix tolérait par gentillesse , et que ce serait “normal” qu’ils ne tolèrent pas cette pratique.
J’ai fait tout un pavé pour expliquer pourquoi Netflix, dans l’idéal, préfèrerait avoir un max d’abonnements individuels, mais est arrivé à son modèle actuel pour des raisons purement techniques et commerciales qui s’expliquent très bien



Et là tu me réponds que tu n’es pas d’accord, et que Netflix fait ça parce que sinon ça serait compliqué à faire avaler commercialement
Donc en fait tu contredis ton premier post, tu dis finalement la même chose que moi sans le détail de la stratégie commerciale qui va derrière les décisions, mais tu marques quand même que tu n’es pas d’accord… Oo C’est du troll, ou juste tu as répondu sans lire ?

Le 18/03/2022 à 12h 31

L’objectif, c’est la mutualisation, chacun fait comme il veut, tant que personne n’abuse, tout le monde est content. Maintenant, faut pas rêver, techniquement, aucun réseau aujourd’hui ne tiendrai si chaque écran vendu était allumé en qualité max 247.



Avec des raisonnements comme le tien à vouloir utiliser inutilement 100% techniquement alors qu’une utilisation normal se situe atour de 4% (2h / jour), c’est que les service comme Netflix vont passer à la VOD payante à l’acte pour éviter les gens comme toi. A vouloir toujours cracher dans la soupe et grater pour le plaisir de grater, c’est tout le monde qui va être perdant.



Aujourd’hui, Netflix ne met aucune limite autre que le nombre d’écran. Vouloir mettre une définition technique sur le mot “foyer”, la conséquence sera obligatoirement une restriction des droits actuels.



Donc juste dit rien, et espère que tout le monde ne fait pas comme toi, ca évitera d’accélérer le processus de restriction.

Ok… alors faut lire et comprendre avant de répondre hein…
J’ai fait des comparaisons sur l’utilisation des ressources: avoir plusieurs personnes qui font tourner le même stream alternativement = même conso de ressources qu’une personne ou un script qui fait tourner le stream en continu.
La conséquence étant que le modèle étant de l’illimité payé par stream, l’argument qui a était fait ailleurs dans les commentaires “netflix devrait faire payer plus parce que plus de ressources utilisées par rapport à ce qui est contractualisé” ne tient pas.



Nulle part je n’ai dit qu’il “fallait” utiliser 100% techniquement… Et nulle part je n’ai dit que je faisais de la mutualisation, ou que je faisais tourner des streams dans le vent… Si tu tires ça comme conclusion de mon propos, c’est toi qui a un problème.



Mon post dans son ensemble ne fait qu’expliquer pourquoi le modèle de Netflix est tel qu’il est (mélange de limitations techniques, de besoin de récup des données, et de maximiser les revenus, donc équilibrer positivement gain et perte d’abonnés), et pourquoi essayer de parler de foyer dans le cadre d’un service en ligne est vain. Vu que je répondais à quelqu’un qui attribue le modèle économique de Netflix et sa politique sur le partage de compte à de la “gentillesse”…



Mais c’est sûr, c’est plus facile de lire en diagonale et balancer une réponse agressive à côté de la plaque que de chercher à comprendre un propos et son contexte…

Le 17/03/2022 à 15h 03


SomeDudeOnTheInternet a dit:


Je trouve ça parfaitement normal, ils sont déjà sympa qu’un seul abonnement soit utilisable par plusieurs personnes au sein du même foyer (parce que ce n’est pas une évidence) mais aller jusqu’à partager un même compte avec d’autres personnes (amis etc.) c’est forcément plus discutable.



Je ne serais même pas contre le fait qu’ils interdisent purement et simplement le partage de compte hors du foyer à vrai dire.


Je ne vois pas trop en quoi ce serait “normal”. ^^” Bien au contraire, la distinction par “foyer” n’a pas vraiment de sens quand on parle de consommer un service en ligne sans composante physique. Qu’est-ce qui fait un foyer pour le service ? Un lieu ? Une connexion internet ? Quid des usages mobiles ? Une filiation ? A combien de degrés ? Faut se PACser/marier ? Faut prouver qu’on est proprio du device et lié au proprio de l’abonnement ? Et du coup si on prête le device ? Si on regarde l’écran à plusieurs ?



On a tendance à utiliser des mots comme ça qui évoquent des choses qu’on trouve familières, normales, parce qu’on en a une préconception. Mais qu’on essaie de définir le terme et on se rend compte qu’il y a de nombreuses définitions qui trainent et qu’en fait on ne parle pas tous de la même chose. C’est un grand classique de langue de bois.



Dans ce contexte, il faut se demander, quand on a un abonnement Netflix, pour quoi est-ce qu’on paie exactement, c’est quoi le service ?
Et il suffit de regarder le détail des offres, on paie pour:




  • l’accès à un catalogue à streamer en illimité

  • l’accès à des profils avec historique, recommandations, whishlists, etc.

  • l’accès à une qualité qui dépend du niveau d’abonnement

  • l’accès à un nombre d’écrans simultanés qui dépend du niveau d’abonnement



Il n’y a là-dedans aucune histoire de “personne”, ce qu’on achète c’est la possibilité d’avoir un certain nombre de flux vidéos qui pourraient très bien tourner 24h/24 en qualité max.
Que ce soit le payeur ou quelqu’un d’autre qui soit devant ce flux, ça ne change rien.
(note: je simplifie, il faut aussi prendre en compte par ex le fait que la projection doit rester dans un cadre privé, qu’il n’y ait pas de revente, qu’il y ait des accès catalogue restreints en fonction du pays dans lequel on se trouve parce que droits de diffusion, etc, mais le principal est là)



Que je fasse un peu d’automatisation sur mon ordinateur pour faire tourner une vidéo en boucle (juste pour le plaisir de gaspiller des ressources, parce que c’est “mon” abonnement), ou que je fasse de l’optimisation en passant à quelqu’un mes accès pour que cette personne puisse streamer des trucs quand moi, je ne streame pas, qu’est-ce que ça change ? Bah rien, le coût en ressources est exactement le même, mon abonnement n’a toujours qu’un seul stream qui tourne.



En réalité le problème de Netflix, c’est en partie le problème classique de ceux qui prétendent te vendre de l’illimité, ça fait joli comme argument marketing, mais en pratique, tu paries sur le fait que celles et ceux qui consomment ne vont surtout pas s’en servir à plein régime, parce que tu n’es pas dimensionné pour.
S’ajoute un autre souci ici, c’est qu’auprès des financiers du secteur, c’est le “nombre d’abonnements” qui sert de proxy pour parler croissance et compétition.



Netflix n’est pas “bien gentil” de “laisser faire” (c’est de la sacrée naïveté ça), c’est une entreprise, ils prennent des décisions dans leur propre intérêt.




  • Ils n’ont aucun moyen fiable de contrôler l’identité de la personne qui regarde, tout ce qu’ils peuvent faire c’est contrôler le nombres de flux, donc ils font payer au nombre de device

  • il leur faut de la data individualisée sur les viewers, donc ils font des profils individuels sur un même abonnement. Ils ne peuvent pas s’opposer à ce type d’usage, autant en tirer profit. (la donnée, c’est le nerf du commerce)

  • les gens qui vivent ensemble ont l’habitude de parfois regarder la même chose, parfois pas, donc ils ne peuvent pas se permettre de faire payer un prix d’abo complet par device simultané sous peine de perdre en adoption

  • les tarification en volume de données/temps est complexe à la fois à mettre en œuvre et à faire comprendre/accepter, donc encore une fois, par souci de faciliter la lisibilité des offres et donc l’adoption, ils restent sur cette notion d’un seul tarif pour de “l’illimité”



Comme beaucoup de boîtes, au démarrage, ils ont privilégié à fond l’adoption pour faire croître rapidement leur nombre d’abonnés, quitte à faire de la perte. Maintenant ils doivent pérenniser en faisant des bénefs, sur un marché qui a changé (plus de concurrence et moins de personnes sans service “à convertir”) donc ils cherchent des moyens de gratter un max de valeur par abonné, sans toutefois perdre trop d’abonnements existants, et en essayant de trouver des leviers de créations de nouveaux abonnements pour gonfler leurs chiffres.



Y a aucune gentillesse ou tolérance là-dedans, juste du business, la recherche du bon équilibre pour augmenter la rentabilité.
Là ils introduisent, en test, une “possibilité” de payer des suppléments pour le partage de compte, mais c’est un genre de bluff, vu que leur capacité de contrôle est quasi inexistante. Juste une petite poussée pour voir si ça augmente le revenu, ce qui serait tout bénéf vu que ça ne leur demande pas d’investissement.

Le 25/01/2022 à 11h 34

Donc si on résume, le 105:




  • permet d’utiliser un manifeste en xml, signé, pour déclarer des éléments et les algos permettant de les décoder

  • permet de déclarer une “vue” à rattacher à l’élément créé

  • est chiffré

  • les applications de lecture gardent les certificats racine



Comment dire… félicitations, vous venez de réinventer un subset du web, les types mime et les applicatifs signés, avec une appli de lecture qui est un mini-browser ? ^^”

Le 30/11/2021 à 10h 58


Soriatane a dit:


Le médiateur c’est avant le passage devant le tribunal?



numerid a dit:


Normalement le recours à une médiation c’est pour éviter le passage au tribunal.


Attention, on parle ici d’instances européennes, pas de de justice française ;)



Le Médiateur Européen est une instance spéciale
-> qui peut être saisie directement par n’importe quel citoyen européen (contrairement à la cour de justice européenne)
-> qui s’occupe spécialement des plaintes déposées contre d’autres instances européennes, pour des motifs de mauvaise gestion/mauvaise administration, et uniquement ces motifs.



https://www.europarl.europa.eu/factsheets/fr/sheet/18/le-mediateur-europeen



Mais le médiateur ne s’occupe pas de contrôler les institutions nationales, uniquement les autres institutions européennes.
Du coup ici ce qu’il se passe c’est que:




  • L’ICCL estime que l’Irlande ne respecte pas le droit Européen en matière de RGPD

  • mais l’ICCL ne peut pas attaquer directement le gouvernement Irlandais, car il n’y a pas d’institution européenne pour ça

  • du coup, l’ICCL considère que c’est la Commission Européenne qui devrait assurer que l’Irlande respecte la mise en place du RGPD

  • et donc, que la Commission Européenne ne fait pas son travail correctement, puisqu’aucune procédure de contrôle n’est engagée contre l’Irlande

  • et là, l’ICCL peut saisir le Médiateur Européen contre la Commission Européenne, au motif que la Commission ne fait pas son taf de contrôle



Pour ajouter à l’ironie de la chose ( ça m’étonne que l’article ne l’ait pas mentionné, parce que c’est drôle quand même), la médiatrice européenne actuelle, Emily O’Reilly, est… Irlandaise :mdr:

Le 03/11/2021 à 10h 47


Qruby a dit:


Il faut absolument que RTE fasse l’analyse en TRE (taux de retour énergétique) de leurs scénarios. Cela n’a aucun sens de se basé sur des conventions économiques qui peuvent changer en 30 ans, alors que ce qui importe pour nos sociétés c’est le TRE.


Est-ce que tu as jeté un oeil aux explications (https://www.cea.fr/presse/pages/actualites-communiques/energies/quel-mix-electrique-decarbone-pour-2050.aspx => lien donné dans cet article NXI), ou à l’espace de RTE dédié au rapport ? (https://www.rte-france.com/actualites/futurs-energetiques-neutralite-carbone-2050-principaux-enseignements)



Il est explicitement écrit que l’étude porte sur l’ensemble du cycle de vie pour chaque scenario.
Tu peux voir ici le volet environnemental du rapport: https://assets.rte-france.com/prod/public/2021-10/BP2050_rapport-complet_chapitre12_analyse-environnementale.pdf
On peut également y voir que ça ne s’arrête pas au carbone, mais que d’autres points sont pris en compte qui sont également important pour nos sociétés.



Plutôt que de “critiquer préventivement”, c’est pas mal de faire l’effort de vérifier à la source si la critique est justifiée ou non. ^^”
Et c’est accorder bien peu de crédit aux gens qui ont bossé sur l’étude que de considérer d’office qu’ils vont zapper un truc qui est tellement standard qu’on trouve de la vulgarisation dessus sur Youtube.

Le 21/10/2021 à 16h 46


(quote:60842:skankhunt42 )
Calcule d’apothicaire : 17€/mois c’est 204€/an sois 1020€ pour 5 ans sois le prix d’un pc gaming.



Sauf que ton pc gaming tu peut le revendre très facilement pour 200€… Pour que ce système sois intéressant il faudrait donc que le prix de l’abonnement sois le prix d’un pc gaming étalé sur cinq ans moins le prix de la revente d’occasion.



( 800€ / 5 ans ) / 12 mois = 13.34€/mois.


Je ne pense pas que ta base de comparaison soit bonne, ici l’offre est spécifiquement pour une machine équipée d’une 3080. En ce moment avec la pénurie, 1000€ bah c’est même pas le prix de la carte ^^” Et on peut imaginer que l’offre évoluera à chaque génération pour toujours rester sur la “80” de la gamme en cours.
Le public cible, ça va être des gens qui ont un PC non-gaming (ou un PC anciennement gaming mais maintenant dépassé), qui ont un bon écran, qui ne veulent pas changer de machine (parce qu’elle correspond à leur besoin courant ou parce qu’ils ne peuvent pas se permettre de débourser d’un bloc le prix d’une bécane haut de gamme), mais qui veulent à l’occasion poncer des jeux solos (y a malheureusement trop de lag pour ne pas être frustré en multi) dernière génération en poussant les graphismes.
Perso c’est l’usage que j’en ai, j’ai une machine qui était gaming (plutôt mid-tier, mais plus de 1000€ quand même) en 2015, et qui fait tourner sans pb ma ludothèque de jeux pas récents (ou de jeux récents mais pas orientés “claque visuelle”). Mais quand j’ai l’envie (et le temps ^^” ) d’aller passer 70h sur un jeu AAA, bah je joue sur GeForce Now. Parce que je vais pas aller upgrade ma machine pour les deux gros jeux que je dois faire dans l’année.
Dans mon cas j’ai pas un super écran donc l’abo Priority me suffit, mais je pense que si j’avais un meilleur setup, j’upgraderais.



Comparer brut de pomme le prix d’un usage GeForce Now en continu au prix d’une machine, ça n’a pas vraiment de sens. ça en aurait un peu pour un Shadow qui vise à remplacer complètement ton PC.




Pour moi le véritable avantage du cloud c’est la possibilité d’avoir des jeux qui l’utilisent. Pour le moment il y à aucun jeu compatible


Euuuh… What? Tu as vu la liste des jeux dispos dans GF Now? Qu’est-ce que tu veux dire par “aucun jeu compatible”? Oo

Le 16/10/2021 à 02h 53


cedeber a dit:


Ok merci. Effectivement pas comparable entre eux. N’empêche que ça n’apprend tjs pas grand chose vu que le nombre de cas positifs dépend de la qualité du dépistage, ce qui en fait un possible gros biais de calcul, non? Par exemple à plus de 120000 positifs on inverse la vapeur.


En effet.
Après Taiwan a été très cité en exemple pour sa stratégie de contrôle de l’épidémie et ses dépistages, on peut estimer improbable qu’il y ait une erreur d’un facteur 10. Il y a même le risque inverse: qu’un même cas soit en fait testé positif plusieurs fois. Et comme je disais, j’ai gonflé en gardant les cas sur l’ensemble de la période.
On a aussi les chiffres de surmortalité de 2020 qui tendent à montrer que le covid a une mortalité significative.
Malgré tout, il y a bien sûr une grosse incertitude sur le calcul, ça reste fait à la louche sur de la donnée de masse sans prendre en compte le moindre facteur de variabilité.
Le but c’est de vérifier (relativement) rapidement, par rapport à un résultat qu’on veut nous présenter comme très surprenant / significatif de quelque chose de vraiment bizarre, “compte tenu de la nature de la donnée et de ce qui est inclus dedans, est-ce que le chiffre est vraiment anormal une fois ramené à une mesure de référence ? Est-ce qu’il montre ce qu’on dit qu’il montre ?”
Je pense que ça devrait être une mesure d’hygiène mentale systématique quand on présente de la donnée, et ça me hérisse quand c’est pas fait.
ça m’arrive régulièrement de vouloir montrer un truc à quelqu’un, de chercher des sources qui (évidemment) vont dans le sens de ce que je crois (parce que je ne suis pas mieux que les autres à ce niveau là), de les lire avant de les partager, et de finalement changer d’avis tellement elles sont pourries ^^” Ou de me rendre compte qu’en fait j’avais pas compris le sujet. Et je trouve que c’est une bonne chose.

Le 16/10/2021 à 02h 21


cedeber a dit:


L’article de Next Inpact est porté sur le pass sanitaire et l’article que j’ai partagé prouve que c’est une mesure inutile, voire même contre productive, puisque plus un pays est vacciné, plus il y a de cas de contamination.



Ce pass mondialiste n’est pas scientifique.


Arg. J’avais dit que j’arrêtais mais…
Le bait est trop tentant !



C’est un très bon matériau pour donner des explications basiques d’analyse et de lecture d’article du coup, parce que c’est un truc ultra simple, donc merci pour ça.
Je remets le lien vers l’article: https://link.springer.com/article/10.1007/s10654-021-00808-7



Donc, que fait l’article ?



Il prend, pour 68 pays (et pour un lot de comtés des US), deux données: le % de population vaccinée, et le nombre de cas covid détecté sur 7 jours, par million d’habitants.
Ensuite, il fait un graph avec ça, et il pose la question: quand on compare les pays entre eux (contexte ! c’est important ! un point = 1 pays à l’instant de la mesure) en fonction du % de vaccinés (axe des abscisses), est-ce qu’on observe une relation avec le nombre de cas par million (axe des ordonnées ) ?



Que conclut-t-il ?




At the country-level, there appears to be no discernable relationship between percentage of population fully vaccinated and new COVID-19 cases in the last 7 days


Il ne dit pas que plus un pays est vacciné en %, plus il y a de cas, ni que moins un pays est vacciné, moins il y a de cas. Il dit pas de relation discernable.
C’est super important, en science, le vocabulaire employé à un sens précis et fort.
En d’autres termes, cela veut dire que, quand on compare les pays entre eux sur le nombre de cas par millions, le % de la population qui est vacciné n’explique pas les différences de nombre de cas.
Quand une variable n’explique pas une autre variable, il y a typiquement deux possibilités: soit elles n’ont aucun rapport, soit elles en ont un, mais les données ne le montre pas parce qu’il faut prendre d’autres facteurs en compte. Je vous spoile la fin: ici on est dans le cas où il faut prendre (plein) d’autres facteurs en compte.




the trend line suggests a marginally positive association such that countries with higher percentage of population fully vaccinated have higher COVID-19 cases per 1 million people.


Cette phrase signifie qu’on pourrait voir dans la droite de tendance une très légère association positive, où les pays avec plus de vaccination auraient plus de cas par millions.
Notez les précautions oratoires, “suggests”, “marginally”. Elles ne sont pas là pour rien, en effet une droite de tendance a été tirée sur le graphique par principe, mais la variance des données est tellement forte que les auteurs savent que ce n’est pas suffisant pour pouvoir affirmer quoi que ce soit. D’où le titre de l’article: “Increases in COVID-19 are unrelated to levels of vaccination across 68 countries”. Unrelated=sans rapport)



Est-ce que c’est un résultat qu’on pouvait attendre compte tenu du contexte ?



Complètement ! Différents pays ont eu une approche différente de l’épidémie (et une date de démarrage différente). Certains ont beaucoup testé, d’autre pas, certains ont confiné, d’autre pas, ils n’ont pas vacciné au même moment, ni à la même vitesse. Il n’ont pas eu les mêmes variants. etc.
Il est donc tout à fait normal de trouver des pays très vaccinés avec beaucoup de cas (épidémie commencée tôt, peu de contrôle de la circulation avant de commencer à vacciner, variants…), des pays peu vaccinés avec peu de cas (fort contrôle de la circulation, vaccination tardive), des pays très vacciné avec peu de cas (fort contrôle + forte vaccination tôt) et des pays peu vaccinés avec beaucoup de cas (peu de contrôle, vaccination tardive), avec toutes les nuances intermédiaires.



Est-ce que ça veut dire que la vaccination ne diminue pas les chances d’être contaminé, et que c’est contre-productif de pousser à la vaccination ?



Absolument pas ! Les données employées ne permettent tout simplement pas de répondre à la question des chances de contamination quand on est vacciné.
Pour cela, il faudrait d’abord comparer, au sein d’un même pays et au fil du temps, l’évolution du nombre de contaminés vaccinés par rapport au nombre total de vaccinés, et l’évolution du nombre de contaminés non-vaccinés par rapport au nombre total de non-vaccinés.
L’article ne fait pas du tout ça, et ce n’est pas son propos. Par contre, dans sa partie interprétation des résultats, il cite un rapport Israëlien sur le sujet: https://www.gov.il/BlobFolder/reports/vaccine-efficacy-safety-follow-up-committee/he/files_publications_corona_two-dose-vaccination-data.pdf
Rapport qui conclut qu’avec 2 doses de pfizer, même si on a moins de réduction de contamination que lors des essais sur l’alpha, on a quand même une réduction de 39% de contamination sur le delta. C’est pas rien ! ça ne nous permet malheureusement pas de stopper les contaminations comme on aurait pu l’espérer, mais ça contribue quand même significativement.



Mais si les pays les plus vaccinés ont le plus de cas par million, ça veut bien dire que la vaccination n’a aucun effet là-dessus, quand même ?



Et bien non, et ça se démontre très facilement avec un petit contre-exemple.
On va prendre Israël, puisque c’est le point qui a le plus impressionné les auteurs de l’article, avec 6000 cas par million sur 7 jours (le taux le plus haut), pour 60% de vaccinés. (note: après Israël sur le graph, on trouve 6 pays qui sont tous plus vaccinés, jusqu’à 80%, et qui ont tous moins de 1500 cas par million, le plus vacciné du lot ayant le moins de cas, à 600 par million. Comme quoi y a vraiment pas de tendance)
On a donc 40% de non-vaccinés. Pour tout ramener dans la même unité, ça fait 400 000 non-vacciné par million.
En clair, ça veut dire que même si le vaccin était efficace à 100% contre la contamination, avec un taux de reproduction de 1 (une personne en contamine une autre), on pourrait en théorie rester à 6000 cas par millions pendant 400 000/6000 = 66,6 périodes de 7 jours = plus d’un an sans avoir besoin de contaminer un seul vacciné.
Evidemment je pousse au maximum théorique pour la clarté du contre exemple, mais cela démontre qu’à partir des données présentées, on ne peut absolument rien dire de l’efficacité ou non du vaccin sur les contaminations. Nada, que dalle.
Tout bonnement parce que le statut vaccinal n’est pas dans les données, et que même dans le pays avec le plus de contaminés par rapport au % de vaccinés, on pourrait avoir sans problème le nombre de contamination uniquement avec des non vaccinés.



Du coup le propos de l’article avec les données qu’il utilise, c’est quoi ?




The sole reliance on vaccination as a primary strategy to mitigate COVID-19 and its adverse consequences needs to be re-examined, especially considering the Delta (B.1.617.2) variant and the likelihood of future variants. Other pharmacological and non-pharmacological interventions may need to be put in place alongside increasing vaccination rates.


L’article dit ce que les données disent: comme le degré de vaccination n’explique pas les différences de nombre de contaminations alors qu’on sait qu’il y a un lien (c’est pour appuyer ça que le rapport Israëlien montrant l’efficacité du vaccin sur les contaminations sera cité), c’est donc que pour les expliquer il faut combiner au vaccin d’autres mesures. Il est donc important de ne pas se focaliser que sur la vaccination, mais aussi sur tout le reste, en plus de continuer à augmenter les taux de vaccination.
Est-ce que ça prouve que le pass sanitaire “est une mesure inutile, voire contre productive” ? Pas du tout !
Il n’y a qu’un seul passage où l’article dit quelque chose qui peut être vu comme une critique du passe sanitaire:




even as efforts should be made to encourage populations to get vaccinated it should be done so with humility and respect. Stigmatizing populations can do more harm than good.


Mais il s’agit d’une expression de l’opinion des auteurs, pas d’une conclusion pouvant être tirée des données.



Conclusions:




  • il est facile de citer une source pour appuyer son propos, mais de filer un lien vers un truc qui ne dit pas ce qu’on lui fait dire. Demandez des sources, et vérifiez-les !

  • un article scientifique, même quand il est au niveau 0 des stats, ça va super vite de mal l’interpréter ou de le surinterpréter. Il faut s’en tenir à ce qui est dit, faire attention au vocabulaire dont le sens scientifique est plus strict que le sens courant, et savoir distinguer ce qu’on peut réellement conclure des données des éléments qui relèvent de l’opinion des auteurs.

  • une donnée a toujours un contexte qui lui donne du sens. Elle s’inscrit dans un corpus bibliographique et une interprétation qui ignore ce corpus a de forte chance de tomber à côté de la plaque.

  • un article scientifique est souvent fait pour répondre à une question super pointue, sans être généralisable.

  • parfois (souvent), en science, la conclusion c’est que les données ne permettent pas de conclure.

  • Faites-vous vacciner. (exercice pratique: est-ce mon opinion ou quelque chose qu’on peut conclure de mon commentaire ?)




cedeber a dit:


Donc l’arrêt de la contamination par une vaccination de masse, c’est loupé.


ça, c’est effectivement montré par l’article. Il faut de la vaccination de masse ET d’autre choses. ^^”

Le 15/10/2021 à 22h 47


cedeber a dit:


Je vais lire les articles plus tard mais: et les morts étiquetés covid alors que ce n’est pas la cause, on en parle ? Parce que c’est la même histoire de l’autre côté. Du coup toutes les données sont faisandées? En fait tous les morts covid auraient du mourir. Avec une moyenne dans les 80 piges, ça se tient plutôt bien d’ailleurs.



Donc les 850 morts non vaccinés n’auraient pas été sauvés par la vaccination et les morts vaccinés ne sont pas mort du vaccin.



En fait on est juste en train de débattre sur la mort naturelle, quoi ?


C’est “marrant” parce que tu fais exactement la même erreur, mais dans l’autre sens…
A un moment il faut juste poser les calculs. Comment est-ce qu’on peut croire avoir une opinion valide si on n’a même pas fait l’effort de ramener les chiffres dans leur contexte et dans une unité comparables, histoire d’avoir au moins les ordres de grandeur ?



En fait tu te contentes de prendre les titres qui vont dans le sens de l’opinion que tu as déjà, sans chercher à vérifier le contenu, et tu trolles juste ceux qui prennent ça au sérieux en leur balançant les trucs à l’arrache et en les regardant passer du temps à faire le taf ? (trolldi quoi…)



Je le fais une dernière fois juste au cas où quelqu’un passerait qui serait vraiment intéressé par ce cas de comparaison fallacieuse “mort après vaccin vs mort après covid”, et après je laisse ce thread, de toute façon c’était pas ça le sujet de la news (après même si c’est HS je trouve ça plus intéressant que les débats sur le pass sanitaire).



Encore une fois, on a les data, donc on peut vérifier les ordres de grandeur.
En cumulé sur Taiwan depuis fin avril, on a recensé, en arrondissant au demi-millier supérieur, 16 500 cas.
On est toujours sur un taux de mort “naturel” de 7 pour 1000 en un an => donc il devrait y avoir 115,5 morts naturelles en un an pour 16 500 individus. Mais de mai à octobre, on a que 5 mois, en ajustant on obtient 48 morts naturelles. (note: et encore, cette fois j’ai gonflé le chiffre des morts naturelles en faisant démarrer le compteur des 16 500 individus au jour 1 et en faisant comme si ils restaient contaminés tout le long de la période. En réalité chaque cas individuel n’a qu’une fenêtre de 14j pour être testé positif. Après on va dire que ça compense le fait que même en ajustant, on recense moins de cas que ce qu’il y en a en vrai)
Or on observe un total de 846 décès, soit 17 fois plus de morts parmi les contaminés covid que le taux “naturel”.



Conclusion:
850 morts après vaccin: cela correspond à l’ordre de grandeur des morts naturelles compte tenu de la quantité de vaccinés
850 morts après covid: c’est 17 fois plus de gens morts que le taux naturel compte tenu de la quantité de contaminés



Ce n’est pas, mais alors pas du tout la même histoire, et non, les morts contaminés par le covid, dans une écrasante majorité, n’auraient pas dû mourir.




Donc les 850 morts non vaccinés n’auraient pas été sauvés par la vaccination


Ces chiffres ne disent rien sur l’efficacité ou la non-efficacité de la vaccination sur les décès. D’ailleurs il n’est nulle part écrit que les morts dont il est question ici sont non-vaccinés. Tu mélanges complètement là.
Ces chiffre disent “juste” que la vaccination ne tue très probablement pas, et que le covid tue beaucoup.
Comme je l’ai dit précédemment, pour savoir si la vaccination sauve (ou non), il faut comparer le taux de morts positifs au covid parmi les non-vaccinés avec le taux de morts positifs au covid chez les vaccinés, sur une même période. C’est exactement ce qui a été mesuré dans les études d’efficacité des différents vaccins.
Par ex la dernière en date: https://www.epi-phare.fr/rapports-detudes-et-publications/impact-vaccination-covid-octobre-2021/ suit bien le même nombre de vaccinés et non vaccinés, sur la même période, sur des population comparables (âgées, même répartition de comorbidités), et montre que lorsqu’ils sont contaminés, les non vaccinés se retrouvent beaucoup plus à l’hosto, et que lorsqu’ils sont à l’hosto après contamination, les non vaccinés meurent plus.
Maintenant est-ce que ça va durer dans le temps, on ne sait pas, mais manifestement, le vaccin sauve. (pour peu qu’on fasse confiance aux données. après si on n’a pas confiance dans les données, il n’y a mêle pas de discussion possible)
Si on considère que ces chiffres sont généralisables et que les 850 morts après covid étaient non vaccinés, alors deux doses de vaccin auraient sauvé 0,9 * (850 - 48) = 721,8 personnes.

Le 15/10/2021 à 17h 53


cedeber a dit:


Quoi? Les mecs se font injecter, meurent x jours/semaines après. Oh, ils seraient morts de toutes façons?


Ben oui, c’est l’idée. Comme je le disais le nombre de “mort après vaccin”, ça comptabilise toutes les morts de personnes ayant eu lieu x jours après un vaccin.
Toutes, quelle que soit la raison.
Donc toutes les personnes qui seraient mortes sans vaccin sont dedans.



Il faut arrêter de croire que parce qu’un évènement arrive après un autre, même inhabituel, les deux évènements sont forcément liés.



Tous les jours il y a des gens qui meurent. De crise cardiaque, de cancer, d’accidents, de vieillesse, ruptures d’anévrisme, différente maladies, etc.
Imaginons que je décide, arbitrairement, “le 25 octobre, tout le monde devra boire une cuillère de vinaigre de cidre”, et qu’on m’écoute.
Et bien tous les morts entre le 25 et le 30 octobre seront “morts moins de 5 jours après avoir bu une cuillère vinaigre de cidre”.
Est-ce que ça veut dire que le vinaigre de cidre est lié à leur mort ?
Non, à part le cas exceptionnel de la personne qui va avoir eu une allergie par ex, tous les autres seraient morts de toute façon.
Alors comment je fais pour savoir si un mort donné est mort “naturellement” ou est mort à cause de ma cuillerée de cidre? Et ben je dois prendre tous les morts, inventorier chaque cause de mort, puis regrouper les gens par cause de mort, condition, sexe, tranche d’âge, etc. Puis regarder si pour chaque groupe ainsi créé, j’observe une surmortalité. Est-ce que j’ai un excès de mort tout court ? Un excès de mort par crise cardiaque ? Un excès de mort par thrombose ? etc. etc.



Maintenant revenons au vaccin: c’est pareil.
Le taux de mortalité en france est d’environ 9 pour 1000 sur un an toutes causes confondues hors covid (chiffre 2017, wikipédia).
Simplifions en considérant que c’est uniforme par jour: (9 100) / 365 environ égal à 2,5 donc sur une cohorte de 100 000 personnes prises au hasard, sur un mois, en condition “naturelle”, j’aurai 2,530 = 75 morts.



Donc, si j’injecte un vaccin à 100 000 personnes random sur une journée, puis que je note tous les gens parmi ces 100 000 qui meurent dans les 30 jours après, j’en aurai toujours au moins 75 dont la mort ne sera pas liée au vaccin. Et si je vaccine en continu 100 000 personnes parfaitement randomisées par jour pendant ces mêmes 30 jours, j’aurais (2,530)+(2,529)+(2,528)+…+(2,51) =1162,5 morts “naturelles” non lié au vaccin. (mort parmi les vaccinés du premier jour, morts parmi les vaccinés du deuxième jour, etc)
En conclusion, dans un pays avec un taux de mortalité de 9 pour 1000 pour un an, si j’injecte à 100 000 personnes par jour un vaccin ou n’importe quoi d’autre, et qu’au bout de 30 jours je regarde le nombre de “mort dans les 30 jours après injection”, si ce nombre ne dépasse pas 1162, je n’ai absolument aucune raison de croire que ces morts sont causées par l’injection, vu que c’est le nombre de ces personnes qui seraient mortes naturellement.



Maintenant, la réalité, ce n’est malheureusement pas mon cas super simple avec des taux fixes et constants partout, surtout en pleine pandémie: pour vraiment savoir il va falloir investiguer, trier, comparer des groupes, etc. (c’est là qu’on se dit que pour détecter aussi vite le pb de thromboses mortelles sur l’astrazeneca, il fallait vraiment avoir un système de pharmacovigilance au taquet et un bon paquet de stats préalables)



Donc, si on en revient à l’affirmation de base, “à Taiwan, les autorités sanitaires ont relevé 850 morts à X jours après vaccin”, et bien on ne peut absolument rien en conclure, et surtout pas que “le vaccin fait des morts”. A minima, il faudrait connaître la période de mesure, le nombre de personnes vaccinées sur la période et le taux de mortalité quotidien usuel sur la catégorie de population vaccinée sur la période (parce que dans le cas d’une vaccination par tranche d’âge, on n’attendra pas le même taux de base sur les +60 ans que sur les -30 ans par ex).



En regardant très vite fait des chiffres publics, le taux de mortalité usuel de Taiwan tourne autour de 7,6 pour 1000 (chiffres 2018 de wikipédia), donc avec les mêmes simplifications qu’au dessus, on s’attend à environ 2 morts par jour pour 100 000 habitants. D’après “our world in data”, entre le 1er septembre et le 1er octobre, environ 3,5 millions de personnes ont reçu une première dose => environ 116 000 par jour.
Du coup on est très proche des 100 000 par jour de mon exemple, même un peu au-dessus.
Si on fait le même calcul que ce que j’ai fait précédemment, en restant à 100k vaccination/jour et en descendant à 2 mort pour 100k, on arrive à 930 morts naturelles après vaccin.



Conclusion: juste avec les données publiques et un peu de maths, 850 morts après vaccin à Taiwan, c’est complètement de l’ordre de grandeur de ce qu’on attendrait comme mort sans vaccin (si on est sur du 30 jours, c’est une hypothèse mais j’ai pas trouvé l’info), et ça ne permet donc absolument pas de postuler que le vaccin tue.
Evidemment, la réalité est plus complexe, mais ce genre de manip’ simple aide pas mal à se poser a minima des chiffres de référence pas trop éloignés du réel en termes d’ordres de grandeur.

Le 15/10/2021 à 13h 46


cedeber a dit:


On parle bien d’une efficacité probable ou pas ici, on est bien d’accord. Les vaccinés sont morts, autant que les non vaccinés. Efficacité nulle.


Mais… non… ça n’a rien à voir.



Si on reprend les deux chiffres




A Taiwan, le nombre de morts post vaccins a dépassé le nombre de morts par Covid (ils sont au coude à coude dans les 850 actuellement)


En les fixant tous les deux à 850 pour faire simple.




  • le nombre de morts du Covid: il s’agit du nombre de gens effectivement morts du Covid, depuis le début de l’épidémie. En grande majorité des non vaccinés (pas trouvé le chiffre exact). Ces gens ne seraient pas morts sans Covid (pour simplifier. En vrai il y a probablement dans le lot quelques personnes avec des comorbidités graves et quelques immunodéprimés qui seraient morts de n’importe quelle maladie, et un peu de nosocomial )



  • le nombre de mort dit “après vaccin”. Il s’agit d’un chiffre extrait de la base de pharmaco vigilance, qui compte tous les gens qui sont morts dans un certain intervalle de temps (je n’ai pas l’intervalle sous la main) après une injection de vaccin anti-covid. Toutes causes de mort confondues. En vue de chercher des surmortalités dans le cadre du suivi des effets secondaires des vaccins. Il n’y a pas de morts du covid là-dedans. (en vrai, probablement un ou deux)
    La quasi totalité des membres de ce groupe seraient morts vaccin ou pas vaccin, covid ou pas covid.




Les deux chiffres n’ont rien à voir. Ils ne mesurent pas du tout la même chose. On ne peut pas les mettre en relation et en tirer une conclusion de cette relation.



Le seul chiffre qui pourrait permettre de dire:




Les vaccinés sont morts, autant que les non vaccinés. Efficacité nulle.


Ce serait si on prenait deux populations homogènes de grande taille, vaccinée et non vaccinée, et qu’on comptait le nombre de morts du covid dans un groupe et dans l’autre sur une longue période.
Spoiler alert: c’est exactement comme ça qu’on calcule l’efficacité des vaccins.
Mais ce ne sont pas du tout ce à quoi correspondent ces chiffres morts du covid vs morts après vaccin. Ce sont des choses qui n’ont juste aucun rapport.

Le 15/10/2021 à 12h 20


cedeber a dit:


Ah oui, le site de FDA taïwanaise, ce site d’extrême droite complotiste…


Non, le pb ce n’est pas le chiffre, c’est ta façon de l’utiliser, tu dis




lol. A Taiwan, le nombre de morts post vaccins a dépassé le nombre de morts par Covid (ils sont au coude à coude dans les 850 actuellement)


en réponse à




Et sinon, pour le risque de mort, il est quasiment annulé pour les vaccinés et le risque d’aller à l’hopital est divisé par 10 (rapport à la charge virale du point 2)


comme si mort post vaccin était égal à mort à cause du vaccin.
Or pas du tout.



C’est standard en pharmaco vigilance de compter le nombre de personnes vaccinées qui meurent dans un certain intervalle après leur vaccination, pour ensuite aller regarder pourquoi elles sont mortes, au cas où il y aurait dans le lot des morts inexpliquées/mal expliquée (ce qui demanderait alors d’aller investiguer au cas où le vaccin serait la cause), ou une surmortalité pour certaines causes biologiques. (note: je suis allé vérifier avant de répondre, et le chiffre que tu utilises est bien le chiffre brut de décès post vaccins avant attribution de cause)



Le chiffre “post” brut total ne représente pas les morts par le vaccin.
A chaque instant il y a un % de la population qui meure de tout un tas de causes, il est donc tout à fait normal en pleine campagne de vaccination massive de voir des gens mourir après un vaccin, ce dernier ne protège que du covid, c’est pas un bouclier anti-tout.
C’est justement en investiguant ces morts post vaccins qu’a été observée pour astrazeneca une surmortalité par thrombose pour les jeunes, par rapport à la même population sans astrazeneca, et qu’on a ainsi pu estimer que sur une population “jeune”, l’AZ causait environ 2 thromboses pour 100 000 injectés. Et on a arrêté de l’injecter à cette population du coup, vu qu’à circulation du virus modérée, ça pouvait effectivement causer plus de mort que le covid. Comme quoi quand on a effectivement les preuves, on agit dessus…

Le 06/10/2021 à 14h 10


(quote:1905346:127.0.0.1)
Enfin, je rappelle qu’il n’est pas interdit pour un libraire, grande-surface, site web d’être plus attractif que Amazon.


Sans vouloir rentrer dans un troll, il ne faut quand même pas oublier qu’Amazon a profité d’investissements massifs pendant des années qui lui ont permis d’écraser la concurrence en étant constamment soutenu malgré ses pertes tout en diversifiant son activité. L’immense masse d’argent qui rentre aujourd’hui dans les caisses d’Amazon est le fruit d’un gros tas d’argent injecté pour amorcer la pompe et passer certains cap difficiles. Un acteur entrant aujourd’hui ne peut pas surpasser le fruit de 25ans d’investissements dans Amazon juste avec l’envie d’être plus attractif. ^^”

Le 05/10/2021 à 09h 21


QTrEIX a dit:


Attends c’est rien ça, et ça arrive de vouloir faire plusieurs choses en même temps, un jour ma mère m’a raconté qu’elle était chez une amie, son fils était avec sa copine, un moment ils étaient dos à dos en train de chatter sur leurs smartphones, peut-être étaient-ils carrément en train de s’envoyer des messages alors qu’ils étaient ensemble, ça m’a rappelé un épisode de American Dad :mdr2:


Peut-être qu’ils ne voulaient pas prendre le risque d’être entendus, tout bêtement. Ou whatever autre raison valable.
Chacun gère ses intéractions sociales comme il/elle veut, et c’est pas parce que les usages changent que c’est forcément mal ou risible.

Le 29/09/2021 à 21h 44


deathscythe0666 a dit:


Et ça se résout en fibrant 100% du résidentiel ou en ciblant les zones d’activité ?



L’article dit:
si, d’ici trois ans, 100 % du territoire n’est pas équipé


Donc pour toi, du territoire = du résidentiel ? Ce serait bien à un moment de lire les trucs avant de répondre au pif…



Et quand je te dis du coup que les entreprises peinent à s’implanter à certains endroits (donc peinent à former des zones d’activités…) faute d’infrastructures, ta réponse c’est de cibler les zones d’activités ? Aux endroits où elles n’existent pas donc. Ok. Merci.
A un moment c’est bien de répondre à ce que les gens ont effectivement écrit, pas à une autre conversation qu’on fait soi-même dans sa tête, où il serait question d’un résidentiel vs zones d’activités dont personne n’a parlé.




C’est loin d’être le principal et probablement pas celui sur lequel on devrait mettre tous nos efforts.


Et où est-ce que l’article dit qu’on devrait mettre “tous nos efforts” là-dessus ? Il dit en substance qu’il faudrait forcer les acteurs privés à aller réinvestir les bénéfices qu’ils se font sur les zones denses pour couvrir le reste du territoire, parce que manifestement ils trainent des pieds si on leur laisse le choix.
Il n’est pas écrit que c’est la seule mesure économique qu’on devrait faire, ni même la principale. Tu continues donc à répondre à des choses qui ne sont pas écrites.




En valeur absolue, en PIB par habitant et en nombre de grosses entreprises.


Oui, tu réponds à l’énumération qui n’est là que comme question rhétorique au sein d’une parenthèse, juste pour noyer mon propos de base qui était: ton argument ne vaut rien, c’est pas parce que les US auraient une économie “florissante” sans avoir le haut débit partout que le manque de haut débit n’est pas un frein au développement des zones rurales en France. (ce qui est le propos de l’article)




Et quoiqu’il en soit, cette proposition est débile.


pas vraiment plus que de la qualifier de débile sans argument.
Au-delà de l’effet d’exagération des 100% et du retrait pur et simple des licences, qui sont clairement là pour interpeler, il y a quoi de débile dans le fait d’exiger que les opérateurs arrêtent de ne profiter que de la partie du deal qui les engraisse et se sortent les doigts pour aller fibrer là où il n’y a pas ou très peu de couverture haut débit ? (pas la peine de répondre si ce n’est pas pour argumenter sur le fond, tu as déjà montré que tu savais répondre à côté)




Une autre question ?


Pourquoi est-ce que ceux qui, comme tu l’as fait ici, dénigrent pour dénigrer avec toute la mauvaise foi possible mais pas d’argument, le font toujours avec autant de condescendance ? C’est dans l’espoir qu’en étant suffisamment agaçant sur la forme, personne ne se rendra compte qu’il n’y a pas de fond ?

Le 29/09/2021 à 09h 39


deathscythe0666 a dit:


Le développement freiné par le manque de THD (alors que des pays comme les USA, bien moins développés en HD et THD, ont une économie bien plus florissante) j’y crois à mort. On a oublié que l’économie c’est avant tout des structures humaines avec des lois qui favorisent ou nuisent à leur fonctionnement, M. le député ?


Ce n’est pas parce que les US ont une économie plus florissante (et encore, “plus florissante” selon quelle définition? en valeur absolue ? en PIB par habitant ? en nombre de grosses entreprises ? autre définition ? ) sans THD partout que le manque de THD n’est pas un frein. Cet argument n’a pas de cohérence logique.
C’est comme dire “nan mais être en fauteuil roulant, c’est pas un frein dans la vie, il y a bien des gens en fauteuil qui gagnent des médailles sportives”…



Le fait est qu’à notre époque, disposer d’infrastructures de communication efficaces est un avantage compétitif, et on se retrouve à l’heure actuelle dans des situations ubuesques où les entreprises ne vont pas dans certaines régions faute d’infrastructures, où les gens ne vont pas dans ces mêmes régions faute d’infrastructures et d’entreprises pour avoir du taf, et où les constructeurs d’infrastructures ne font rien parce que comme les entreprises et les gens ne sont pas là, bah ce ne serait pas immédiatement rentable.



C’est donc bien un frein (pas le seul frein, et pas forcément le plus important, mais un frein quand même) au développement économique, a minima de certaines régions.

Le 29/09/2021 à 09h 19


vizir67 a dit:


c’était bien parti sa PPL. (j’y ai cru), puis… ‘patatras’ à la fin de l’article je lis ça..



« ne soyons pas plus bêtes que la moyenne : évidemment qu’on sait que le 100 % on ne l’atteindra jamais



s’il le reconnait lui.même, alors… :mad:


Il faut relire l’article, la PPL, c’est Guillaume Peltier maintenant, cette citation sur les 100% inatteignables, c’est un sénateur, Patrick Chaize en 2020. Donc non, celui qui fait la PPL ne se contredit pas. ;)




le sénateur Patrick Chaize, également LR, avait développé une autre analyse en 2020 :


Le 16/09/2021 à 09h 25

Allez, ça ne coûte rien de participer ! Et ma machine a bien besoin d’un upgrade ^^”

Le 16/07/2021 à 09h 14


Cumbalero a dit:


Formidable le site de ces crevards: tu n’as pas le choix que d’accepter les cookies.


J’ai cherché par curiosité, en fait il faut cliquer sur “plus d’informations” dans le bandeau, puis scroller très bas dans leur section “protection des données à caractère personnel” et on finit par tomber sur un bouton “s’opposer au dépôt de cookies” …
Un mode opt-out compliqué au lieu d’un opt-in, ça mériterait un signalement CNIL.

Le 30/06/2021 à 09h 23

Ça dépend quel cookie.
Pour les cookies “obligatoires” non soumis au consentement (suivi de session, cookie qui sert à savoir où en sont les consentements, etc), ils peuvent de toute façon être déposés.
En revanche, les cookies soumis à acceptation ne doivent pas être déposés avant que le consentement soit donné pour leur catégorie. (le modèle est opt-in, pas opt-out)

Le 18/06/2021 à 14h 05

Le fait est que les règles du RGPD sont connues de tous depuis 2012-2016. Les règles n’ont pas bougé d’un iota. (j’ai eu mon “rappel” de formation exactement identique à l’initial).
Ça fait 5ans que c’est obligatoire, et tous les sites trainent des pieds. Je comprends ta position, mais la situation actuelle est d’abord le pb des sites finaux qui ont tous attendu le dernier moment pour commencer à s’y intéresser. (certains attendent toujours)
Si tous les clients (càd détenteur de site web) avaient migrés dés le début les intermédiaires (CMS, régies pubs se seraient soit adaptés, soit auraient coulé faute de clients). Les clients ne jouent pas le jeu, les intermédiaires n’ont aucun intérêt à investir si il n’y’a pas de demande.



En 5ans tu as largement le temps de réécrire n’importe quel site web, y compris les pires daubes à base de CMS et autre *aaS

Désolé, mais je pense que tu n’as pas bien lu les cas que je décris, ou que tu es trop loin du terrain d’une grosse plateforme technique web ou d’un service juridique pour te rendre compte de ce que ça représente au quotidien.



Déjà pour commencer, nous ne sommes pas concerné que par le RGPD, mais par toutes les réglementations cumulées de tous les pays relatives aux cookies, traceurs, etc.



Ensuite, je ne parle pas des bases du RGPD (identifier une donnée personnelle, registre de traitements, obligation de consentement retrait, etc) sur lesquelles on donne des formations génériques en entreprise et qui sont effectivement bateau comme c’est pas permis.
Comme j’en ai déjà donné des exemples, il y a plein de cas qui sont des “zones grises”, notamment quand on parle de catégoriser des choses et apporter des preuves (notamment dès qu’on commence à parler d’ “intérêt légitime”). Des choses qu’on ne rencontre que sur le terrain dans les détails d’implémentation techniques, et qui sont systématiquement du cas par cas.
Tu te doutes bien que si nos équipes de juristes, dont c’est le métier, n’arrivent pas à trancher facilement les cas qui se présentent, c’est que l’impression de clarté et de simplicité que tu te fais est largement faussée par ta perspective.
Et plein de choses ont déjà changé depuis 2016, avec les interprétations locales du RGPD (je rappelle que le droit européen ne s’applique pas tel quel dans les états membres, les directives sont transposées, et donc interprétées.), les clarifications qui ont déjà été émises et le début de jurisprudence.



Point suivant, comme je le dit là aussi dans mon message précédent, la mise en conformité, c’est une chose, le maintient de la conformité, c’en est une autre.
Ma boîte fait partie de celles qui ont joué le jeu, quand le RGPD a été officiellement activé en mode “hard”, tout était conforme. (de toute façon on aurait mis offline tout ce qui ne l’aurait pas été. Pour le coup les sanctions sont assez dissuasives pour ça)
Et ta vision de “si tous les clients avaient migré, les intermédiaires auraient suivi” est pour moi assez révélatrice du fait que tu n’as aucune idée du fonctionnement des rapports de force entre gros acteurs dans la vie réelle ^^” Ce n’est pas faux dans l’absolu, mais c’est totalement infaisable.
C’est comme de dire “ben si tout le monde arrêtait de travailler, le patron serait bien obligé de céder aux exigences des employés”: je pense que tu peux voir qui si c’est effectivement vrai en théorie, en pratique les rapports de force font que les grèves qui aboutissent ne sont pas légion. (et que beaucoup ne démarrent même pas) Et que certains employés ne peuvent pas se permettre de faire grève, parce que sinon ils ne bouffent pas, ou ils arrêtent de fournir un travail duquel d’autres personnes sont dépendantes.
Le monde réel, ce n’est pas “yaka faukon”.




En 5ans tu as largement le temps de réécrire n’importe quel site web, y compris les pires daubes à base de CMS et autre *aaS
Cette phrase semble indiquer que tu n’as jamais bossé sur de grosses plateformes en constante évolution, avec des bibliothèques partagées, qui hébergent de nombreux sites avec des centaines d’intervenants, et qui fournissent des services nécessaires à l’entreprise, qui doivent rester up tout le temps, et pas juste des contenus à lire… Non, tu ne peux clairement pas réécrire n’importe quel site web en 5 ans. :) ( en tout cas pas en assurant que tout reste up et isofonctionnel en permanence, et pas sans faire exploser tes coûts en démultipliant tes équipes… bref pas en vivant dans le monde réel de l’entreprise)


Le 18/06/2021 à 02h 27


David_L a dit:


Vu que la loi FR est claire sur le sujet depuis plus de 1015 ans maintenant, tout le monde a quand même eu un sacré moment pour s’organiser, non ?


Pour le coup, je te trouve super catégorique, à la fois sur le fait que ce serait “clair”, et que “s’organiser” serait une question de temps.



Déjà sur la clarté, chaque pays, en plus de devoir combiner le RGPD à son droit national, va faire ses propres interprétations. (qu’est-ce qui représente un “intérêt légitime” par ex ? ) Il y a des tonnes de cas particuliers, et encore peu de jurisprudence. Cette couche RGPD n’est venue s’ajouter au reste qu’en 2016, ça ne fait pas plus de 1015 ans. (d’autres lois préexistent, mais elles n’ont pas du tout eu l’impact du RGPD. De plus, le montant potentiel des amendes a fait monter fissa la priorité de cette conformité là dans les services)



Ensuite, il ne faut pas seulement se mettre en conformité, il faut le faire à l’échelle, et surtout s’assurer d’y rester, ce qui est bien plus compliqué.
Mon équipe s’occupe du “core” pour une plateforme interne utilisée sur près de 200 sites, dans plus d’une quarantaine de pays qui ont chacun leur droit national. Des développeurs d’une dizaine d’entreprises autour du globe contribuent du code H24. Comme il s’agit de ecommerce, les sites sont opérés, via back office, par des équipes “marketing digital”: des gens qui n’ont pas de compétences techniques, chez qui c’est en permanence la valse des stagiaires, et qui sont démarchés en continu par des startups qui essaient de leur refiler des scripts en leur promettant que ça rajoutera des features sans passer par les équipes de dev, que ça boostera leur SEO/rétention/conversion/capacité d’analyses/etc, et in fine leur évolution de carrière.
On a beau avoir des auditeurs, des juristes et des responsables sécurité, des processus de revues et d’approbations, des scans automatiques, des formations… ça reste le boxon. Et on aurait 20 ans de plus devant nous que ce serait la même chose.




les différents acteurs de la chaîne ont une co-responsabilité s’il y a pistage non consenti. En cas de contrôle, tous peuvent être impliqués.


Je prends l’exemple d’un truc simple qu’on voit partout: les embed youtube. Et bien même si Youtube fournit un domaine “no-cookie”, nulle part dans la doc n’est donnée la garantie que ce dernier soit compliant avec toutes les régulations sur la vie privée (il ne l’est d’ailleurs probablement pas, il y a dépôt de cookies et d’éléments dans le local storage du nav, sans explication de ce que c’est). Youtube dit juste que sur ce domaine, l’embed ne fournit pas de contenu personnalisé. Mais pas qu’aucune donnée n’est collectée. Et Youtube ne fournit pas de ToS qu’il faudrait accepter avant que l’embed se load.
Sur le site même de la CNIL, qui contient des embed Youtube, il y a eu des développements spécifiques pour gérer le cas. (la CNIL met à la place de chaque vidéo son propre placeholder pour prévenir à la place de youtube que l’embed contient des traceurs) ex: https://www.cnil.fr/atom/18912
Sauf que voilà, moi un embed youtube, je me méfie d’office. Mais l’assistant marketing qui fait sa page de contenu quotidienne ? Ben il copie-colle le code que lui file la page youtube. Qui ne lui fournit aucune info sur un éventuel souci. Et n’est même pas fichu de mettre son propre encart de consentement en préalable à l’embed…



Dernier sujet en date encore en cours de traitement dans mon équipe:




  • un auditeur (contexte: droit français) nous remonte qu’un script, loadé sans consentement préalable, est un traceur

  • comment il sait que c’est un traceur ? “c’est ghostery qui le flag”

  • comment ghostery pense savoir que c’est un traceur ? Le domaine qui héberge le script appartient à une entreprise qui fait, entre autres choses, du targeting.

  • mais que fait ce script en particulier ? est-ce vraiment un traceur ? Et ben difficile à dire, parce qu’évidemment , il est assez massif, et minifié. Et aussi, pas dans notre code source…

  • d’où vient-il ? il est injecté par le logiciel en SaaS qui nous sert de fondation, et ne fait pas partie des éléments customizables

  • balle dans le camp de l’éditeur. Qu’est-ce que c’est que ce script ? Comment on le désactive ?
    On nous répond que c’est une bibliothèque qui sert à plusieurs fonctionalités. Que ça ne collecte pas de données. Qu’ils peuvent nous faire une version sans, mais pas le conditionner à un consentement en l’état actuel. Et que la version sans sera amputée de quelques features qui se basent dessus.



A partir de là, que faire ? L’éditeur assure que le script ne fait pas de tracking, mais est-ce que sa déclaration a valeur de preuve vs les listes de ghostery ? Qu’est-ce qui pourrait, dans ce contexte avoir valeur de preuve de conformité ? Une déclaration d’un auditeur mandaté ? Rien du tout ?
Et bien on en sait rien, on a tout fait désactiver, et on attend que les juristes finissent par se mettre d’accord pendant que le business râle parce qu’il n’a plus sa fonctionnalité.
Si la loi était vraiment claire, elle permettrait de résoudre ce genre de cas sans même avoir à réfléchir. Si nos juristes, dont c’est le boulot, sont à la peine, c’est qu’on n’y est pas. ^^”

Le 16/06/2021 à 15h 24

C’est déjà le cas. A part pour les cookies/scripts catégorisés comme “nécessaires”, (par ex ceux qui servent à indiquer au serveur quels consentement ont été donné ou pas, à maintenir la session ou à supporter des fonctionnalités sans lesquelles un site ne peut pas fournir le service qu’il est censé offrir), la loi interdit de déposer quoi que ce soit tant que l’utilisateur n’a pas consenti. (et interdit de cocher les cases par défaut, il faut que l’utilisateur fasse le geste de cocher les cases individuellement par type de consentement avant de valider).



C’est ce qui rend la mise en conformité des sites existants compliquée. Beaucoup de modules, notamment sur les CMS, se contentaient d’ajouter au code source de la page html un script fourni par un tiers, et fin de l’histoire. De nombreux webmestres, qui ne sont pas développeurs, ne savent pas faire autrement. (et ne savent pas non plus ce que les scripts qu’ils ajoutent peuvent bien faire pour fournir leur fonctionnalité)



Ce que font les boîtes qui proposent les bandeaux/popins relatifs aux cookies, c’est fournir un crawler: il interagit avec ton site web, il repère tous les cookies (qu’ils proviennent du site lui même ou qu’ils soient tiers), il te les classes dans les différentes catégories à partir de bases de données sur les différents acteurs, tu peux bouger des trucs via une interface d’admin si tu sais qu’ils ont été mal classifiés, puis tu valides et il te fournit le script qui gère la popin avec toutes ses infos dedans.
Pouf, c’est magique, tu as ton outil de collecte du consentement.



Sauf qu’en vrai, la popin, elle n’est pas magique, elle va juste stocker (dans son propre cookie ou dans un store distant interrogeable par API), la liste des consentement que l’utilisateur a donné ou non, mais elle ne bloque pas le dépôt des cookies concernés. Donc elle ne te met pas en conformité. En fait elle fait la partie simple du boulot…
Si tu n’as pas derrière un ou des développeurs pour aller analyser d’où vient chaque cookie et ajouter du code qui vérifie le consentement avant d’activer ou non les différents éléments, tu n’es pas conforme. Une vraie usine à gaz. :/



Surtout que tu peux par ex inclure dans ton site une ressource tierce qui elle-même inclut d’autres ressources tierces, mais pas tout le temps les mêmes (c’est typiquement le cas des régies pub).
Sauf que bah, c’est le site principal qui est censé recueillir le consentement de ses “partenaires”, du coup les prestataires de pub ne s’embêtent pas, ils fournissent d’énormes listes à intégrer aux popins, et il faut se débrouiller avec ça.
C’est un peu la grosse arnaque de l’application du règlement, toute la mise en conformité technique repose sur sur l’opérateur final, qui bien souvent ne tracke rien, au lieu de reposer sur les intermédiaires qui siphonnent la donnée. Eux n’ont rien à faire à part fournir des listes des cookies qu’ils posent…



Bref, sorry pour le pavé, la gestion de la conformité RGPD de différentes plateformes web fait partie de mon quotidien, et c’est source de nombreuses prises de têtes ^^”

Le 14/06/2021 à 14h 39

À ne pas parler du même sujet, ça risque de finir en “dialogue de sourds” !
Je parle de risque d’indisponibilité, tu parles de risque financier.



Cette dernière manière de penser est tout le nœud du problème : tant qu’il n’y a pas de risque financier, briser la disponibilité n’est pas un problème… et on s’est donc retrouvés avec un grand nombre de grosse plateformes indisponibles.
Pour ceux que ça ne choque pas, c’est qu’ils participent à ce second logiciel.



Une n-ème preuve, s’il en fallait, que :




  • l’utilisateur n’est pas roi, l’argent si (souvenez-vous en quand vous entendrez des discours qui semblent sous-entendre que l’utilisateur est le cœur des priorités)

  • les grosses structures ne sont pas des modèles

Évidemment je parle de risque financier, parce qu’on parle de plateformes commerciales.



Elles ont été indisponibles 1h, ce qui est largement dans les marges de tolérances. Améliorer la disponibilité, ce n’est pas une opération linéaire en termes de coûts, c’est une exponentielle, les derniers pouillèmes de pourcent à eux seuls sont plus chers que quasiment l’ensemble de la couverture précédente.



Je travaille dans une très grosse boîte et j’opère un grand nombre de sites e-commerce. Nous avons un contrat avec un seul CDN, et un prestataire cloud pour l’infra. Évidemment tout est backupé dans plusieurs data centers (et tous les sites ne tournent pas dans le même) et nous avons une procédure, testée, qui nous permet de tout remonter si ça plante.
Mais ce remontage se fait forcément “à froid”, on a donc un incompressible de 1 à quelques heures pour retrouver une activité dans le cas où un datacenter aurait sauté.
Le seul moyen pour battre ce gap de dispo, ce serait de pouvoir remonter “à chaud”, et donc d’avoir un full miroir toujours up, dimensionné pour encaisser le pic de transition de tout le traffic si nécessaire. Ça reviendrait à augmenter nos coûts d’infra d’un bon 50%, juste pour gagner 1h ou 2 dans le rare cas où on aurait un datacenter qui chute. (c’est arrivé une fois en 7 ans)
Pour des sites de vente en ligne.



J’ai vraiment besoin d’expliquer en quoi ce serait absurde de mettre une telle débauche de moyens (ça cuberait en millions d’euros) pour un gain de dispo aussi ridicule ? (1h de dispo gagnée sur 7 ans…)



Un bon modèle de risque est un modèle qui reste réaliste par rapport à la criticité des services considérés. Est-ce flouer mes utilisateurs de m’autoriser la possibilité d’un downtime ? Je ne pense pas.



Évidemment, si j’opérais l’infra du réseau électrique, des services hospitaliers ou des numéros d’urgence (hem…), le modèle de risque serait entièrement différent.



A mon sens la position que tu sembles défendre comme quoi tout service quel que soit sa nature devrait à ses utilisateurs une dispo 100% à tout prix n’a pas de sens, ce serait juste un gaspillage de ressources monstrueux.
Pour une plateforme commerciale non-essentielle, il est tout à fait normal d’intégrer le risque de dispo dans le cadre financier.
Pour un service essentiel, la disponibilité devrait primer, mais ici ce n’est pas le contexte.