votre avatar Abonné

fdorin

est avec nous depuis le 26 mai 2017 ❤️

2770 commentaires

Le 09/11/2023 à 07h 37

Concernant le rapport même, il fait également débat ailleurs, comme le révèle vos confrères de l’informé (un certain Marc, je crois que vous le connaissez :D).



Notamment, le Parti Pirate en prend pour son grade. Seul hic, il n’a jamais été auditionné dans le cadre de ce rapport. Il a également demandé un droit de réponse, publié sur le site du HCE, droit de réponse sans suite pour l’instant, même si une rencontre entre les deux pour discuter de cette affaire soit envisagée.

Le 08/11/2023 à 09h 27


Pour analyser la représentation des femmes et des hommes en ligne, le conseil a notamment procédé à l’analyse des cent contenus les plus vus en 2022 sur trois plateformes sociales : Instagram (les 100 publications qui ont recueilli le plus de likes et les comptes des 10 plus gros créateurs et créatrices de contenu, selon leur nombre d’abonnés), TikTok (les 100 publications qui ont recueilli le plus de vues) et YouTube (les 100 vidéos ayant recueilli le plus de vues dans les 30 jours après leur importation).


Il y a quand même un gros biais : savoir si ces 100 publications sont représentatives ou non.



Si, sur 100 publications au hasard, on retombe à peu près sur les mêmes chiffres, alors le problème n’est pas algorithmique, mais dans la source même des publications (=les auteurs) et n’est que le reflet de biais sociaux et sociétaux.



Si, sur 100 publications au hasard, on est sur du 5050 mais que le top 100 reflète une grave disparité, alors oui, le problème est algorithmique.



J’avoue que je n’ai pas lu le rapport en détail, je l’ai juste survolé. A priori, ils se sont juste basé sur les 100 contenus les plus vus. Bref, aucune conclusion possible.

Le 08/11/2023 à 15h 58


wagaf a dit:


Mais si un véhicule cause 10x moins d’accidents en moyenne qu’un conducteur humain (mais en cause tout de même) c’est un argument suffisant pour non seulement autoriser un tel système mais même aller jusqu’à rendre progressivement obligatoire l’utilisation d’un tel système pour se déplacer, un peu comme la ceinture de sécurité qui dans de très rares cas peut causer des étouffements mais en moyenne sauve de nombreuses vies (bon ok c’est un peu une provoc l’histoire de le rendre obligatoire mais si on y arrive vraiment la question se posera, c’est pour illustrer le fait qu’il est absurde d’exiger zéro accident pour remplacer les humains).


Je suis d’accord avec ça. Le souci qu’on a aujourd’hui, c’est en terme de responsabilité.



Actuellement, lorsqu’il y a un accident, l’humain est la source principale, que ce soit par erreur, par négligence, conduite en état d’ivresse ou sous l’influence de produit stupéfiant, fatigue, vitesse excessive, etc… Les facteurs “autres”, comme les problèmes mécaniques sont relativement rare.



Et donc, en gros, quand il y a un accident, on regarde du côté des conducteurs (comme ils sont derrière le volant), la responsabilité est éventuellement partagée entre les conducteurs impliqués



Avec la voiture autonome, les choses se compliquent grandement. Qui est responsable ?




  • est-ce le constructeur de la voiture, qui a choisi d’utiliser un système se révélant défaillant ?

  • est-ce le fournisseur du logiciel, qui a mal fait son boulot ?

  • est-ce le fournisseur de capteur, qui a fourni des capteurs défectueux ?

  • est-ce le constructeur du processeur qui aura bugué ?

  • est-ce le constructeur de la RAM qui aura laché ?

  • est-ce le gestionnaire de réseau 5G, qui a subit des perturbations et empêcher la voiture de fonctionner correctement ?

  • est-ce la météo ? (si certains capteurs ne fonctionnent pas dans certaines circonstance de température, d’humidité, etc.)

  • est-ce le “conducteur” (=celui qui décide de prendre la route), à cause d’un défaut d’entretien ?



Bref, sauf à avoir un constructeur qui s’occupe de TOUS les maillons de la chaine, cela risque d’être assez compliquée d’établir les responsabilités, chacun allant chercher la petite bête permettant de le dédouaner (“ah mais non, vous n’aviez pas appliquée la dernière MAJ, c’est votre faute”, ou encore “conformément à l’alinéa B-6 du paragraphe 3 de la section 14 du manuel de montage, ce type de capteur ne doit pas être utilisé, il faut ceux qui proviennent de chez machin”).

Le 06/11/2023 à 08h 52

Elle est d’autant plus amusante qu’elle ne veut rien dire dans ce contexte.



Le train est un véhicule très majoritairement électrique (en tout cas, en France).



Ici, je pense qu’il fallait plutôt lire “les voitures autonomes” et non pas “les véhicules électriques”. D’ailleurs, en lisant le tweet source, c’est une erreur de traduction. Je vais la signaler ;)

Le 08/11/2023 à 07h 24


(quote:2163857:127.0.0.1)




La mise à jour de votre avatar enfin possible
Recommandé : Carré d’au moins 1000x1000px Format JPG, PNG ou GIF.


au moins 1000x1000px ?! Mais c’est énoooorme. Heureusement que j’ai un gros égo.


C’est clair. On dirait un concours de bits… (inutile de me chercher, je suis déjà dehors :mdr: )

Le 07/11/2023 à 07h 39


pipoudo a dit:


Hello Un petit control+maj+R résoudra le souci ;)


Oui et non. J’ai l’impression que le problème est moins présent. Mais il l’est toujours. Par exemple, l’article de Mathilde “Stanford pointe le manque de transparence dans les grands modèles d’intelligence artificielle” apparait 2 fois, et fun fact, une fois avec 2 commentaires, et une autre fois avec 5.




Et Il se pourrait qu’il y ait un petit problème dans le décompte des commentaires sur les derniers ; c’est pas évident quand c’est nous qui devont noter à la main le nombre de commentaire de chaque article :-D


Que d’énergie perdue :mdr2:

Le 06/11/2023 à 22h 35


Les commentaires ne sont plus tout pétés (#56 #73 oui je le remets dans les bugs corrigés parce qu’ils se sont quand même pas mal améliorés ;))


Ah bah oui, ‘est sur, il n’y a plus aucun commentaire quel que soit l’article. Plus de com… plus de bogues :francais:



Trève de plaisanterie, c’est super vos petits poings régulier comme ça. Ca évite de mettre les points sur les i :mdr:



En tout cas, ça avance bien :) Félicitation à vous ! J’attends le thème sombre avec impatience (oui oui, même moi !!)



[edit]
pour les commentaires, quelques rares articles en ont. Mea culpa. Par contre, j’ai pas mal d’articles qui apparaissent en double

Le 06/11/2023 à 19h 48

Pas exactement la somme : on peut voir un contenu en n’étant pas connecté à ce moment-là tout en étant connecté à un autre moment (c’est une approximation acceptable néanmoins)

On est d’accord. C’est bien pourquoi j’ai dis que faire la somme avait un sens ;) (=approximation acceptable pour reprendre tes termes)

Le 06/11/2023 à 18h 30

Si j’ai bien suivi, les chiffres AMARS sont une obligation pour les plateformes soumises au DSA. Twitter n’a donc aucun intérêt à les surestimer (c’est même plutôt le contraire).



Du coup, je me suis dit que c’était peut être les utilisateurs connectés et les non connectés. Et il semblerait effectivement que “logged out users” désigne les utilisateurs non connectés, alors que “log out” signifie “se déconnecter”. Comme quoi on peut avoir un niveau pas trop mauvais en anglais, mais se vautrer lamentablement sur un contresens :craint: (je parle pour moi là hein, je précise ^^)



Dans ce cas, faire la somme des deux à un sens.

Le 06/11/2023 à 18h 05

Merci pour le complément de réponse. Mais il y a un truc que je ne comprends pas. “Logged out”, ce sont des déconnexions. Pourquoi les compter, sachant qu’on ne peut se déconnecter que si on a été connecté avant ?

Le 06/11/2023 à 17h 29


Des chiffres qui semblent manquer de cohérence avec le nombre d’usagers de la plateforme. La France comptait en effet 11, 5 millions d’usagers mensuels actifs en moyenne entre le 20 avril et le 20 octobre 2023, contre 9,8 millions en Espagne et 8,9 millions en Allemagne (avec 700 000 utilisateurs autrichiens, Twitter compte environ 9,6 millions d’usagers germanophones).


Je pense qu’il s’agit de comptes actifs, et non pas d’usager. Car 11 millions d’actif en France,, sachant qu’on est 68 millions, que si on compte 50 millions de personnes qui peuvent l’utiliser (on ne tenant pas comptes des enfants les plus jeunes (trop jeune) et de nos ainés (fracture numérique)), on arrive à 1 personne sur 5 qui utilise mensuellement X. J’ai beaucoup de mal à le croire quand je regarde ce qui se passe autour de moi.



Quelques personnes ont un compte. Parmi ces personnes, peu l’utilise régulièrement.

Le 06/11/2023 à 13h 33

Ah non hein !!!
Tu ne vas pas recommencer :D

:smack:

Le 06/11/2023 à 09h 59

Roh, vous n’avez même pas mentionné explicitement le .ink dans les gTLD ;)

Le 06/11/2023 à 10h 38

C’est une vision erronée que tu as je pense. Ce n’est pas Let’s encrypt qui a tué cela. Ce sont les choix des navigateurs en matière d’affichage des navigateurs. A une époque, certains certificats étaient affichés directement dans le navigateur, en vert, à gauche de l’URL. Je ne comprenais pas trop, à l’époque, pourquoi certains était ainsi alors que pour d’autres, c’était juste un cadenas vert.



Aujourd’hui, avec le recul, je pense que c’est tout simplement les notions de certificats DV/O/EV qui joue (notion que je ne connaissais pas à l’époque, parce que non sensibilisé).



Aujourd’hui, les navigateurs ont fait disparaitre ces distinctions (pour des problèmes de “simplification” de l’interface utilisateur, et surtout parce que certains c’était mis à penser qu’un site affichant un cadenas vert mais SANS le nom du certificat était un site non sécurisé.



Let’s encrypt a permis de démocratiser les certificats DV, en les rendant gratuits et très rapide à obtenir. Mais Let’s encrypt n’est pas le seul certificat DV. Loin de là.



Cette démocratisation a permis aussi la sécurisation des accès aux sites internet, notamment la connexion aux sites, en évitant que le mot de passe ne transite en clair. Avant Let’s encrypt, beaucoup de petits sites, de blog, etc. était uniquement en HTTP, le prix d’un certificat étant “exorbitant” à l’époque (plusieurs centaines, voire millier d’euro en fonction de l’autorité).




Ce qui me gêne c’est que pour tout un chacun, le certificat let’s encrypt est affiché de la même façon par le navigateur qu’un certificat avec validation de l’identité.


Je suis d’accord avec toi. Mais le problème, pour le coup, relève plus de l’affichage par les navigateurs que de l’entité de certification elle-même.

Le 04/11/2023 à 10h 00


fofo9012 a dit:


Le problème est que c’est un certificat racine, qui n’a qu’un rôle (Certificate Signing): valider les instances CA en charge des certificats, même le CA ne peut pas être bridé


Le CA peut être bridé… par lui-même. Un certificat racine peut limiter son champs d’action. Les certificats signés par lui ne pourront alors pas sortir de ce cadre.



Après, la vérification du bridage peut se faire via le processus d’inclusion. Pour les certificats actuels, ce sont les éditeurs des navigateurs et/ou des OS qui prennent plus ou moins cette responsabilité.



Mais pour un certificat qui serait, légalement, obligatoire d’inclure, cela ne rimerait quasiment à rien…

Le 04/11/2023 à 09h 55


fred42 a dit:


Ils ont essayé de le faire inclure par la voie normale, mais, il y a eu un amendement supprimant ce point. C’est toute la problématique du trilogue de l’UE !


Merci pour la précision. J’avais compris que les inquiétudes des experts avaient été supprimées, pas qu’il y avait eu une tentative de soumission de certificats aux navigateurs de manière “classiques” (=en gros, un ticket pour inclusion).




fred42 a dit:


Le besoin est quand même d’être autorité pour les certificats de signature numérique, de ce que je comprends.


On peut être autorité avec des droits restreints. Ce qui gêne ici, c’est qu’a priori, ils souhaitent pouvoir inclure des certificats racines sans aucune restrictions, ce qui permettrait de détourner le trafic et de faire des attaques de l’homme du mileu (on l’imagine aisément, pour espionnage/surveillance au sein d’un état).



Avoir un certificat racine, avec restriction d’usage (par ex. signature) et/ou de porté (à un domaine spécifique) résoudrait quand même bien des soucis…

Le 04/11/2023 à 09h 35


fred42 a dit:



Je ne suis pas assez pointu sur les certificats, mais, s’il est possible de restreindre une CA à la signature (de documents pour simplifier) et pas à la signature de certificats SSL, je pense que cela serait plus acceptable. Ça se limiterait aux logiciels de lecture de documents.


Normalement, c’est possible. Le certificat est un certificat “normal” non déclaré comme un certificat d’autorité (qui lui, est autorisé à signer d’autres certificats). En restreignant l’usage de la clé à la signature numérique, on doit pouvoir obtenir ça.



Si on regarde ça avec openSSL, il faudrait :




  • mettre basicConstraints=CA:FALSE

  • mettre keyUsage=digitalSignature, nonRepudiation



(j’ai rajouté la non répudiation, qui va souvent de paire avec la signature).

Le 04/11/2023 à 09h 28

Je pense que tu as assez clairement posé le problème. J’ai la même impression sur les buts, mais ce n’est qu’une impression.



L’article n’est pas très clair sur les buts à atteindre.



J’ai comme toi l’impression qu’au départ, c’est plus des histoires de certificats pour signature de documents, donc de l’authentification de personnes (physiques ou morales d’ailleurs). Pour traiter ce cas, il n’est pas utile d’embarquer un certificat racine dans un navigateur Web, éventuellement, juste dans la partie qui affiche les PDF pour vérifier leur signature.



Et le Web s’est rajouté je ne sais pas trop pourquoi. Les gens qui poussent cela savent (ou devraient savoir) que ça allait mal se passer puisqu’il y avait déjà eu des protestations sur le risque de man in the middle. En plus, leur communication n’est pas bonne parce que les raisons de pousser cela pour le Web ne sont pas expliquées (sinon, je suis sûr, enfin j’espère) que ça apparaîtrait clairement dans l’article).



Donc, il reste un doute que le MIM soit une raison pour que ceci réapparaisse. Et ils ouvrent ainsi une voie royale aux opposants à ce système !



Je ne suis pas assez pointu sur les certificats, mais, s’il est possible de restreindre une CA à la signature (de documents pour simplifier) et pas à la signature de certificats SSL, je pense que cela serait plus acceptable. Ça se limiterait aux logiciels de lecture de documents.



Par contre, il faut que les éditeurs de logiciels gardent la possibilité de supprimer les CA d’une autorité étatique qui génère des certificats pour espionner ou toute autre chose qui trahit la confiance que l’on peut avoir. Je pense que cette épée de Damoclès est le meilleur rempart contre l’usage abusif des certificats racines. En plus, la mauvaise publicité pour l’état concerné serait lui aussi un frein fort.

Et on peut rajouter aussi : pourquoi vouloir imposer directement, sans même avoir essayer de les faire inclure par la voie normale ? Cela ne peut qu’attiser les soupçons sur le procéder.

Le 04/11/2023 à 08h 49


fofo9012 a dit:


Malheureusement Firefox utilise aussi par défaut les certificats windows, donc une simple mise à jour windows et la majorité des navigateurs par défaut feront confiance à ce certificat.


Sauf s’il y a eu un changement et que je suis passé à côté, Firefox utilise son propre magasin, pas celui de l’OS (par défaut, je suppose qu’il y a une option pour changer ça pour les contextes d’entreprise notamment).




Ce n’est pas si simple que virer l’instance de certification : Premièrement, l’article explique clairement que le but premier est d’avoir une certification d’état typiquement pour signer des documents officiels (par exemple avec un notaire) ou faire des démarches en ligne. Si tu dégages le certificat racine tu ne pourras plus faire des signatures en ligne d’état. Secondo, tel que l’article est rédigé, j’ai plutôt l’impression que l’intention n’est pas de faire du man in the middle à tout va, ça a plus l’air d’un choix technique erroné. (En effet tu l’expliques bien ça permettrait possiblement de faire un man-in-the-middle)


Le souci, c’est que la solution, telle que présentée, ouvre une porte ouverte à ce type de menace. Quand on voit la “jirouette” politique que peut être un changement de gouvernement, qui peut savoir ce que l’on aura d’ici ne serait-ce que 5 ou 10 ans au pouvoir ?




Si cette “solution” technique passait (j’en doute), il suffirait que le navigateur détecte le certificat racine de la chaine de certification, si il tombe sur celui-là on pourrait afficher un logo européen à la place du cadenas TLS par exemple.


C’est une solution oui.



Maintenant, si le but est de signer les documents officiels, etc. alors le certificat racine devrait inclure des contraintes limitant son usage (la norme le permet), par exemple, sur un ensemble de domaines bien défini (au hasard, pour la France *.gouv.fr).

Le 03/11/2023 à 17h 16

Il existe bien un enregistrement DNS pour ça (CAA). Il permet de définir l’autorité de certification qui est sensé avoir délivré le certificat.

Le 03/11/2023 à 14h 42

Je pense que oui, c’est abusé car :




  1. cela ne veut pas dire que les Etats vont utiliser ce certificat de manière généralisée

  2. il faudrait que les certificats soit des certificats sans restriction (on peut imaginer un certificat racine valable uniquement pour les .gouv.fr par exemple)

  3. il faut intercepter le trafic à un moment ou à un autre (par exemple, chez les FAI, comme il y a déjà des boites noires chez eux)



Maintenant, c’est pas totalement abusé, car cela faciliterait GRANDEMENT la chose. Là dessus, on est d’accord.






Apparté sinon, concernant les navigateurs eux-mêmes :




  • Firefox : est directement impacté, puisqu’inclue son propre magasin de certificat

  • Chrome (et ses dérivés) : pas certains, car ils utilisent les certificats présents sur la machine (il me semble que Google voulait mettre en place une solution similaire à Firefox mais je ne sais pas du tout si c’est toujours au programme et où cela peut en être).



Firefox étant open-source, il sera plus ou moins facile de dégager le certificat s’il venait à être imposé à Mozilla.



Pour Chrome, si le navigateur n’inclue pas de base de magasin de certificat, cela voudrait dire que Google devra en ajouter un. Et comme pour Firefox, les versions open-source de Chromium risque vite d’avoir des patchs pour se débarrasser de ces certificats coté client (et là, je ne vois pas trop ce que peuvent faire les Etats à ce niveau)

Le 06/11/2023 à 09h 48


(quote:2163511:DantonQ-Robespierre)
…Peut-être dans ce cas pourrait-on ajouter un chiffre de 0 à x après chaque abréviation, terme technique ou acronyme, de façon à ce que RCP(0) voudra toujours dire : Redevance Copie Privée et RCP(1) : Rich Client Platform. Dans ce cas, le chiffre n’apparaîtrait pas dans le rédactionnel, mais serait considéré comme un commande (ou un tag) interne.


Plutôt qu’un chiffre (ce qui serait difficile à retenir) plutôt le début de l’acronyme, ou un mot contenu dans l’acronyme. Ce sera moins contraignant cognitivement parlant.




(Complément : ajouter un signe quelconque avant l’acronyme (je suggère °), afin que le cms comprenne que c’est bien un tag.)


Du coup, entre le préfix et l’indication par paranthèse, on perd une grande partie de l’automatisation, rendant presque l’automatisation inutile. Car il ne faut pas oublier que dans ce cas, il faudrait gérer une base des accronymes (donc un travail supplémentaire, notamment pour le tenir à jour)




Il pourrait même exister une fonction qui déplierai les acronymes : chaque fois que le journaliste écris : RCP(0) (ou n’importe quelle autre abréviation, ou terme technique un peu compliqué), les trois lettres fatidiques seraient systématiquement remplacées par le nom complet : Redevance Copie Privée. Ça pourrait aussi être une option, déclenchable ou non, dans les paramètres du compte ?


Comme je le disais dans un commentaire précédent, techniquement parlant, il n’y a pas de grandes difficultés à mettre ce genre de chose en place. C’est juste que c’est une suite de microfonctionalités qui sont nécessaires pour former un tout cohérent, et que cette suite prend du temps pour être développée.




D’où ma dernière suggestion : la base de données pourraient être proposée sous la forme d’un wiki (en gros, une base de connaissances), afin que tous les membres, quel que soit leur statut (abonnés ou pas) puissent aider à la rédiger.


C’est une idée. Mais aussi une source de modération supplémentaire. C’est un “détail” à prendre en compte (comme tu l’as souligné à la fin de ton commentaire, je viens de le voir ^^).

Le 06/11/2023 à 09h 19


SKN a dit:


Au contraire je pense pas que la partie “administrative” sois si complexe :


Elle n’est pas complexe, dans le sens difficile. Elle est complexe dans le sens, temps nécessaire pour la mettre en oeuvre, car cela nécessite beaucoup de petits développements ;)

Le 06/11/2023 à 08h 16


SKN a dit:



Mais surtout, sur ce genre de concept d’infobulle et avec un peu de dev, je pense qu’il est possible d’avoir une petite BDD d’acronymes et de nom d’entreprise et que le tag se rajoute automatiquement à la première apparition du mot lors de l’écriture d’un article (avec notification / approbation du rédacteur) ce qui les rendrait cohérents, toujours identiques (avec évolution possible et dépréciation des anciennes descriptions pour les entreprises par ex) et surtout systématiques!


D’un point de vue purement technique, le rajout automatique dans les articles, surtout avec Wordpress, c’est quelque chose qui peut se faire assez simplement pour 80% des cas. La problématique avait une approche automatisé :




  • il faut gérer une “base de données” des acronymes

  • un article qui contiendrait beaucoup de référence deviendrait un nid à acronyme (ce qui peut rendre la lecture pénible)

  • il existe des doublons, ce qui nécessiterait une intervention manuelle dans ce cas là (ex: DOS : Disk Operating System ou Denial Of Service ? RCP : Redevence copie privé ? La commande rcp sous unix ? Rich Client Platform ?)



Si la partie visible de l’automatisation peut être faite simplement, la partie administration (de la liste des abbréviations et accronymes) et gestion au sein des articles par les auteurs (choix en cas de multiple possibilité) rendent la tâche beaucoup plus compliquée.



Peut être une idée à conserver pour le long terme ;)

Le 05/11/2023 à 15h 48


fred42 a dit:



Ici, on parle de la rédac. Le développement du nouveau site, c’est sous le poing dev !


et/ou Github (avec le mérite de ne pas voir les commentaires fermés au bout d’une semaine et une visibilité sans doute meilleure pour les dev).

Le 05/11/2023 à 16h 57


Gilbert_Gosseyn a dit:



Petit détail qui jure un peu : le sommaire reste en mode clair.


Pour information, je viens de publier une nouvelle version. Elle corrige le sommaire clair, ainsi que la pastille abonnée qui était devenue monochrome.



Il faut juste attendre la validation par les stores, mais cela ne devrait être qu’une question d’heure ;)

Le 04/11/2023 à 10h 15


Ferdi a dit:


J’en ai profité pour lâchement tenter tout le monde, la release de lundi n’est pas loin, la bêta est presque fonctionnelle, les commentaires descendent, et pour ceux qui veulent économiser sur la biafine, fdorin a pensé à tout.


:mdr:



Sinon, je compatis et comprends parfaitement pour les sueurs froides. J’ai connu ça il y a 2 semaines, sur une application utilisée par des milliers de personnes dans le domaine médical :stress:



Au final, c’était un problème réseau de l’hébergeur, mais j’ai eu beaucoup de mal à le diagnostiquer, car le problème ne touchait que les connexions HTTPS. La connexion au serveur en VPN était hyper stable. Mais c’était vraiment une journée de merde !

Le 04/11/2023 à 09h 26


Gilbert_Gosseyn a dit:



Alors … J’ai du aller dans le menu des extensions et ouvrir les paramètres de cette extension pourt qu’elle s’active (elle était bien autorisée tout le temps). Bizarre … Sinon, la bascule en mode sombre se fait automatiquement.


Ce comportement est sans doute du au fait que l’extension injecte sur une page Web des éléments (script javascript, css). Il faut donc une action supplémentaire pour l’activer (il faudrait que je le rajoute dans la doc).




Petit détail qui jure un peu : le sommaire reste en mode clair.


Faut que je regarde ça alors. Ca a peut être sauté avec les MAJ. Merci pour le retour ;)

Le 03/11/2023 à 12h 31

Retrouvé, ils appellent ça les Brownout Notice, en référence aux réductions / coupures électriques volontaires je pense.

:inpactitude: (j’espère que ce smiley va rester ^^)

Le 03/11/2023 à 12h 18


SebGF a dit:


Blague à part mais ça me rappelle le Brown Day (je crois que c’est bien le nom) que GitHub pratique pour une fonction dépréciée. Du style une API ou autre ayant une date de fin communiquée. Ils désactivent la feature pendant une journée.


Tient, c’est pas con ça :) Ca donne des idées. Merci pour l’info ;)

Le 03/11/2023 à 12h 10

C’était prémédité depuis 3 mois alors ;) C’était le certificat let’t encrypt arrivé à expiration ce matin qui a causé tous les soucis (les premiers en tout cas ^^)



[edit]
Mais j’avoue, j’ai pensé la même chose ce matin :francais:

Le 02/11/2023 à 15h 35


(quote:2163083:DantonQ-Robespierre)




  1. Un public auquel on ne pense jamais, mais qui constitue une minorité non-négligeable : les dyslexiques, qui ont des besoins particuliers.


La dyslexie est très difficile à prendre en compte, car c’est un terme “générique” désignant des troubles de la lecture. Mais les troubles ne sont pas forcément les mêmes d’un individu à l’autre, et une mesure qui convient à quelqu’un ne conviendra pas forcément à une autre personne (en aggravant parfois les difficultés de lecture). Il n’y a donc, malheureusement, pas de solution miracle.



On trouve le même genre de souci parfois avec le daltonisme. Il en existe plusieurs, dont un, très courant, qui a des soucis pour distinguer le vert du rouge. Sauf que ces couleurs sont fréquemment utilisées en UI, par exemple, pour des messages d’alerte ou de succès. Sur une application où j’étais intervenu il y a maintenant 13 ans (c’était à mes débuts !), une pastille verte/orange/rouge indiquait l’état d’un traitement. En discutant avec une utilisateur, j’ai appris qu’il était daltonien et que cela l’handicapait pour la bonne utilisation de l’application. Le simple fait d’avoir changé la pastille par un feu tricolore n’a rien changé pour les autres, mais lui a changé la vie à lui. Depuis, je fais toujours attention à ce genre de chose :)




Je l’ai essayé sur la police “Confortaa” afin de voir si on pouvait générer une version italique facilement et en une seule opération… et c’est possible, mais bof, le résultat c’est vraiment pas ça.


Merci pour ce retour d’expérience +1

Le 02/11/2023 à 15h 10



gavroche69 a dit:




:smack:


Le 02/11/2023 à 14h 42


(quote:2163064:DantonQ-Robespierre)
Donc si tu voulait ton boulot pourrait être simplifié au maximum : si tu choisis sans-serif (terme générique), l’OS va sélectionner de lui-même la police qui se rapproche le plus du modèle “Helvetica”. Et il suffit d’indiquer “serif” dans ton CSS pour que l’OS choisisses automatiquement ce qui se rapproche le plus du modèle “Times”.


J’avais bien ça en tête : les sans-serif et serif du CSS ;)




…Et maintenant si jamais il y a de la demande pour une police plus personnalisée (= moins générique), afin de rendre le site vraiment “spécial” avec sa propre police perso, il y a vraiment l’embarras du choix ! La seule préoccupation AMHA devrait être la lisibilité, la clarté, et tout ça sur le long terme.


Tout à fait. Mais bon, pour l’instant, il ne faut pas oublier que le site est une version bêta de bêta (j’ai enlevé un béta vu les multiples mises à jour ^^). L’extension est juste un petit plaisir sur un site qui a vocation à disparaitre d’ici quelques semaines.



Je la porterai peut être sur le nouveau, en fonction des choix qui auront été fait par l’équipe quant au design et à la personnalisation par utilisateur.

Le 02/11/2023 à 13h 52


(quote:2163048:DantonQ-Robespierre)
Merci à toi, petite précision : lorsque je parle de lettrage, je veux dire en fait lettrine (comme au moyen âge, les grosses lettres qui commencent un paragraphe), dans mon idée les textes ainsi que les titres resteraient en noir…


J’en prend note. Merci de la précision :chinois:




…d’ailleurs merci infiniment pour le sans-serif, je n’aime pas du tout la police actuelle… …que penses-tu de la police Confortaa ?


Alors, je n’ai rien contre la police (j’ai regardé, et elle semble pas trop mal effectivement). Maintenant, je souhaite ne pas faire de dépendance à des sites externes.



Je pourrais rajouter les polices dans l’extension, mais je ne voudrais pas en rajouter 36, une par utilisateur, surtout que les polices peuvent être plus ou moins lourde, en plusieurs variantes (bold, italic, etc.). Donc pour l’instant, je me suis basé sur les polices déjà chargés par le site ;)




Elle peut être utilisée librement pour tout projet, commercial ou non. Le seul problème : pas d’italique, mais il paraît que c’est facilement faisable.


Je ne sais pas si c’est facilement faisable ou pas, mais je sais que l’italique est utilisé sur le site. Donc c’est plutôt un critère d’exclusion pour moi.




…Sinon, autant en rester au sans-serif (dérivé de l’Helvetica), tout le monde sait ce que c’est et l’utilise au quotidien.


Je pourrais rajouter des polices “classiques” comme Helvetica ainsi que les polices définies au niveau du navigateur : rien à charger, juste de la configuration.

Le 02/11/2023 à 13h 28


(reply:2163043:DantonQ-Robespierre)


Merci pour les infos. Je vais créer un ticket sur github qui reprend tout ça, histoire de pouvoir le retrouver facilement ;)

Le 02/11/2023 à 13h 14


(quote:2163036:DantonQ-Robespierre)
Désolé, mais je ne saurais pas te dire comment transformer ça en css, pour moi le Hache-Teu-Meuh-Leu et compagnie c’est du Mandarin du New Hampshire avec un soupçon de Portugais Brésilien…


Pas de souci, c’était au cas où ;)



Hache-Teu-Meuh-Leu : à ne pas confondre avec Hash-Teuf-Beuh-Leef, le nouveau business de Teuf :mdr2:




…aurais-tu par hasard l’équivalent d’une pipette, pour capter la couleur de n’importe quel pixel et connaître sa valeur HTML en hexa ?


Gimp le fait. Et très certainement d’autres outils, mais dès que j’ai besoin de quelques retouchent, c’est souvent par lui que je passe ;)

Le 02/11/2023 à 12h 50


(quote:2163025:DantonQ-Robespierre)
MERCI pour ton boulot de dingue, géniaaaaallll !!! :incline:


Merci :)



Je ne sais pas comment tu as développer les variantes oranges, mais si c’est du CSS, je peux l’intégrer à mon extension. N’hésite pas à ouvrir un ticket sur Github pour approfondir le sujet si tu le souhaites ;)

Le 02/11/2023 à 11h 09

Pour les personnes qui souhaiteraient tester mon extension, elle est disponible sur les stores :





Pour rappel, cette extension n’est liée en aucune manière à l’équipe de Next, et permet, entre autre :




  • d’avoir un mode sombre

  • de gérer la justification

  • d’utiliser une police sans sérif

  • de condenser l’agora

  • de condenser la liste des articles



Retour sur la publication sur les stores :




  • Firefox : nickel, prévenu de la publication par mail. Délais : moins de 1j

  • Chrome : pas de souci particulier, mais aucune notification ! Délais : (pour la publication initial, je ne sais pas faute de notification, mais pour une mise à jour, c’est moins d’1j aussi)

Le 01/11/2023 à 13h 01

Bonjour,
Pour ma compréhension, tu fais un dév d’une extension à part d’un site en alpha qui évolue en permanence ou tu fais du dév pour Next ?



Dans tous les cas, et même si je ne compte pas l’utiliser, le rendu est plutôt bon je trouve :yes:

C’est un dev qui n’a rien à voir avec l’équipe de Next (c’est pour ça que je l’ai appelé Prev INpact :) )



C’était juste pour le fun. Cela faisait un bout de temps que je souhaitais m’exercer sur une extension pour navigateur, mais sans tomber dans le Hello World classique.



Là, j’ai un vrai cas d’usage, avec :




  • injection de script javascript / css

  • sauvegarde de la configuration

  • ajouts d’assets

  • plus le processus de soumission.



Après, si l’équipe de Next veut échanger pour pouvoir tester des fonctionnalités ou pour le partage d’idées, je suis tout ouvert :)



Pour le rendu, c’est encore perfectible. J’ai fais le gros oeuvre, mais il reste des finitions. Mais comme le site est en alpha, que certaines des fonctionnalités que j’ai rajoutées vont être incluses dans le site final, je m’amuse plus sur la découverte du développement d’une extension pour navigateur que de faire les finitions de CSS où je suis déjà plus ou moins rodé ;)

Le 31/10/2023 à 18h 38

Mise à jour de mon extension. Au programme :




  • version “condensée” de l’Agora

  • version “condensée” de la liste des articles

  • Travolta ^^



Voici quelques captures d’écrans :



Agora



Agora



Liste des articles



Liste des articles



Si vous voulez tester, vous pouvez :) C’est dispo ici : github.com GitHub



Et j’ai même déjà eu une contribution !

Le 31/10/2023 à 09h 31


Winderly a dit:


Mais est il nécessaire d’avoir un rendu similaire ?


Scénario :




Abonné : ouais, la nouvelle version, c’est trop nul. C’est moche, ça rime à rien. En plus, la police est monospace, ça prend un espace de dingue, c’est trop chiant pour la lecture



Next: ben ouais, avant, on imposait une police. Maintenant, c’est celle configurée dans le navigateur. Donc les choix de merde, c’est vous, pas nous.


Je caricature un peu, mais pour avoir suivi pas mal les commentaires, on était pas loin de la mauvaise fois pour certains utilisateurs. Par exemple, sur la justification, prétendument ajoutée à la béta rendant les articles illisible, alors que le site actuelle l’utilise déjà ;)



Un rendu similaire va éviter pas mal d’emmerde ;)

Le 31/10/2023 à 09h 23


(quote:2162636:Trit’)
Bof, est-ce que ça importe tant de savoir que j’utilise la police Ubuntu, Machin sur Windows a Arial ou Verdana et Bidule sur Gentoo préfère Liberation Sans ?


Dans la mesure où ça peut changer plus ou moins radicalement la visualisation d’un site, oui. Quand on voit les débats sur la taille de la police, les espacements, la justification, le sérif…



Sinon, grâce à toi, j’ai fais 2 rapports de bogues concernant les commentaires ;)

Le 02/11/2023 à 15h 46


ericse a dit:


Ok pour l’Apple II de Steve Wosniak, mais dès le premier Mac (celui de 1984) Steve Jobs a imposé une conception tout en un, non évolutif, et vendu avec une forte marge.


Wozniak et Jobs s’opposaient là dessus. Mais comme c’était Wozniak le bouilleur et Jobs le “marketeux” (sans connotation péjorative) Wozniak a réussi a imposer sa vision. Par contre, dès lors qu’il a pris du recul vis-à-vis d’Apple (pour des raisons diverses), Jobs a eu le champs libre pour imposer sa propre vision, qui est restée celle qu’on connait aujourd’hui.




Ca a toujours été sa vision du Mac (parfois même contre ses équipes), et elle perdure aujourd’hui, il n’y a pas vraiment de raison d’en être surpris ou déçu.


Si on se limite au Apple de Jobs, non, il n’y a pas de raison d’être déçu. Si on prend Apple depuis sa création, si.

Le 02/11/2023 à 09h 42


Gldump92 a dit:



D’un point de vue technique, Apple vend des machines “fermées” et les périphériques qui vont avec, cohérent par rapport à leur “modèle”.


Ce que je trouve ironique, c’est que l’histoire d’Apple a commencé avec un esprit totalement opposé. Quand Steve Wosniak était encore de la partie, c’était justement des machines ouvertes pour bidouilleurs invétérés. Aujourd’hui ce sont des machines totalement fermées, au sens propre (Apple est allé jusqu’à créer sa propre visserie !) comme au figuré (pas évolutif et écosystème fermé)



C’était la minute “c’était mieux avant” :D :chinois:

Le 01/11/2023 à 13h 50

J’avoue que je suis mitigé sur la position d’Apple. D’un côté, Apple met en avant la consommation énergétique moindre. De l’autre, tout est soudé, rendant les réparations sans tout changer impossible (et je ne parle même pas des évolutions).



Exemple : quand j’ai voulu testé le MacBook Pro, il a eu un souci de carte graphique. Il a fallut la changer. Sauf qu’elle était soudée à la carte mère, de même que le SSD. Le changement de carte graphique a donc imposé le changement de tout l’intérieur de la machine. Pour une machine qui n’avait même pas 1 mois, c’est quand même dommage.



Surtout quand on sait que l’impact environnemental des ordinateurs/smartphone est provient en majorité de leur fabrication, et non de leur utilisation.

Le 01/11/2023 à 12h 11


balourds a dit:



d’abord fonctions de hashage et signatures sont deux notions différentes et non liées (on signe d’abord avec la clef et on hash ensuite, c’est différence est d’importance)


Les deux sont liés. Plus précisément, la signature cryptohgraphique utilise un hash des données à signer. Les deux sont donc bien différent, et il existe bel et bien un lien entre signature et hash.




Les adresses BTC sont identifiés par un hash (SHA-256 et RIPEMD-160) de clef publique et pas directement une clef publique, la clef publique d’une adresse BTC n’est pas présente sur la blockchain tant que les UTXO ne sont pas dépensés. N’ayant que des hash (qui sont quantum résistant voir ici ) de clef publique sur la blockchain, il n’y a pas de risque de “casser” la blockchain comme cela est communément et injustement pensé (et donne lieux à des articles de mauvaise foi et sensationnalistes sur le sujet) Seul la dépense des UTXO nécessite la publication de la clef publique sur la blockchain, c’est la raison pour laquelle il est recommandé de ne jamais réutiliser une adresse BTC (une adresse ayant des UTXO sortants), c’est d’ailleurs ainsi que sont implémentés tous les portefeuilles BTC.


Je vais reformuler, car effectivement, la manière dont je l’ai dis porte à confusion. Je vais donc le dire autrement, et apporter des précisions.



Oui, l’adresse d’un wallet est dérivée à partir de la clé publique. Maintenant, un compte en lui-même, à besoin de la clé publique. Sans, tu ne peux rien faire. Fun fact, on peut envoyer des bitcoins à n’importe quelle adresse, mais s’il n’existe pas de clé publique associée, les fonds sont bloqués.



Maintenant, la dépense de bitcoin nécessite la publication de la clé publique. Hors, le bitcoin est un réseau complètement décentralisé et ouvert. Autrement dit, n’importe qui peut être mineur et valider des transactions. N’importe qui peut donc faire une attaque de type “de l’homme du milieu”, réécrire des transactions au moment de leur émission tant qu’elles n’ont pas été validées, et ainsi détourner des fonds.



Autrement dit : on a un système bancaire où les fonds sont bien au chaud sur des comptes, mais où tout mouvement de ces fonds seront “aisément” attaquable via l’informatique quantique. On obtient donc un système où :




  • soit on ne touche pas à ses fonds pour garantir leur sécurité => donc ils ne servent à rien

  • soit on touche à ses fonds, avec le risque qu’ils soient détournées => donc c’est très risqué.



Ce système bancaire ne sert alors quasiment plus à rien, n’ayant plus le gage de robustesse qui faisait sa spécificité. Il va perdre de la valeur (sachant que la valeur actuelle du bitcoin est purement spéculative). Perdant de la valeur, il va être beaucoup moins intéressant, donc moins attirer d’investisseurs, donc perdre de la valeur. Cercle vicieux => crash




C’est aussi la conclusion de l’article que tu cites pour appuyer ton affirmation fallacieuse, je cite :


Les mots ont une signification, et tu me prêtes des intentions malhonnêtes qui sont bien loin d’être celles que j’ai réellement. J’espère que ma reformulation, plus technique, répondra à tes questions, et t’expliquera pourquoi ordinateur quantique = fin du bitcoin pour moi.

Le 01/11/2023 à 09h 59


balourds a dit:


Je commente juste pour indiquer que cette affirmation est fausse. Les problèmes liées aux ordinateurs quantiques et au bitcoin ont été résolus assez tôt dans l’histoire du bitcoin par son créateur lui même.


Absolument pas. Les fonctions de hashage sont utilisées dans le processus de vérification/signature et est à la base du Proof of Work. Mais les portefeuilles sont identifiés par leur clé publique, rendant les attaques par ordinateur quantique tout à fait possible.



De plus, je t’invite à relire le lien de fred42,, article beaucoup plus récent que les travaux initiaux de Satoshi, où le bitcoin est bien défini comme étant hautement vulnérable par des chercheurs qui sont très certainement beaucoup plus calés que moi encore sur le sujet.

Le 01/11/2023 à 10h 40


(quote:2162838:33A20158-2813-4F0D-9D4A-FD05E2C42E48)
OK, j’ai juste besoin de 30 milliards de dollars de la part d’investisseurs pas nécessairement pressés de revoir leur argent.


Demande a Elon. S’il a un moyen de virer 80% de ses devs, il sera peut être preneur (désolé pour le petit troll ^^)



Pour en revenir au sujet, certaines choses s’automatise très bien, d’autre non. J’ai l’impression que l’exemple que tu donnes concerne la génération d’une API. Effectivement, ce genre de truc, ça s’automatise très bien.



Par contre, la consommation d’une API beaucoup moins. La partie “appel” oui, mais lorsqu’il s’agit de faire le mapping entre les données reçus et la représentation en interne (un adapteur quoi) avec potentiellement des traitements plus ou moins lourd durant la conversion, ce genre de méthode montre très vite des limites.



Qu’on soit bien d’accord, j’automatise aussi ce que je peux automatiser. Mais il m’en reste… je fais justement pas mal de consommation d’API et d’interopérabilité avec d’autres systèmes d’informations, et chaque cas est différent et unique, avec ses propres spécificités. Le retour sur investissement d’automatiser ça avec un fichier de configuration ou de description (appelle le comme tu veux), n’aurait guère de sens. Ecrire un fichier de code ou un fichier de description, c’est plus ou moins la même tâche, sauf qu’il faudrait en plus se fader le convertisseur/générateur.



Par contre, j’aurais X fichiers de code à générer, oui, ça pourrait avoir sens dans ce cas.

Le 01/11/2023 à 09h 27


(quote:2162816:33A20158-2813-4F0D-9D4A-FD05E2C42E48)
C’est quand-même fabuleux qu’en 2023 on dépense des milliards en IA génératives de code “chiant et répétitif” au lieu d’inventer une fois pour toutes un paradigme de langage de programmation


Mais je t’en prie. Fait. Je pense que l’ensemble de la communauté des développeurs te remerciera ;)




[Histoire Personnelle] En 1997 j’avais déja un outil ORM qui générait tout seul le code C++ et SQL à partir d’un fichier de description unique, et une règle dans le makefile pour regénérer à chaque changement du fichier description… [/Histoire Personnelle]


Le code chiant et rébarbatif ne se limite pas à l’usage ou non d’un ORM. L’usage d’une API, le mapping entre des modèles différents, la gestion de règles métiers (parfois semblable mais légèrement différentes les unes des autres), la génération de documents, la communication backend/frontend … Bref, les exemples ne manquent pas.