votre avatar Abonné

JNSON

est avec nous depuis le 13 juillet 2022 ❤️

161 commentaires

Le 18/11/2024 à 22h 45

Je ne suis pas sûr. Il suffit d'être assez large dans la définition, pour que OuiFi ne puisse pas remplacer le Wifi. Les lois sont souvent assorties de définitions, et lorsque je lis les définitions des lois déjà en place, il est n'est pas facile de jouer au plus malin :non:

Après, la plus grosse inquiétude de ce genre de texte, c'est je pense le fait que les entreprises qui joueront le jeu subieront une concurence déloyale des entreprises qui ne respectent pas les nouveaux standards, pas par détournement de la loi, mais par contre façon.

Le 18/11/2024 à 22h 33

J'ai juste dit que c'est possible. Personnellement je serais pour offrir 3 options :
- support du matériel pour x ans (10?)
- sinon drivers open source (avec licences pour modifier ?)
- sinon doc complète de la puce.

J'ai aussi l'impression que beaucoup de choses sont faites vites, dans les protocoles, notamment au niveau sécurité.

Oui, je suis d'accord sur le principe avec vous. Si ça devait être fait, il faut sans doute y aller par étapes et en laissant le choix de quelque chose de certes contraignant, mais qui laisse la possibilité de plusieurs stratégies d'adaptations et d'offres pour les entreprises.

Le 18/11/2024 à 22h 31

Ça reste compliqué... Il suffirait d'avoir un nouveau Wifi tous les 10 ans et un nouveau OuiFi 5 ans après le Wifi, tous les 10 ans.
Et les puces wifi sont compatibles OuiFi.

Je ne suis pas sûr. Il suffit d'être assez large dans la définition, pour que OuiFi ne puisse pas remplacer le Wifi. Les lois sont souvent assorties de définitions, et lorsque je lis les définitions des lois déjà en place, il est n'est pas facile de jouer au plus malin :non:

Le 16/11/2024 à 17h 56

Je ne suis pas sûr de comment légiférer. C'est un consortium privé. Personne ne te force à utiliser du wifi en 2.4 Ghz (comprendre : tu peux utiliser d'autres protocoles). Pour 5 et 6 Ghz je ne sais pas.
Même chose pour la GSMA. Je ne sais pas si les US sont encore en CDMA.

Concernant le fait que les mises à jour sont déjà quasiment toutes possibles, en indiquant qu'il est déjà possible de mettre à jour tout un tas de choses, je ne suis pas d'accord.

Quand c'est techniquement possible, ce n'est déjà pas le cas car l'entreprise a simplement abandonné le support (voir mon exemple plus haut sur mon ancien switch), d'où mon idée de drivers/firmware au moins en partie open source et au moins quand l'entreprise abandonne le support. Et quand c'est techniquement impossible, c'est parce que trop de choses ont été gravées dans le silicium pour rendre une mise à jour critique possible ET/OU, lorsque cela implique de mettre à jour trop de noeuds réseau en cascades et donc lorsque cela peut impliquer un crash du réseau. Le dernier exemple me semble assez probable lorsque la mise à jour se trouve dans la couche réseau. Je pense à l'exemple commun de l'IPV6 qui peine à être implanté (en parallèle et non en mise à jour) depuis 20 ans.

Donc, à mon sens, il faut forcément que les nouveaux protocoles réseau locaux ou globaux, soient pensés pour pouvoir être mis à jour assez facilement et indépendamment de la volonté des constructeurs de ces matériels réseaux. Sinon, cela veut parfois vouloir dire effectivement changer de protocole lorsqu'il y a une faille de sécurité.

Enfin ce n'est que mon avis, mais bon, c'est sûr que c'est moins vendeur que de vouloir aller sur Mars.

Le 16/11/2024 à 17h 44

Comme indiqué par intrépide, une bonne partie de tout ça est d'ores et déjà géré en logiciel (ce qui peut être au niveau firmware, ou carrément exécuté sur le cpu). C'est donc possible de changer (pas forcément pour toutes les puces), mais c'est un coût pour le constructeur... Donc si pas de punition des utilisateurs (boycott) et pas de loi, pas de raison de dépenser plus.

J'ai répondu plus bas à ce commentaire, dans votre premier commentaire

Le 16/11/2024 à 17h 42

Je ne suis pas sûr de comment légiférer. C'est un consortium privé. Personne ne te force à utiliser du wifi en 2.4 Ghz (comprendre : tu peux utiliser d'autres protocoles). Pour 5 et 6 Ghz je ne sais pas.
Même chose pour la GSMA. Je ne sais pas si les US sont encore en CDMA.

Le droit n'est pas ma spécialité, mais le législateur légifère sur tout un tas de choses. Par exemple, traverser en dehors des passages cloutés est illégal, ecrire un texte officiel en écriture inclusive rend le texte caduque, et au niveau européen, produire des pommes trop grosses ou trop petites est illégal (enfin si j'ai bien compris). J'imagine qu'il faudrait écrire quelque chose comme "en dehors des motifs impérieux listés dans l'article X, il est interdit de commercialier une nouvelle version d'un protocol réseau local sans fil, si la version précédente a moins de 10 ans, tout en rajoutant les éxigences techniques qui définissent ce qu'est un bon protocol du point de vue du législateur.

Mais bon, je pousse pas mordicus à ça, car c'est toujours mieux s'il y a auto régulation. Concernant votre remarque sur la charge financière que devrait supporter les entreprises du fait de ces choix politiques, il n'est pas interdit de supporter financièrement ce qu'une entreprise n'a pas à supporter toute seule. Le montage financier pour être sous la forme d'une association qui a une mission de service publique et financée par plusieurs états, au moins au niveau européen. Les entreprises productrices de puces seraient pourquoi pas obligées de produire une interface avec un driver open souce intégré dans l'appareil, et ce drivers pourrait être mise à jour via d'autres entités, notamment des entités avec financement publique citées plus haut, afin de ne pas pénaliser des entreprises par une politique extérieure à la leur.

Edit : quelques corrections

Le 16/11/2024 à 13h 52

20 ans, c'est forcément obsolète et troué (pour du sans-fil).
Wifi 802.11g en WEP, ou la 2G en mobile.
Déjà faisons 5 ans (voir 7) et obligation de mise à jour de sécurité sur la période.
Ça évitera de n'avoir le WPA3 uniquement sur Linux parce que truc muche n'a pas mis à jour le pilote Windows (coucou Intel)

Justement, dans mon propos développé plus haut, j'intègre bien l'idée d'avoir la possibilité de mettre à jour le protocole en cas de faille. Ce qui n'est pas prévu ici. D'où mon désarroi, et la critique de ce qui se fait actuellement. Pour moi les fonds R&D devrait surtout aller sur ces questions de modularité, soit pour des questions de faille de sécurité à corriger le cas échéant, soit pour des questions de dysfonctionnement technique et/ou juridique (juridique car tous les pays n'autorisent pas les mêmes fréquences).

Et donc in fine, on en reviens toujours au même. La durabilité en informatique et en télécommunication est liée à la possibilité de réaliser des mises à jour logicielles.

Le 16/11/2024 à 12h 14

Techniquement les anciennes bornes wifi sont rétro compatibles, donc point de gaspillage ici, on peut les utiliser encore de nombreuses années.
Et si maintenant les débits sont proches de l’Ethernet des années 2000, il a fallu des décennies de recherche pour y arriver, on pourrait se dire que la c’est bon on arrête tout, mais il y aura toujours de la demande pour plus.
Perso je pense qu’on arrive à une maturité de la techno qui fait que naturellement les gens ne changeront pas de matériel une fois équipés (à part une portion marginale de happy fews).
Pour rester sur une analogie réseau, je pourrais parier qu’une énorme proportion de lectrices et de lecteurs ont des switchs gigabit de plus de 10 ans encore en prod chez eux, et qu’ils ne comptent pas les remplacer parce que ça juste marche.

Je rajouterais aussi que j'avais aussi un Switch de plus de 10 ans, mais il provoquait des micro-coupures de manière intempestive, et avant le Covid, je ne m'en rendais pas trop compte. Avec les visio, c'était devenu un cauchemar, vu qu'il y avait des micro-coupures dans le son. Le fabriquant ne proposait plus de mise à jour. Il a quand même eu une seconde vie, car je l'ai vendu en occasion, et sans cacher son défaut, c'est à dire en l'explicitant.

Le 16/11/2024 à 12h 01

Techniquement les anciennes bornes wifi sont rétro compatibles, donc point de gaspillage ici, on peut les utiliser encore de nombreuses années.
Et si maintenant les débits sont proches de l’Ethernet des années 2000, il a fallu des décennies de recherche pour y arriver, on pourrait se dire que la c’est bon on arrête tout, mais il y aura toujours de la demande pour plus.
Perso je pense qu’on arrive à une maturité de la techno qui fait que naturellement les gens ne changeront pas de matériel une fois équipés (à part une portion marginale de happy fews).
Pour rester sur une analogie réseau, je pourrais parier qu’une énorme proportion de lectrices et de lecteurs ont des switchs gigabit de plus de 10 ans encore en prod chez eux, et qu’ils ne comptent pas les remplacer parce que ça juste marche.

Bonjour,
Merci.
Vous citez l'Ethernet, mais j'ai fait exprès de pas le citer. Car en effet, la norme 1000Base-T est sortie en 1999, soit bien il y a plus de 20 ans selon mes critères. Et avoir un Ethernet en gigabit reste très satisfaisant aujourd'hui, y compris sur des serveurs. Même le "10GBase-T" date de 2006, soit il y a presque 20 ans. C'est peut être pour cela que beaucoup on des switch de plus de 10 ans ?

A mon sens, la question serait plutôt : "combien ici ont des bornes Wifi de plus de 10 ans ?" (A ce propos, ça serait cool de pouvoir faire des sondages dans les commentaires ;))

Car concernant le Wifi, et le réseau mobile, il y a eu toutes ces normes en 20 ans (Wikipedia) :
- IEEE 802.11g : 2003
- IEEE 802.11n : 2009
- IEEE 802.11ac (Wi-Fi 5) : 2013
- IEEE 802.11ax (Wi-Fi 6) : 2021
- IEEE 802.11ax (Wi-Fi 6) : 2021
- Wifi 7 (2024)

Maintenant, on apprend qu'ils n'avaient pas prévu d'autres points techniques réservés au Wifi 8. Mon propos n'est pas de dire "c'est bon on arrête tout", mais plutôt "ne peut pas prendre un peu plus de temps pour sortir une norme plus durable" ? Mon Wifi 6E ne fonctionne même pas. Maintenant, c'est sur que la norme est rétro compatible, mais pourquoi ne pas avoir prévu une mise à jour des puces en cas de dysfonctionnement du protocole, quelque soit le niveau où il dysfonctionne ?

Ensuite, concernant la sécurité, et le WPA, effectivement, ils ont mis beaucoup de temps pour sortir WPA3, mais quasiment le jour de la sortie de WPA3, on apprenait qu'il y avait des problèmes de sécurité. Pourquoi ne pas avoir prévu dans le protocole la possibilité de le mettre à jour facilement, y compris sur les IoT et indépendamment des constructeurs des IoT ? Je n'ai pas creusé le sujet, mais il m’apparaît qu'il faut forcément changer le matériel si on doit passer au WPA4.

Concernant les réseaux mobiles (2G à 5G), ces derniers auraient des centaines de failles de sécurité non corrigeables. Pourquoi là encore ne pas avoir prévu un protocole qui supporte les mises à jour au niveau matériel ? Pourquoi parle t'on déjà de la 6G alors que je ne suis même pas en 5G, et alors qu'il s'avère que la 5G consomme finalement plus d'énergie https://next.ink/brief_article/la-5g-pourrait-demultiplier-la-consommation-energetique/ déjà plus que la 4G contrairement aux prédictions faites auparavant ?

Le 16/11/2024 à 11h 05

Est-ce qu'il ne faudrait pas réfléchir à une norme sur plusieurs aspects dès le départ (sécurité, maillage, débit, fréquence autorisées ou fréquences remplaçables, audit de sécurité, possibilité de mise à jour du protocole y compris sur les appareils non connectés à internet), pour sortir une norme Wifi une bonne fois pour toute ?

Pour moi, il faudrait réfléchir à un standard qui tienne 20 ans au moins. Peut être faudrait-il légiférer sur le temps minimum entre deux standards structurants, que ce soit en mobile comme en Wifi ? N'y a t'il pas une planète à préserver de l'extractivisme de matière première ?

Le 15/11/2024 à 23h 56

Il, me semble qu'il n'y a jamais eu de wifi 6E sur une freebox avant la ultra qui est passée directement au wifi 7, la pop est limitée au wifi 6 et les autres avant au wifi 5 (ac).

Vous dites "Il, me semble qu'il n'y a jamais eu de wifi 6E sur une freebox avant la ultra qui est passée directement au wifi 7". Donc vous sous entendez que je raconte n'importe quoi lorsque que j'évoque le wifi 6E et que selon vous, il n'y aurait que le wifi 6 ou wifi 7 chez Free et pas de wifi 6E.

Pourtant :
portail.free.fr Free

D'ailleurs, vous vous dites dans le commentaire d'après : "il me semble que la Delta a évolué en 6E", donc avant l'Ultra alors ? Et finalement il y a bien eu le Wifi 6E ? Pourtant, vous dites en premier lieu "il n'y a jamais eu de wifi 6E".

Encore une fois, ou voulez-vous en venir ? Je parlais de l'impossibilité de me connecter en 6Ghz, sauf à de rares occasion. Avez-vous quelque chose à dire à ce sujet ?

Le 15/11/2024 à 23h 33

on peut faire du wifi 7 sans les 6 Ghz, il me semble que le répéteur ultra n'en a pas non plus, il me semble que la Delta a évolué en 6E. La Pop a évolué wifi 7 mais sans les 6 Ghz (ils ont dû récupérer le répéteur de la ultra).

Mon propos de départ portait sur les 6ghz, pas sur le Wifi 7. Pour la pop, effectivement, il y a confusion de ma part, elle était limitée sur le Wifi 6 et non 6E. C'est bien la delta qui a eu la 6E. Pourtant, vous évoquiez que seule l'ultra avait la 6E*. Ou voulez-vous en venir ?

*Et maintenant, vous dites que c'est la delta

Le 15/11/2024 à 12h 06

Il, me semble qu'il n'y a jamais eu de wifi 6E sur une freebox avant la ultra qui est passée directement au wifi 7, la pop est limitée au wifi 6 et les autres avant au wifi 5 (ac).

La pop a bien commencé avec le Wifi 6, mais ils ont ajouté le 6E pendant un moment (c'est juste une carte à changer), puis je crois que la pop a basculé en 7 maintenant. Mais de toute façon, même avec le Wifi 7, le Wifi 6ghz n'est pas plus détecté.

Le 15/11/2024 à 11h 03

Je n'ai personnellement quasiment jamais eu accès au Wifi 6E (6Ghz) sur ma freebox. Je me suis toujours dit que c'était lié à des autorisations manquantes vu que cela fonctionnait auparavant d'après les forums qui discutent d'anciennes version de drivers des cartes Wifi PC sur lesquelles cela fonctionnait. Mais c'est un peu bizarre, dès fois, le 6ghz apparaît dans la liste des wifis disponibles... Ou alors, c'est juste la freebox qui bug.

Le 02/11/2024 à 14h 50

La vraie question maintenant, et "est-ce que les choses vont changer ?", "est que les IBAN bon être chiffrés ?" ET/OU "est-ce que les IBAN vont être stockés dans une autre base de données ?" C'est une question que je me pose, parque c'était pas ça le concept d'Halloween à la base. Donc ça serait bien si ça recommence pas tous les ans... :mad2:

Le 01/11/2024 à 09h 09

On a pas trop l'impression qu'on peut faire ça en Europe sans crise diplomatique ++

Le 28/10/2024 à 08h 39

Perso, j'ai plusieurs comptes free mobile liés à des emails différents. Je n'ai reçu le message que pour 1 compte.
L'envoi est d'hier 22h28, probablement qu'ils envoient par lot...

J'ai finalement reçu le mail de Free. Ils indiquent que l'IBAN est bien concerné par la fuite...

Le 26/10/2024 à 19h 12

Faire un prêt avec seulement les informations volées ici j'en doute fort, ou alors ça va être très très limité. Le minimum quand on touche à l'argent c'est quand-même de demander une carte d'identité, et pour un prêt on demande aussi très vite des signatures de contrat papier, d'autres justificatifs, de revenus, d'adresse (pas juste l'adresse mais le justificatif).

Après tout ça peut se falsifier tout ça mais bon quand ça va arriver chez l'usurpé ça va vite se voir que ça correspond à rien puisque l'escroc aura forcément fait des faux au hasard. Et il sera aussi possible de voir que l'argent n'est pas parti chez la bonne personne.

Une réponse aussi relativement simple c'est "vous avancez que j'aurais contracté tel et tel service, prouvez-le moi", en France on est présumé innocent, pas coupable (sauf pour les PV). C'est pas à toi de prouver ce que tu n'as pas fait, mais à celui qui demande de prouver que tu l'as fait.

Je ne sais pas, je ne m'y connais pas vraiment dans ce domaine, en tout cas pas plus qu'un usager averti.
Je me suis contenté de lire l'article cité par Sébastien plus haut sans rien y ajouter qui vient de mon expérience.

Le 26/10/2024 à 15h 52

L'article indique que le plus gros risque est l'usurpation d'identité, et que celle ci deviens possible si l'arnaqueur réussi à avoir l'adresse postale et l'IBAN. Or avec une usurpation d'identité,on peut faire un prêt en votre nom (entre autres) toujours selon l'article. Si la fuite de l'IBAN est confirmée, c'est encore pire que ce que je pensais.

Le 26/10/2024 à 08h 52

C'est curieux, je n'ai rien reçu. Est-ce à dire que la fuite est partielle ?

Le 26/10/2024 à 19h 03

C'est plus la méthode qui ne passe pas par un consortium que je trouve pas terrible. Si tout le monde accepte de s'aligner, ben cela veut dire que Apple prend ses décisions de façon unilatérale. La réplique serait de dire "tant pi", ce n'est que 10 à 20% de part de marché :/ Bon a priori, ça ne se passera pas comme ça, mais si c'est pour se prendre la tête comme ça, à un moment, je ne serais pas étonné que certains fassent ce choix.

Le 24/10/2024 à 18h 06

Ah c'est donc pour ça que mon application de banque demande depuis 1 jour l'accès à l'application "Téléphone" pour pouvoir vérifier qu'il y a pas de faux conseillers en ligne pendant une opération bancaire. Le problème, c'est que je veux pas leur donner l'accès à mes appels, je trouve ça trop intrusif. Donc je me contente d'utiliser le site en ligne pour mes applications courantes, et le 2FA via l'application limitée. Mais bon, je préférais quand la banque mettais deux jours pour activer un bénéficiaire externe à la banque, c'était plus simple et moins intrusif. Je comprend que via ce procès, il se sentent responsables maintenant, mais il pourrait laisser le choix entre ces deux options.

Le 22/10/2024 à 23h 21

Le réseau fixe de Free a fait des progrès sur la VOD par rapport à il y a 10 ans. Je ne sais pas si c'est mieux ailleurs, mais il est très correct, d'autant que sur le débit, c'est vraiment pas mal. Le réseau mobile a aussi fait des progrès par rapport à il y a 10 ans. Par contre, on revient de loin, et aujourd'hui, ce n'est pas du tout correct. Dès fois dans le même endroit, ça va, mais d'autres fois, c'est horrible et insupportable. Et il ne s'agit même pas de faire de la VOD sur mobile, même si ça peut passer. En revanche, je trouve que ça passe globalement pareil en campagne ou en ville, c'est aussi mauvais, à comparer à Sosh par exemple ou à Bouygues. C'est même bien mieux ailleurs, à tel point qu'on y fait pas attention en général. Pour le backup 4G effectivement, je trouve que si le réseau fixe tombe, il est possible que le mobile aussi, mais en fait pas forcément. C'est déjà arrivé, mais c'est pas systématique.

Le 21/10/2024 à 10h 12

Oui je pense que c'était bien le but recherché par l'EU avec la mise en place du "marché ouvert", non ?

Que ce soit une connerie, j'en convient, mais c'est une connerie parfaitement bien exécutée , dont tous les indicateurs du tableau de bord sont "verts"...

Tout à fait, c'était juste une façon de ma part de le rappeler :)

Le 17/10/2024 à 21h 18

Oulà, j'ai bien l'impression que chaque acteur joue sa petite stratégie (moi y compris). Pas sûr que qui que ce soit y gagne, donc c'est la logique du bon d'achat qui se met en place : j’hallucine !

Le 12/10/2024 à 09h 27

Le contrôle de la population par la surveillance est peut être un problème plus concret lorsqu'il s'agit d'un contrôle décentralisé par la population elle même que lorsque c'est un état qui surveille. Pour citer la blague de Haroun, dire "chocolatine" en commentaire sur internet va sans douter poser plus de problèmes par le biais de ses voisins numériques que par le biais de l'Etat.

Le 11/10/2024 à 17h 14

Je ne sais pas ce qu'il s'est passé, mais j'ai rebranché mon ZLinky (juste pour voir), et il fonctionne à nouveau. Quand il ne fonctionnait pas, il n'y avait même pas de LED bleue qui s'allumait. Est-ce que c'est mon Linky avait coupé l’alimentation ? ou c'est du au fait que j'avais changé de fournisseur à ce moment ? je ne sais pas. J'ai pu récupérer à nouveau l'index de soutirage du Linky, mais je n'ai toujours pas accès à l'index d'injection. Je verrais peut être plus tard pour installer ZigbeeToMQTT maintenant que j'ai Home Assistant OS. Avec Home assistant Core, il n'y avait pas de menu "modules complémentaires", et donc il fallait tout installer en ligne de commande. Et tout ce qui est MQTT est assez indigeste je trouve, avec j'ai l'impression à chaque fois des cas particuliers... Mais le ZLinky fonctionne à nouveau, donc je retire ce que j'ai dis sur ce point. Toutefois, je maintient que s'il faut dépenser 50€ environ pour un ZLinky, autant dépenser la même chose pour un Shelly EM. On a pas exactement la même mesure que celle du Linky, mais la mesure fonctionne dans les deux sens (soutirage et injection), et ça mesure la puissance instantanée ce que ne permet pas le ZLinky. Ce dernier ne mesure en effet que la puissance apparente en VA (ce n'est pas tout à fait la même chose que la puissance instantanée en Wh), et avec un taux de rafraîchissement assez faible.

Le 21/09/2024 à 11h 46

J'aurais une question de néophyte, vu que tu as l'air de maîtriser le sujet. J'ai une conso talon d'environ 600W (lu sur le linky). Avec mes petits panneaux solaires, j'ai remarqué que si je produis 300W, mais conso au compteur ne tombe pas à 300W mais plutôt à 450-500W.

Si l'ensoleillement augmente, et que mes panneaux produisent 500W, ma conso au compteur va être quand même d'environ 400W.

Mais si mes panneaux dépasse une production d'environ 700 W, ma conso au compteur tombe alors immédiatement à 0.

Il y a comme une résistance. J'ai fait quelques tests, je n'arrive pas à obtenir une consommation au compteur entre 0 et 350W environ. C'est soit 0, soit au dessus de 350W.

Ma conclusion est que ma production solaire ne fait pas diminuer linéairement ma production au compteur. C'est plutôt une asymptote vers un seuil assez élevé, avant de passer éventuellement d'un coup à 0.

As-tu une idée du phénomène et peux-tu me l'expliquer ?

Le Linky (en tout cas le miens, mais je pense en réalité tous les Linky), mesure bien la consommation, mais n'affiche sur son écran que la puissance instantanée apparente en VA. Cela peut servir à savoir quand il va disjoncter (par exemple au delà de 6KVA selon l'abonnement) mais cette mesure n'est trop pertinente pour mesurer la consommation instantanée en Wh (je ne maîtrise pas l'explication électrique de ça). Il n'affiche pas la puissance instantanée en Wh, même s'il la mesure. Donc soit il faut brancher un appareil sur le Linky qui récupère l'info non affichée, soit il faut prendre une pince ampèremétrique qui mesure la puissance sur la phase (ou les phases s'il y en a plusieurs). En tout cas, chez moi, la pince ampèremétrique couplée à un Shelly EM fonctionne bien pour me donner la puissance instantanée en Wh, et je l'interroge tous les 7 secondes, sans qu'il y a d'incohérence telle que vous l'avez expliquée plus haut. Quand à la puissance apparente sur, elle affiche pas vraiment la même chose chez moi par rapport à ma puissance instantanée en Wh. Concernant la facturation, la puissance apparente maximum fixe détermine le prix de l'abonnement à fixer au moment de la création du contrat, et la consommation en Wh détermine la consommation d'électricité à la fin du mois.

Edit : pour compléter ce que je dis, vous pouvez quand même récupérer la consommation sur le Linky en Wh, mais avec la lampe qui clignote (et non sur l'écran du Linky). Chaque clignotement de la lampe représente 1Wh. Donc il faut mesurer le délai entre deux clignotement pour ensuite faire un produit en croix, et obtenir la consommation instantanée en Wh (Watt par heure).

Le 20/09/2024 à 18h 35

Les 2 sont complémentaire et n'ont pas forcément le même usage. Perso j'ai les 2 : le shelly pour l'instantané et le Lixee pour l'agréga de conso et utiliser la partie energy de HA avec une valeur toujours juste.

Oui, tu as raison. Mais si c'est juste pour avoir l'historique de conso/prod Enedis, je préfère encore que HA se connecte à une API sur un serveur d'Enedis vu qu'ils récupèrent les données du Linky. Comme ça, pas besoin d'appareil supplémentaire. Il y a 2 ans environ, je n'avais pas trouvé de solution allant dans ce sens, mais peut être que ça existe maintenant.

Le 20/09/2024 à 16h 14

Ah oui, et concernant la non remontée de l'index injection par le LIXEE/ZLINKY, j'ai pu lire à l'époque sur les forums qu'il fallait que le linky soit en mode "producteur" et non seulement en mode "consommateur" pour que le ZLinky relève l'injection, mais je n'ai pas compris cette partie, car j'ai bien un index producteur sur le Linky, et Enedis relève bien mon injection. D'autre part, Enedis s'était déjà déplacé à l'époque pour "activer" l'injection. Et enfin, j'avais contacté Enedis qui m'avait indiqué ne pas savoir quoi faire de plus et que pour eux, tout était déjà OK.

Le 20/09/2024 à 15h 04

Je précise que le plugin LIXEE dans HA semblait moins bon que celui de Jeedom à l'époque (Jeedom que je n'ai pas testé).

Le 20/09/2024 à 14h 57

Pour ma part, ce module a cessé de fonctionner au bout de 1 an environ (même pas je crois). Donc j'ai fini par mettre une pince ampèremétrique sur ma phase d'arrivée avec un module Shelly EM (en Wifi), et ça fonctionne bien mieux depuis avec aussi une bonne fréquence de rafraîchissement :) J'utilise HA, et je fais des requêtes HTTP sur le shelly pour récupérer les données (en JSON peut être, je sais plus). En plus, le module mesure injection et soutirage. Après, il y a un léger décalage avec les mesures du Linky (je dirais que ça peut aller jusqu'à 5%), mais je considère pas ça comme un problème. Il faut dire aussi que concernant le LIXEE cité dans l'article, et le plugin HA (Home Assistant) dédié que j'avais installé, toutes les données que je souhaitais n'étaient pas téléchargées à l'époque (dont l'injection). De plus, la fréquence de rafraîchissement n'était pas très élevée : 45 secondes pour faire une dérivée pas trop mauvaise et obtenir une consommation pas vraiment en temps réel (je ne me servais pas de la puissance instantanée apparente). Il aurait fallu, d'après ce que j'ai compris, pour mieux faire fonctionner le LIXEE, passer par un serveur MQTT, pour le connecter à HA. Comme j'avais HA Core (et non HA OS), c'était moins évident pour intégrer MQTT. Bref, perso, je suis pas trop satisfait de cette solution, mais peut être que ça fonctionne mieux maintenant.

Le 08/10/2024 à 07h 45

Pour le coup je trouve au contraire que "algorithme" ou "heuristique" sont de très mauvais choix quand on parle de Machine Learning car ces termes font traditionnellement référence a des procédures bien définies avec un résultat prédictible, même s'il n'est pas forcément optimal.

Certes, l'apprentissage suit un algorithme défini, mais le programme exécuté au final suit une logique que l'on est incapable d'expliquer précisément.

"Heuristique", je l'avais écarté dans mon commentaire. Pour le domaine de l'IA, dès fois on peut expliquer très précisément ce qui se passe (système expert, logique floue, SMA, réseaux bayésien). Mais dans le domaine de l'apprentissage automatique que vous citez, cela dépend aussi, mais si c'est de l'apprentissage automatique qui utilise des algorithmes de type "réseau de neurones artificiels", oui, il est difficile d'expliquer ce qui s'y passe (c'est la boite opaque que j'ai évoquée plus haut), J'ai juste gardé "algorithme" pour le terme générique, et pour moi il s'applique à tous les algorithmes, y compris ceux "d'IA". C'est justement LE terme qui englobe tout. Après, ça ne me dérange pas si vous préférez utiliser le terme "apprentissage automatique", c'est même plus précis et même plus clair si c'est de ça dont vous voulez parler. Dans mon texte précédent, j'invite justement à utiliser des termes plus précis, à condition qu'il soit compris et introduits. Personnellement, à choisir, je préfère les termes précis qui existent déjà dans la taxonomie. Mais le débat initial si j'ai bien compris était plutôt de savoir s'il fallait utiliser "IA" ou "algorithme" comme terme générique.

Le 07/10/2024 à 18h 18

Je pense que "algorithme" est un bon choix. Il y a aussi heuristique, car souvent, les "IA" ressemble à des heuristiques, mais avec un meilleur résultat et avec d'autres notions que les heuristiques n'incluent pas. S'il fallait se passer du terme IA, pour moi, soit il faut utiliser "algorithme" (version courte), soit il faut utiliser des termes plus spécifiques tels que systèmes experts (se base sur logique des propositions et sur des règles logiques, très rigide), logique floue (comble les limites des systèmes experts), réseaux de neurones artificiels (les plus connus, très gourmands en ressources), algorithmes génétiques (très gourmands en ressources), algorithmes du traitement du langage naturel (très connus, très gourmands), systèmes multi-agents (génie logiciel qui augmente la notion d'objet à travers des agents autonomes, parfois fait appel à la notion d'intelligence collective et décentralisée), réseaux bayésien (modèle probabiliste, raisonnement sous incertitude), arbres de décision, etc. Le problème, c'est qu'il faut au préalable introduire les termes, donc "algorithme", c'est bien :)

Mais si les termes précédents sont compris, on comprend beaucoup mieux les avantages/inconvénients. On peut distinguer notamment les algorithmes conçus et pensés par les analystes/développeur⋅ses avec une vue assez précise de ce qu'ils sont censés faire ou ne pas faire, mais parfois avec une méthode qui peut être trop réductionniste pour résoudre des problèmes singuliers. Alors que des algorithmes de type "opaque" dont on peine à comprendre ce qu'il font exactement au moment de la conception, et où l'évaluation est plus empirique que conceptuelle, vont permettre d'être assez efficaces sur des problèmes mal définis, mais avec un "flou relativement artistique" !

Le 01/10/2024 à 09h 46

Je trouve aussi cet article salutaire. Je reconnais une partie de l'article car je peux aussi me sentir illégitime pour en parler (sauf pour un des thèmes abordés). Mais c'est sûr qu'il faut faire quelque chose. Total soutien aux femmes qui publient sur internet, et qui subissent des torrent de haine. Je ne suis pas depuis très longtemps Next, mais j'ai déjà pu remarqué des commentaires plus critiques sous les articles de Mathilde Saliou que sous d'autres articles. Je pense aussi à Sandrine Rousseau qui se prend des harcèlements et des menaces effrayantes en ligne, ce que j'ai déjà pu constater quelque fois sur Twitter, et sur son interview ici qui explique très bien les enjeux. Peut être qu'on pourra penser que c'est une femme politique et qu'elle a un parti pris, mais voilà, je pense que ça n'a rien à voir. Si une député subi ça sans que personne de son camp ou des autres camp ne disent rien, c'est que le problème est encore plus grave.

Pour revenir dans la tech, il y a déjà eu des remontés (par des femmes) de comportements problématiques chez les dev du noyau Linux, et depuis, il y a un code de conduite d'adopté, c'est plutôt bien. Je ne dis pas qu'il faut n'y voir qu'un moyen répressif, mais plutôt une base commune pour essayer de le respecter à peu près sans pinailler.

Je pense aussi aux problèmes de harcèlement par exemple aux collèges. On en parle aujourd'hui, mais ça existait déjà avant à mon époque on en parlais pas tellement. Je me demande si finalement, c'est toute une culture de la moquerie qui s'est répandue sous couvert "d'humour" et si finalement tout ça n'est pas lié.

Je fait partie des personnes qui ne considèrent pas le sarcasme comme une forme d'humour depuis longtemps. Je peux citer cet article Wikipédia : "Pour Claude Tapia, professeur émérite de psychologie sociale à l'université de Tours, « Une première façon de définir l'humour consiste à l'opposer au sarcasme, au ricanement, au persiflage, « une passion française » (M. Séry) qui trahit la tendance au culte de soi et à la haine de l'autre (A. Demailly) »"

Edit : correction de quelques fautes.

Le 26/09/2024 à 14h 03

Est-ce pour cela que Debian n'a pas mis à jour firefox-esr vers la version 128, pas même en unstable ou testing ? Il est sorti en juillet, et aucune activité sur firefox-esr 128 ne remonte.

Le 24/09/2024 à 13h 37

Assez d'accord avec toi. Plasma 5.x sous Debian 12 avec Wayland, et impossible d'avoir un accès à distance (RDP, VNC, NoMX...) vraiment fonctionnel.

Je peux accéder à un bureau à distance de debian 12 vers debian 12 sans problème, mais pas de debian 12 vers Ubuntu 23.10 à l'époque.
En faisant "echo $XDG_SESSION_TYPE", je suis bien sous Wayland.
Concernant les jeux, je ne sais pas pour Wayland, mais je peux dire que les pilotes graphiques AMD sur les Ryzen m'ont posé plusieurs problèmes. Sur une machine, j'ai du revenir à un ancien pilote manuellement, sinon, la session Gnome "sautait" à cause de perte de synchronisation avec le GPU.

Le 23/09/2024 à 23h 49

Je rajoute que d'un point de vue technique, le terme IA fait beaucoup penser aux réseaux de neurones artificielles, car c'est une technologie relativement mature pour être intégrée directement dans des circuits spécialisés, mais il camoufle aussi d'autres catégorie d'IA qui ne sont pas du tout pensées pareil, et qui ont le même niveau de popularité que les RNA d'il y a 20 ans.

Le 23/09/2024 à 23h 42

Je suis d'accord avec ta position. Je crois que dans 80% dans cas, je parle spontanément d'Intelligence Artificielle. Un tout petit bémol, il me semble que les systèmes experts sont les plus anciennes formes "d'IA" (ou parmi les plus anciennes), et sont basés sur la logique des propositions en mathématique. Ils sont très rigides contrairement aux RNA.

Au passage, merci pour ton article, très clair, concis (ce que je ne vais pas réussir à faire), et aussi parce que c'est la première fois que j'ai accès à ce type de débat, car ce fut longtemps assez confus pour moi même. Aussi, ce que je vais dire est juste une interprétation personnelle, et je pense que c'est une invitation simplement à réfléchir à la question.

Mais ma question ne visais pas à reprendre toute discussion qui emploi le mot IA ni n'importe comment. Et justement, puisqu'il s'agit de parler au plus grand nombre, il est important de relativiser le terme "IA", et d'autant plus si cette IA est impressionnante. Ce qui est commercial à mon sens, ce n'est peut être même pas le terme, ni le fait que l'IA soit commercialisée, mais paradoxalement le résultat que la dite IA produit. Je me suis rendu compte/rappelé que le terme me dérangeait moins dans le passé, quand il n'était pas aussi populaire, ou quand il était seulement populaire dans la SF, donc dans une perspective qui nous apparaissait peut être moins palpable. Ce n'est pas le fait que l'IA soit populaire le problème, c'est le fait que ça prend de l'ampleur, et donc que les éventuelles conséquences (non visible à faible échelle) prennent de l'ampleur aussi. Je situe mon questionnement sur l'acceptabilité du terme Intelligence au moment des premiers robots de Boston Dynamics. Ils impressionnaient tellement, moi y compris, que lorsque des personnes commençaient à parler de Terminator au premier degré (en incluant James Cameron), en oubliant que ce sont les humains qui crée et commandent l'IA, ça a commencé à me déranger, car alors puisque l'IA était intelligente, c'est donc qu'elle était responsable, même si personne ne le disait comme ça. Cela m'a laissé pensé, peut être à tord, qu'il y avait un glissement des responsabilités perçues (et là, des techniques commerciales peuvent s'y engouffrer, puisque même Facebook annonçait ne pas comprendre ses algorithmes).

Bien sûr, je ne dis pas qu'il ne peut pas y avoir de gros problèmes avec ce type de robot, au sens, où il peut très bien y avoir un bug qui apparaît, qui ne fait pas totalement planter la machine pour la rendre inopérante, et qui la laisse s'emporter, avec d'autres machines, entraînant une réaction en chaîne d'évènements et de décisions, dont le résultat serait catastrophique à grande échelle. Mais ce n'est pas pour cela que ces machines sont capables de discernement je pense, et à la fin, les concepteurs, les financeurs, et les utilisateurs, et les régulateurs sont responsables des actions qu'ils entreprennent. Mais je ne veux pas non plus dire qu'un développeur doit être tenu responsable d'un bug qui ferait planter toutes les machines du parc informatique mondial, c'est tout un système qu'il faut questionner à mon avis.

Puis il y a eu les images générées via des filtres de convolution, et pour aller vite les agents conversationnels qui ont enfoncé le clou de l'illusion. La j'ai pu lire des personnes dire que l'IA nous ressemble, y compris dans sa façon "d'halluciner", que c'est en réalité "nous". Est-ce que c'est l'IA qui va vers nous, et est-ce que c'est nous qui allons vers elle ? Si je parle d'illusion, cela me fait penser à ton texte qui évoque la définition suivante "Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine", et en fait, c'est le propre de toute l'informatique de faire cela : simuler quelque chose.

Les caractères de ce texte n'existe pas, ce sont des numéros de lettre qui se suivent. A chaque numéro correspond une lettre. Un programme va lire ces entiers et va aller chercher des images pixelisés, ou des dessins vectoriels, contenant les lettres en question, et ces images sont affichées les unes après les autres via des algorithmes "qui font ça bien". On a l'illusion via l'Interface Homme Machine que le texte existe bel et bien, qu'il est cohérent, aussi bien que sur du papier. Il est en est de même pour les zéros et les uns qui codent ces numéros de lettres et on fait comme s'il existaient vraiment, alors qu'il s'agit plutôt d'états électriques haut et bas qui sous tendent les 0 et 1. Et au final, pour citer le film Matrix (impossible de faire autrement), la cuillère n'existe effectivement pas, et si on suit ce raisonnement, l'IA non plus en fait. On fait comme si la scène d'un jeu vidéo était réel, comme si les personnages d'un livre ou d'un film aussi, ou comme si l'image était en quelque comprise en tant que telle par la machine, alors que non, et on le sais bien. Pour citer Rafik Djoumi du Rocky Rama Hors Série de 2020, "nous sommes acteurs de notre propre désinformation". Il parle de Matrix 1 qui pourtant annonce que l'histoire est une simulation, et que alors que le livre "simulacre et simulation" nous crève les yeux, nous choisissons de croire en la prophétie de l'Elu. Exactement à la moitié du film de Matrix 2, soit au milieu des trois films, le film 1-2-3 s'inverse (oui il n'y a qu'un seul film en quelque sorte), et l'élu n'est plus qu'une manipulation de la matrice. C'était le cas depuis le début, mais c'est la simulation qui s'effondre (dans notre tête). A ce moment, soit on décide que c'est n'importe quoi, qu'ils ont tué Matrix 1 et n'ont pas respecté son esprit, soit on décide que "c'est trop facile cette explication à dormir debout", mais voilà, quoi croire ? qu'un homme fait ce qu'aucun ne sais faire dans une simulation entièrement contrôlée, ou que la matrice contrôle cette "éveil" pour contrôler l'histoire des "résistants" ? Comme dit Morpheus, les gens sont prêt à tout pour préserver "le" système (les personnages de Matrix ne mentiraient jamais selon Rafik Djoumi, ce qui est assez particulier). Du coup, j'avais enfin compris pourquoi Néo avait des pouvoirs en dehors de la matrice, car à partir du moment où la matrice c'est le film lui même (c'est à dire juste un film), néo est toujours dans la matrice qu'est le film, même si dans le film il est en dehors (ça c'est mon interprétation). Nous interprétons que la diégèse du film ne peut sortir d'elle même, et ne peut s'immiscer dans notre imaginaire. Pourtant le film a suscité bien des débats et hypothèses sur les forums, preuve que cette matrice a un impact sur nos vies. Paradoxalement, elle a bien une consistance, puisqu'elle nous influence, mais c'est nous qui choisissons de lui donner un sens (avec les réalisatrices qu'on oubli), pas l'IA. Mais le sens caché du film est en réalité autre.

En dehors de ces aspects, cela fait longtemps que je me pose la question de cette notion d'"IA", et maintenant, j'en suis au point où ma façon de dire s'il y a intelligence, c'est d'aborder les choses ainsi. Un transistor, c'est un interrupteur électronique, mais juste un interrupteur. Celui qui appuie sur le bouton pour laisser ou non passer le courant à travers cet interrupteur, c'est un signal électrique qui vient d'un autre interrupteur, d'un autre transistor, et ainsi de suite. En d'autre termes, c'est une mécanique. Si je prend une montre avec des rouages, c'est aussi une mécanique. Est-ce que cette montre est intelligente ? Je choisi de répondre non, assez facilement, mais c'est très personnel. Si cette montre fait la taille de la tour Eiffel avec un engrenage infernal, je ne vois toujours pas d'intelligence, juste une illusion, et une intimidation bien plus imposante. Pour moi l'IA devient un problème quand on oubli que ce n'est qu'une grosse montre qui fait "comme si" ça ne l'était pas. Et plus l'IA est "douée" pour faire illusion, plus ça me pose paradoxalement problème.

Peut être que je suis vieux jeu, ou peut être que j'enfonce des portes ouvertes, je ne sais pas, mais, quand bien même on pense s'être adaptés, en réalité, toutes les technologies ont apportées leur lot de mauvaises nouvelles. On le disais avec les ordinateurs de poche, et finalement, aujourd'hui, la nouvelle génération dit "lâchez un peu vos outils", et "mettez vous en action" (je parle du film Kaizen). Pour les réseaux sociaux, on a touché du doigt le potentiel assez destructeur de ces technologies, à l'échelle quasi géopolitique, mais je pense qu'il n'y a pas besoin d'aller aussi loin pour que ça fasse des dégâts, d'autant que l'IA est aussi présente à ce niveau (voir très).

Donc au final, dans l'idéal, ce que j'aimerais, c'est avoir une méthode scientifique qui dise "voilà ce qu'on peut faire avec l'IA, et voilà, ce qu'il faut éviter, ce qui déforme une société entière, sans qu'elle n'est donné son consentement éclairé, et sans qu'elle ne s'en rende compte". A tire personnel, je ne sais pas ce qu'il faut faire ou pas. J'espère que la question sera suffisamment objectivée un jour. J'ai l'impression qu'on est à l'époque des premiers essais d'avions, où il y en a plein qui se crachent "gentiment" ou "méchamment", et ou finalement l'avion devient le moyen de transport le plus sûr au monde, jusqu'au jour où on découvre qu'en fait non, il pollue tellement qu'il participe à la menace de la vie sur Terre telle qu'on la connait. Pour moi l'IA pose potentiellement le même niveau de problème, mais sur nos consciences. Et une partie du problème tient dans la définition, et l'illusion qu'on lui accorde.

Cela dit, j'ai cherché un terme qui me conviendrait mieux, mais je n'en ai pas trouvé un qui ne soit pas trop pompeux.

Le 18/09/2024 à 08h 27

C'est un peu comme vouloir réussir à faire fonctionner un générateur de mouvement perpétuel après avoir débranché son alimentation ^^

Oui, même si je n'en suis pas sûr, c'est à ça que ça me fait penser :chinois:

Le 17/09/2024 à 11h 52

Pour compléter ma réponse précédente, pour l'instant je vois plus l'ordinateur quantique comme un moyen de faire des calculs que ne sais pas faire la machine de Turing, plutôt qu'un moyen de faire des calculs exponentiellement plus rapides et précis.

Le 17/09/2024 à 11h 45

Je suis quand même perplexe depuis un moment sur ces ordinateurs quantiques. Rendre un ordinateur quantique déterministe (sans bruit), ça me semble un peu contredire la physique quantique, où selon les interprétations de physiciens, soit le hasard existe et donc il ne se dompte pas, ce qui ressemble à un non sens en science (hasard=aucun modèle prédictif quand bien même on parle de densité de probabilité), soit il y a un super-déterminisme qui apparaît comme du chaos cantonné dans une densité de proba. Mais même dans le dernier cas, maîtriser ce super-déterminisme semble inatteignable. On verra bien.

Le 08/09/2024 à 12h 07

Personnellement, je comprends que l'engouement de la part des dev soit pas fou pour changer progressivement de langage, surtout un langage qui ne s'aborde pas de la même façon. Un noyau, c'est plusieurs millions de lignes de code, c'est critique, le chantier parait insurmontable quand on le dit comme ça. Maintenant, le rejet de ceux qui veulent tenter quelque chose de nouveau avec le langage Rust ne m'étonne pas vraiment. Pour en avoir fait l'expérience ici, critiquer le C, c'est s'exposer à des attaques ad hominem, et à des arguments d'autorité. Mais l'argument de dire, si ton programme n'est pas stable en C, c'est que tu es mauvais en C date depuis plusieurs dizaines d'années j'ai l'impression.

Ça a l'air plus large si on en croit cette citation de Jeremy Soller, créateur de Redox OS (OS codé en Rust) : « Les développeurs Linux sont des mégalomanes pédants et condescendants »

Mais sur cette citation, je dirais qu'il vaut mieux éviter les généralités, d'autant qu'il y a un conflit d'intérêt car en disant ça, ça lui permet de mettre en avant son OS.

Je retiens par contre que faire co-évoluer deux technologies dans le même projet Linux, c'est peut être plus un inconvénient, même ça parait être un avantage pour la "transition". La transition peut en effet ne jamais se terminer.

Le côté redévelopper tout le noyau, ça parait tout aussi insurmontable, mais en fait je pense que ça l'est moins, car il n'y aurait pas forcément besoin de porter tout le code concernant de vieilles architectures, juste le code concernant les architectures récentes. Je trouve que c'est un projet intéressant de tout repenser à zéro. Le fait de tout repenser sur Rust plutôt que d'adapter un noyau initialement pensé pour le C vers le Rust peut éventuellement être moins complexe. Faudrait voir ce que donne des projets comme Redox ou autre.

Le 08/09/2024 à 11h 11

Cette mise à jour a aussi permis de rendre les ISO d'installation Debian à nouveau bootable sur les machines en dual boot avec Windows, depuis que Microsoft avait fait les mêmes mis à jour avec les mêmes restrictions sur l'UEFI mi-août. Debian était devenu non bootable sur les machines en dual boot avec Windows. Peut-être que Debian a tardé a appliqué cette mis à jour (6 mois), car les restrictions peuvent être effectivement problématiques.

Le 28/08/2024 à 10h 18

Je rappel que le test de Turing était une façon à Turing de ne pas définir l'intelligence, ni la conscience. Comme il ne savait pas le faire, il a fait un test qui n'exige pas de connaître la définition.

Le 28/08/2024 à 10h 15

Même s'il faut bien que le titre évoque quelque chose qui parle, je ne suis pas sur que de parler "d'IA" est une bonne idée. Il faudrait plutôt parler d'algorithmes d'apprentissage supervisés dans ce cas ou non supervisés pour les autoencodeurs. Parler d'IA évoque l'intelligence, et c'est plutôt trompeur. C'est donc plutôt un terme commercial à mon sens.

Le 23/08/2024 à 09h 38

De quelle vulnérabilité il s'agit ? S'il s'agit de celle-ci, elle semble ne dater que de février. D'autre part, Ubuntu 24.04 a bien la dernière version de shim corrigée sauf erreur de ma part.

Edit: Ubuntu a bien la dernière version corrigée, et pourtant il ne démarre plus après ce qu'à fait Microsoft. Quand à Debian, la version corrigée n'est toujours que dans le canal sid (à tester), et non encore officielle.

Et s'il s'agit de celle ci, Debian semble l'avoir déjà corrigée (donc j'imagine Ubuntu aussi).

Le 23/08/2024 à 09h 32

- Solution Linux
- Vulnérabilité d'il y a 2 ans
- Certaines distros sont touchées, pas toutes
- Procédure de correctif à faire sous Linux
= "Ouin ouin méchant M$ :'("

De quelle vulnérabilité il s'agit ? S'il s'agit de celle-ci, elle semble ne dater que de février. D'autre part, Ubuntu 24.04 a bien la dernière version de shim corrigée sauf erreur de ma part.

Edit: Ubuntu a bien la dernière version corrigée, et pourtant il ne démarre plus après ce qu'à fait Microsoft. Quand à Debian, la version corrigée n'est toujours que dans le canal sid (à tester), et non encore officielle.

Le 14/08/2024 à 16h 06

Pour le coup, le secure boot est parfois désactivé sur des machines ayant un OS un peu hors normes (certains Linux qui vont servir d'hyperviseur), donc ça peut quand-même faire des dégâts...

En complément de ma réponse précédente, il m'est aussi arrivé de signer moi même mes noyaux pour garder le SecureBoot. Il faut par contre installer sa clé publique dans le BIOS/UEFI. C'est plus pénible, mais c'est faisable.

Le 14/08/2024 à 16h 00

Pour le coup, le secure boot est parfois désactivé sur des machines ayant un OS un peu hors normes (certains Linux qui vont servir d'hyperviseur), donc ça peut quand-même faire des dégâts...

Oui je suis d'accord. Après, sans vouloir entrer dans le troll, est-ce absolument nécessaire de sortir d'une distribution un peu commune si on veut un hyperviseur (je suis pas vraiment connaisseur du domaine) ?