votre avatar Abonné

David_L

est avec nous depuis le 13 septembre 2002 ❤️

15083 commentaires

Le 27/09/2021 à 10h 32

MI200 c’est du GPU, pas du CPU. Et ça doit être annoncé. Dans le domaine des serveurs, l’annonce et la disponibilité effective ce sont deux choses assez différentes. Pour les mécaniques de cohérence de cache, on verra qui gèrera quoi et sur quelles plateformes quand ce sera disponible :chinois: Mais je doute que ce dont tu parles soit de nature à fondamentalement changer l’équilibre.

Le 27/09/2021 à 10h 00

Merci pour vos participations, on procède au tirage au sort et on remontera l’article avec le pseudo de l’heureux élu :chinois:

Le 27/09/2021 à 07h 55

Les commentaires ne sont pas gérés par le forum ;)

Le 27/09/2021 à 06h 16

C’est une question que je me poserai toujours sur ce genre d’actu (malgré les remontées & co :D)

Le 26/09/2021 à 14h 34

Oui

Le 22/09/2021 à 16h 28

Non, lundi ;)

Le 27/09/2021 à 09h 27

ah ça je ne sais pas j’utilise la pro pour le travail ;)

Ceci explique cela :D Dans la version Player tu n’as pas le choix BIOS/UEFI, le chiffrement de la VM et donc l’ajout de vTPM (comme je suis taquin on le voit dans la capture mais je l’ai ajouté en modifiant le fichier de config, avec une erreur au lancement de la VM). VMware indique vTPM comme présent, mais dans la doc il n’en est pas fait mention.

Le 27/09/2021 à 09h 04

Ce qui n’est possible que sur la version Pro (et comme dit dans l’article) non ?

Le 27/09/2021 à 08h 39


ragoutoutou a dit:


si c’est pour en avoir plus , oVirt montre que c’était aussi possible à mettre en place.


Le sujet n’est pas oVirt contre le monde ;) Comme dit dans l’article, le problème touche différents hyperviseurs, mais pas tous. On évoque ses racines et comment le résoudre à court/moyen terme.




Non, ça aurait été évitable si Proxmox avait …


“Avec des si, on refait le monde”




regardé plus loin que le bout de son nez et implémenté la fonctionnalité quand elle est devenue disponible dans qemu ou quand les premières demandes des utilisateurs sont apparues.


Oui, mais on peut aussi se dire que comme ça ne touche pas que Proxmox, peut être que tout cela n’a pas été implémenté en priorité parce que ce n’était pas une demande forte des utilisateurs. Que ça le devienne pour MS est une chose, mais il aurait été de bon aloi de faire les choses dans le bon ordre et de ne pas dire blanc un jour et noir à la dernière minute.




Mais bon, on ne peut pas accuser Proxmox d’aller vite quand il s’agit de sécurité: ils n’intègrent toujours pas sVirt (couche libvirt/qemu sortie en 2009 permettant l’utilisation de Selinux ou de Apparmor pour isoler les vm’s et réduire le risque d’attaque de l’une vers l’autre via l’hôte de virtualisation), ce qui en fait un environnement plus dangereux que d’autres en cas de vm compromise.


Comme dit plus haut, les guerres de chapelle n’ont pas d’intérêt ici (mais je pense qu’on a compris le fond du point de vue ;)).

Le 27/09/2021 à 07h 50

Oui c’est ce que je dis dans l’article (pour le fait que ce soit déjà intégré dans QEMU mais pas facilement activable dans Proxmox). Après quand tu commences à monter et gérer quelques VM de manière avancée et éventuellement des clusters, tu ne passes pas vraiment par virt-manager. Sur le fond, tout ça aurait été évité si MS avait dit dès juin que ça coincerait avec les VM à partir des builds qui seraient diffusées à partir de septembre.

Le 27/09/2021 à 07h 20

Oui de mémoire c’est ce que recommande la doc QEMU d’ailleurs, mais sur le fond on en revient toujours au besoin de pouvoir activer tout ça sans bidouille pour l’utilisateur final.

Le 27/09/2021 à 08h 58

ça doit être possible mais j’ai du mal à capter l’intérêt de faire ça dans cet ordre, parce que ça revient à faire passer un ZFS/RAID pour un NVMe natif, ce que ça n’est pas pour l’utiliser de manière distante comme un seul périphérique alors qu’on aurait pu tout gérer correctement côté client.

Le 22/09/2021 à 17h 48

Le principe est de partager des périphériques, comme expliqué, le formatage se fait côté client. Donc si tu veux faire du ZFS/RAID, tu peux.

Le 22/09/2021 à 06h 24

De mémoire oui on peut encapsuler dans du TLS (ne serait-ce que si on veut transporter hors d’un réseau “de confiance”) mais je n’ai pas regardé comment le faire pour le moment (ce qui aurait potentiellement complexifié par mal l’explication avec la mécanique de certificats). SSH je ne sais pas je n’ai pas regardé.



Tu as aussi des mécaniques d’auth via les IP des hôtes ou de type “CHAP” (je n’ai plus les références exactes en tête) qui sont en général implémenté dans les appliances qui proposent du NVMe/TCP, mais de mémoire le travail est encore en cours sur certaines, là aussi ça demande de creuser (on en reparlera).



J’ai cru comprendre que Facebook utilisait déjà pas mal NVMe/TCP, donc c’est de toutes façons qu’il doit y avoir toutes les mécaniques suffisante à de la mise en prod, d’une manière ou d’une autre :D

Le 21/09/2021 à 20h 29


(reply:60075:Fab’z)


Chaque chose en son temps ;)



En général dans les scripts “publics” j’évite de mettre des commandes de ce type pour ne pas avoir à les expliquer vu qu’elles ne sont pas en rapport avec le sujet traité.



Après pour la gestion d’erreur “automatisée” ça peut être une bonne béquille, mais c’est un peu comme le “catch” général dans certains langages, ça sauve dans certains cas (parce que c’est simple et que ça va vite) mais ce n’est pas forcément l’usage recommandé en pratique (où il vaut mieux une gestion plus fine des erreurs éventuelles même si ça peut prendre un peu de temps au développement).



De mémoire, set -e (et ses dérivés) peut parfois poser problème donc je n’irais pas forcément le recommander à quelqu’un qui ne sait pas trop ce qu’il fait parce qu’il débute, ou alors en le prévenant des potentiels soucis.

Le 21/09/2021 à 19h 57


(reply:60071:doktoil makresh)


tee remplace echo parce qu’il faut un sudo, pour grep je regarderais ça :chinois:

Le 26/09/2021 à 14h 28

Que tu remettes en cause la pertinence des choix de MS, pas de soucis, mais il aurait fallu les exposer puis les critiquer.



Dès le début de mes commentaires (le 3008), j’ai expliqué ce que j’ai compris de l’article de blog de MS, à savoir que leur choix de machines supportées s’appuyait sur 3 critères et que j’ai conclus de cette lecture que ce qui avait éliminé certains CPU assez récent étaient les drivers DCH.



Le lendemain, comme je savais quoi chercher, j’ai trouvé des articles anglophones qui confirmaient ce que je disais. La page la plus complète me semble celle de la République Tchèque mais l’article de arstechnica.com du 27/08/21 est aussi assez complet et parfois critique.



Mais par contre, ce n’est pas parce que j’explique ce qui a conduit aux choix de MS que je les défends ou même que j’approuve ces choix. Je suis très loin d’être un supporter de Windows et de Microsoft : ça fait plus de 20 ans que mes machines sont sous Linux, donc Windows, je ne suis ça que de loin, surtout pour pouvoir comprendre ce qui se passe sur le PC de ma compagne quand elle m’appelle à l’aide.
J’ai surtout essayé de dire aux commentateurs que MS avait expliqué ses choix, ce qui n’apparaissait clairement dans aucun de vos articles sur le sujet. Ça aurait dû apparaître à mon avis dans ton article du 2708 qui citait justement le billet de blog de MS explicatif.



Certains comme RedShader plus haut ont trouvé mes commentaires utiles.




David_L a dit:


Pour rappel, la question des pilotes DCH que tu évoques n’a pas grand chose à voir avec les CPU,


J’ai moi-même critiqué leur communication sur ce point le 3108 :
Se focaliser sur les CPU est en fait une erreur, ce n’est pas le CPU seul qui bloque mais tout le hardware qui l’accompagne. En fait, ce que l’on peut surtout reprocher à Microsoft, c’est d’avoir communiqué sur une liste de CPU pour simplifier alors que c’est un tout qui empêche le support.




et rien que pour les pilotes graphiques chez Intel par exemple, le pilote DCH gère depuis la 6e génération (mais Windows 11 ne reconnait que la 8e au minimum).


Comme dit dans mon auto-citation juste au-dessus, le choix de MS était que tous les drivers d’un machine soient DCH, pas seulement ceux des GPU voire des chipsets accompagnant les CPU.
Remarque : ces drivers DCH étaient déjà obligatoires pour feu Windows 10X (que j’ai appelé improprement 10S dans un de mes commentaires sur le sujet), il est assez normal que ce genre d’exigence reste sur les Windows suivant.




Reste la question de la sécurité qui est ici utilisée comme une limitation arbitraire pour segmenter le parc, allant à l’inverse du but rechercher (mieux sécuriser) et qui a pour principal défaut d’avoir été fait n’importe comment. Si MS avait dit l’année dernière “voilà ce qu’on va faire pour Windows 11, on vous laisse le temps de vous préparer” ou en juin “voilà ce qu’on va faire, on vous laisse 1 an avant des limites “dures”“, ça aurait sans doute été mieux perçu.


Je ne comprends pas ce passage.




  1. Pourquoi dis-tu que c’est la sécurité qui est une limitation arbitraire alors qu’en fait, ce n’est pas elle qui fait la limitation ? Les machines plus anciennes que celles acceptées supportent les exigences liées à la sécurité de MS.



  2. La plupart des éléments de sécurité de Windows 11 sont activables (et pas activés par défaut) sous Windows 10 il me semble soit dans l’UEFI, soit dans Windows lui-même.



  3. À qui MS n’a pas laissé le temps de se préparer ? Toutes les machines de plus d’un an (pour suivre le délai dont tu parles) sont compatibles Windows 11, il me semble.





Mais là on a eu une annonce foireuse, un outil foireux, de flou pendant des semaines et encore récemment un changement de décision qui n’a aucun sens sur les VM (à la dernière minute). Je veux bien qu’on défende MS, mais autant le faire avec un peu plus d’ambition que “c’est les pilotes DCH, vous comprenez”.


Sur ces points, je te suis plutôt. Pour les VM, je n’ai pas d’avis ne maîtrisant pas assez le sujet.

Les articles que tu évoques reprennent le billet de blog justificatif de MS que l’on a déjà évoqué. Mais comme dit, il y a des justifications techniques, qui obligent à certains choix. Puis il y a celles que l’on décide de mettre en place. Ici, on est dans la seconde situation (qui n’a rien à voir avec DCH). Et c’est mal fait.

Le 25/09/2021 à 15h 39

Note que ce n’est pas parce que tu le répètes (en répétant le propos de MS) que ça devient pertinent pour autant. Pour rappel, la question des pilotes DCH que tu évoques n’a pas grand chose à voir avec les CPU, et rien que pour les pilotes graphiques chez Intel par exemple, le pilote DCH gère depuis la 6e génération (mais Windows 11 ne reconnait que la 8e au minimum).



Chez AMD tu as les Ryzen 3200G/3400G mais pas les 2200G/2400G qui sont… identiques (avec un boost de fréquence et un changement de nom marketing pour dire que). D’ailleurs la liste CPU n’est pas un blocage fort (surtout à l’update pour le moment).



Reste la question de la sécurité qui est ici utilisée comme une limitation arbitraire pour segmenter le parc, allant à l’inverse du but rechercher (mieux sécuriser) et qui a pour principal défaut d’avoir été fait n’importe comment. Si MS avait dit l’année dernière “voilà ce qu’on va faire pour Windows 11, on vous laisse le temps de vous préparer” ou en juin “voilà ce qu’on va faire, on vous laisse 1 an avant des limites “dures”“, ça aurait sans doute été mieux perçu.



Mais là on a eu une annonce foireuse, un outil foireux, de flou pendant des semaines et encore récemment un changement de décision qui n’a aucun sens sur les VM (à la dernière minute). Je veux bien qu’on défende MS, mais autant le faire avec un peu plus d’ambition que “c’est les pilotes DCH, vous comprenez”.

Le 26/09/2021 à 09h 03

Tu peux la refaire, j’ai rien compris ? :transpi:

Le 24/09/2021 à 14h 16

Oui après attention ce sont des SSD pour datacenter. Un SSD de ce type + contrôleur RoCE v2 25G pour une connexion dans une baie 600G, ça va vite coûter le prix d’un PC grand public complet ;) Rien que les cartes avec DPU de NVIDIA c’est dans les 2K$ pour rappel (et y’a pas les SSD :D)

Le 23/09/2021 à 16h 54

Je comprends pas le “limites fortes en termes de disques durs”




evilash a dit:


Et aussi parce-que le FC c’est perf, fiable, robuste et simple à exploiter et que malgré le ticket d’entrée un peu plus élevé, on s’y retrouve vite.


Comme dit dans le dossier dédié, c’est vrai et faux à la fois. Disons que ça dépend du besoin. Quand tu te moques de la facture, c’est le bon choix. Sinon tu vas voir ailleurs (c’est aussi pour ça que RoCE/iWarp ont été créés d’ailleurs, puis NVMe/TCP).



L’avantage de /TCP c’est d’ailleurs de pouvoir migrer une infrastructure existante sans avoir à tout changer. Et les constructeurs de NAS pourraient proposer du NVMe/FC ou /TCP selon l’équipement, mais ne misent que sur le premier. C’est peut être aussi que leur intérêt est ailleurs ;)




D’ailleurs, à voir si le NVMe/TCP suit le même chemin ou pas que le FCoE dont tout le monde disait que c’était l’avenir et… ben dont plus personne ne veut quasiment :D


C’est surtout que RoCE a plus d’avantages que FCoE pour le but visé non ?

Le 23/09/2021 à 16h 18

Disons que ça n’existe jamais “branché en direct sur”. Quand tu as un SSD M.2 dans un boîtier USB il y a un composant pour gérer la conversion de protocole. Ici c’est la même chose. Après on peut espérer voir des constructeurs plancher sur une puce NVMe/TCP hardware (c’est le rôle des TPU dans le domaine du réseau), mais ça n’est pas franchement de la puce à 0.5$ pour du boîtier ultra compact.



Ce que tu évoques c’est ce que l’on appelle la désagrégation du stockage dans les datacenters, avec effectivement une séparation stockage/compute. Mais on est loin d’un truc anodin. Rien que dans le cas de la solution de Kalray que j’évoquais ce matin, on parle de traiter 2 MIOPS et 12 Go/s pour du réeau 2x 100G, on ne fait pas ça avec un RPi, un arduino ou un contrôleur cheap consommant 1W.



PS : un NAS est déjà fait pour séparer le stockage du reste. Les constructeur leur font calculer des trucs pour justifier des modèles coûteux, mais ce n’est pas leur rôle au départ, c’est la tendance à l’hyperconvergence qui a poussé vers ça, on en revient justement avec les solutions de désagrégation.

Le 23/09/2021 à 15h 18

Tu as du TCP (et donc de la charge) des deux côtés, forcément. Mais là on parlait d’un appareil minimal pour partager des SSD NVMe, je précisais que le CPU utilisé ne pouvait pas être trop léger.



Des boîtiers avec plein d’emplacements et du réseau ça existe : SAN et NAS :D Mais pour le moment, les constructeurs sont assez frileux sur NVMe/TCP (et préfèrent Fibre Channel sur le pro parce que ça vend des composants assez chers, c’est toujours ça de gagné :D). Mais ça viendra, forcément.

Le 23/09/2021 à 14h 59

C’est surtout que NVMe/TCP, tout est software et côté CPU, donc il faut pouvoir encaisser. Certaines cartes réseau offload TCP, Intel a SPDK pour mieux gérer la charge, mais ça n’est pas anodin côté serveur.

Le 23/09/2021 à 14h 51

Bah déporter du stockage en 10G par exemple sans les contraintes du iSCSI (qui n’est pas trop fait pour du NVMe) et profiter à plein des SSD. Comme j’ai pu mettre sur Twitter j’ai par exemple monté des SSD PCIe en RAID dans mon Proxmox sur le serveur (25G) qui n’avait pas de SSD internes (juste deux HDD SAS). Après l’outil est là : si on en a besoin tant mieux, sinon c’est pas grave :D

Le 23/09/2021 à 12h 57

When it’s done ;)

Le 23/09/2021 à 12h 03

Oui, quand le SSD le gère :D



Oui et le support Linux des adaptateurs USB/Multi-Gig est pas toujours fameux. Mais ne vous inquiétez pas, on parle bientôt de solutions à plus de 1 Gb/s :chinois:

Le 23/09/2021 à 09h 48

ça va 2,5x plus vite ;)




shlagevuk a dit:


J’ai une petite question sur le cas d’usage du nvme-of.


Je peux répondre aux questions, mais il faudrait un minimum lire les articles pour éviter de tout me faire répéter, là tout ce qui est demandé est déjà traité dans les sujets NVMe/TCP




Le partage de périphérique se faire directement?


Oui, c’est le principe du block storage




C’est à dire, 1 SSD nvme = 1 partage?


Oui, comme montré dans cet article




Ou on peut faire un partage en raidx?


Ca n’a pas de sens, le RAID se fait par dessus le périphérique. Comme dit dans l’article, on peut monter un RAID depuis des SSD auxquels on se connecte en NVMe/TCP




De même peut-on découper un SSD en sous-volume pour un partage 1 SSD = N partage?


On appelle ça créeer différentes partitions ;) Si tu veux partager de manière indépendante différents volumes d’un même périphérique comme on le fait en iSCSI via les LUN je n’ai pas creusé le sujet




Super articles en tout cas, je connaissait pas nvme-of, c’est sympa comme techno, merci! :)


:chinois:

Le 23/09/2021 à 08h 57

C’est de l’USB, donc non ;) Après ça doit être possible de bidouiller ça en iSCSI ou NVMe/TCP quand même, m’enfin on perf l’intérêt du côté “commandes envoyées en direct via TCP” (mais il y a des solutions d’USB/TCP de mémoire).




sauf que l’utilité du nvme-of c’est de…


Méfions nous de ce genre de formule :D




regrouper sur une seule machine les disque de plusieurs clients différents et chacun sera isolé des autres, ça permet pas d’avoir plusieurs clients qui accèdent au même disque


C’est du block storage, donc le principe c’est un serveur partage un périphérique sur le réseau et des clients s’y connectent. Tehniquement, tu peux avoir plusieurs clients qui montent un même périphérique NVMe-oF, mais en cas de conflit… il faudrait que je regarde dans le détail s’il y a des mécaniques pour éviter les soucis (comme cela peut exister avec iSCSI), mais ce n’est pas l’usage idéal.

Le 26/09/2021 à 06h 58


(reply:1902395:Trit’)


Je vais répéter un truc que je dis souvent, mais l’erreur initiale c’est de penser binaire, que GUI ou CLI doit gagner. L’un est plus adapté à certains usages, l’autre à d’autres. L’être doué d’intelligence ce n’est pas celui qui pense avoir raison parce que son camp est le meilleur, c’est celui qui utilise les deux de manière efficace pour répondre à ses besoins.



Pour IM/GIMP c’est assez simple à illustrer. si je dois cropper une image à l’oeil, ce sera bien plus efficace qu’IM. Par contre si je dois faire un traitement par lot sur une série de 100 images en connaissant par avance les paramètres, IM sera bien plus adapté (avec une couche pour le threading :transpi:)

Le 22/09/2021 à 11h 37


fredbezies a dit:


Tu me diras après quelles sont les différences fondamentales avec une Archlinux, mis à part les quelques outils dédiés.



Spoiler : tu n’en trouveras quasiment aucune !


Les fonds d’écrans sont souvent mauves, et ça, c’est fondamental ! (certains sont cools BTW) :D




fredbezies a dit:


J’ai moins apprécié les “”“attaques”“”” sur l’auteur d’un commentaire du fil en question. Mais je n’en dirai pas plus, j’ai depuis longtemps quitté ce forum pour des raisons dont je ne me souviens plus.


Le non respect du droit d’auteur ? :D (oui je suis taquin aujourd’hui)

Le 24/09/2021 à 16h 35

Alpine FTW :D

Le 24/09/2021 à 16h 07

C’est le jeu auxquels jouent tous les constructeurs. Ils développent des choses, ça prend des années et une fois sur le marché la sauce prend… ou pas (pour de bonnes raisons ou non). La tendance actuelle va vers le DPU, la tentative EBOF permet de s’en passer mais ce sera le ratio perf/cout/flexibilité qui décidera sans doute du succès ou non (et des critères sans doute moins rationnels comme toujours).



Maintenant la tendance existe, elle est intéressante d’un point de vue technique.

Le 24/09/2021 à 03h 52


SIaelrod a dit:


Je crois qu’il y a eu malentendu je parlais d’imposé le C en cable, et profité de la loi pour imposé le QI pour le sans fil, histoire d’évité qu’il fasse n’importe quoi sur le sans fil une fois le filaire réglementé


Voir l’article :




Elle veut aussi « une harmonisation future dans ce domaine en fonction de l’évolution technologique, y compris l’harmonisation de tout type de charge autre que la recharge filaire »



SIaelrod a dit:


bon on est pas vendredi encore mais je me lance : et si on remplaçait les fils électrique par de l’usb-C ? xD


Il existe de l’USB Type-C en mural

Le 23/09/2021 à 18h 51

Non : les solutions sont complémentaires, pas exclusives.

Le 23/09/2021 à 17h 54


Mimoza a dit:


Autant sur des apareil avec des contraintes d’espace forte j’accepte que le port de recharge, unique pour tout l’appareil, soit «intelligent». Autant pour les autre périphérique je préfèrerais largement qu’il soit «con», ça fera toujours un vecteur d’attaque en moins.


Un Type-C n’est pas forcément Power Delivery




Troy2001 a dit:


Il ne reste plus qu’à faire de même avec l´électroportatif ou là c´est le far West.


Il y a déjà des standards en la matière interconstructeurs, mais comme quand tu laisses le marché décider c’est la foire. Donc tu as Cordless Alliance System d’un côté et Power for All Alliance de l’autre.

Le 23/09/2021 à 16h 11

Bah si l’alim chinoise noname implémente mal le handshake et qu’un bug logiciel fait que ça envoie du 48V au téléphone, ça va moyennement bien se passer.

Oui, parce que les alims “chinoises” ont besoin d’un handshake pour déconner à plein tube :D La qualité des produits acheté (et leur certification/qualification) est une préoccupation générale, pas spécifique à des produits avec un embout Type-C.

Le 23/09/2021 à 16h 07

Pourquoi plus que sur un autre chargeur de 100200 watts en DC ? Le fait que le connecteur soit Type-C change quoi au besoin d’avoir des composants de puissance de qualité dans un produit compact ?



Apple a déjà migré presque tous ses produits sur du Type-C de toutes façons. Le souci c’est surtout tout l’écosystème Lightning existant. Mais in fine, et surtout avec la généralisation de l’USB4 (qui reprend TB3), on y viendra petit à petit.

Le 23/09/2021 à 15h 48

Ne pas oublier qu’un connecteur n’est pas le vecteur principal d’innovation. On fait du 8P8C depuis plus de 20 ans, on est passé de 100 à 10 Gb/s, avec PoE+++ et parfois même du flux sat. Le connecteur HDMI n’a pas bougé d’un poil et pourtant on y fait bien plus qu’à ses débuts.



Idem pour l’USB Type-C qui fait aussi bien passer de l’USB 2.0 que différents protocoles, 40 Gb/s de débit de données et 100 watts de puissance (et bientôt plus) alors qu’il n’a pas été conçu à une époque où tout cela était possible.



Et les migrations de connecteur s’anticipent assez pour que, si d’aventure il faille faire des ajustements ici ou là ce soir facilement possible de le faire par avance sur les évolutions technologiques concrètes.

Le 23/09/2021 à 15h 43


Il existe de nombreux services proposant de générer des codes QR simples ou plus complexes, de différentes tailles, avec ou sans personnalisation, mais aussi des librairies clé en main.


Le 23/09/2021 à 12h 41

De pas avoir à installer un outil, donc pas de dépendance locale ou si t’as pas APT sur ton système par exemple

Le 23/09/2021 à 12h 25

Je suppose que si tu clones le dépôt tu dois pouvoir le faire en local

Le 23/09/2021 à 13h 20

Bah le dream machine/router c’est pas vraiment qu’un AP faut dire :D

Le 23/09/2021 à 11h 59

J’avoue, tu vas pas dans les champs avec un pull à 200 balles :D

Le 23/09/2021 à 08h 01

C’est aussi pour faciliter l’association qu’ils ajoutent le BT de ce que j’en comprend. Pour le CPL, vu la taille des prises utilisant cette technologie en général, je doute que ce soit exploitable ici. Par contre tu entends quoi par ancien/stable ? Parce que le Wi-Fi 2.4 GHz c’est ni récent, ni instable (ni très gourmand).



C’est des relais, donc à piloter. Les modèles PM ont aussi une mesure de la consommation comme précisé dans l’article.

Le 22/09/2021 à 16h 04

Il n’est pas exploitable en France

Le 22/09/2021 à 11h 02

Free nous a confirmé que c’était toujours un noyau 5.4+backport, l’article a été mis à jour :chinois:

Le 22/09/2021 à 07h 33

La fonctionnalité étant désormais disponible, nous avons refait le tour de l’interface pour évoquer les modifications apportées depuis la bêta et mis à jour l’article :chinois:

Le 22/09/2021 à 10h 18

Ce sera toujours possible de rester sur la LTS antérieure de toutes façons. Mais lors du passage à la 3.0 et les premiers détails publics sur Cycles-X ils avaient été assez clairs sur OpenCL, ce qui n’empêchera pas d’avoir d’autres solutions à l’avenir (mais pas pour la 3.0). Il faudra par contre voir quels seront les modèles supportés par AMD. De toutes façons tu as toujours la solution du plug-in ProRender non ?

Le 22/09/2021 à 04h 03

Attention quand même, ce n’est pas parce qu’un firmware est antérieur qu’il est utilisé à la prod des nouveaux modèles. On voit ça assez bien dans les cartes mères par exemple. Mais le conseil de mettre à jour le firmware avant d’utiliser un SSD dans un appareil qui ne permet pas de le mettre à jour est une bonne idée.