MI200 c’est du GPU, pas du CPU. Et ça doit être annoncé. Dans le domaine des serveurs, l’annonce et la disponibilité effective ce sont deux choses assez différentes. Pour les mécaniques de cohérence de cache, on verra qui gèrera quoi et sur quelles plateformes quand ce sera disponible Mais je doute que ce dont tu parles soit de nature à fondamentalement changer l’équilibre.
ah ça je ne sais pas j’utilise la pro pour le travail ;)
Ceci explique cela Dans la version Player tu n’as pas le choix BIOS/UEFI, le chiffrement de la VM et donc l’ajout de vTPM (comme je suis taquin on le voit dans la capture mais je l’ai ajouté en modifiant le fichier de config, avec une erreur au lancement de la VM). VMware indique vTPM comme présent, mais dans la doc il n’en est pas fait mention.
Le
27/09/2021 à
09h
04
Ce qui n’est possible que sur la version Pro (et comme dit dans l’article) non ?
Le
27/09/2021 à
08h
39
ragoutoutou a dit:
si c’est pour en avoir plus , oVirt montre que c’était aussi possible à mettre en place.
Le sujet n’est pas oVirt contre le monde ;) Comme dit dans l’article, le problème touche différents hyperviseurs, mais pas tous. On évoque ses racines et comment le résoudre à court/moyen terme.
Non, ça aurait été évitable si Proxmox avait …
“Avec des si, on refait le monde”
regardé plus loin que le bout de son nez et implémenté la fonctionnalité quand elle est devenue disponible dans qemu ou quand les premières demandes des utilisateurs sont apparues.
Oui, mais on peut aussi se dire que comme ça ne touche pas que Proxmox, peut être que tout cela n’a pas été implémenté en priorité parce que ce n’était pas une demande forte des utilisateurs. Que ça le devienne pour MS est une chose, mais il aurait été de bon aloi de faire les choses dans le bon ordre et de ne pas dire blanc un jour et noir à la dernière minute.
Mais bon, on ne peut pas accuser Proxmox d’aller vite quand il s’agit de sécurité: ils n’intègrent toujours pas sVirt (couche libvirt/qemu sortie en 2009 permettant l’utilisation de Selinux ou de Apparmor pour isoler les vm’s et réduire le risque d’attaque de l’une vers l’autre via l’hôte de virtualisation), ce qui en fait un environnement plus dangereux que d’autres en cas de vm compromise.
Comme dit plus haut, les guerres de chapelle n’ont pas d’intérêt ici (mais je pense qu’on a compris le fond du point de vue ;)).
Le
27/09/2021 à
07h
50
Oui c’est ce que je dis dans l’article (pour le fait que ce soit déjà intégré dans QEMU mais pas facilement activable dans Proxmox). Après quand tu commences à monter et gérer quelques VM de manière avancée et éventuellement des clusters, tu ne passes pas vraiment par virt-manager. Sur le fond, tout ça aurait été évité si MS avait dit dès juin que ça coincerait avec les VM à partir des builds qui seraient diffusées à partir de septembre.
Le
27/09/2021 à
07h
20
Oui de mémoire c’est ce que recommande la doc QEMU d’ailleurs, mais sur le fond on en revient toujours au besoin de pouvoir activer tout ça sans bidouille pour l’utilisateur final.
ça doit être possible mais j’ai du mal à capter l’intérêt de faire ça dans cet ordre, parce que ça revient à faire passer un ZFS/RAID pour un NVMe natif, ce que ça n’est pas pour l’utiliser de manière distante comme un seul périphérique alors qu’on aurait pu tout gérer correctement côté client.
Le
22/09/2021 à
17h
48
Le principe est de partager des périphériques, comme expliqué, le formatage se fait côté client. Donc si tu veux faire du ZFS/RAID, tu peux.
Le
22/09/2021 à
06h
24
De mémoire oui on peut encapsuler dans du TLS (ne serait-ce que si on veut transporter hors d’un réseau “de confiance”) mais je n’ai pas regardé comment le faire pour le moment (ce qui aurait potentiellement complexifié par mal l’explication avec la mécanique de certificats). SSH je ne sais pas je n’ai pas regardé.
Tu as aussi des mécaniques d’auth via les IP des hôtes ou de type “CHAP” (je n’ai plus les références exactes en tête) qui sont en général implémenté dans les appliances qui proposent du NVMe/TCP, mais de mémoire le travail est encore en cours sur certaines, là aussi ça demande de creuser (on en reparlera).
J’ai cru comprendre que Facebook utilisait déjà pas mal NVMe/TCP, donc c’est de toutes façons qu’il doit y avoir toutes les mécaniques suffisante à de la mise en prod, d’une manière ou d’une autre
En général dans les scripts “publics” j’évite de mettre des commandes de ce type pour ne pas avoir à les expliquer vu qu’elles ne sont pas en rapport avec le sujet traité.
Après pour la gestion d’erreur “automatisée” ça peut être une bonne béquille, mais c’est un peu comme le “catch” général dans certains langages, ça sauve dans certains cas (parce que c’est simple et que ça va vite) mais ce n’est pas forcément l’usage recommandé en pratique (où il vaut mieux une gestion plus fine des erreurs éventuelles même si ça peut prendre un peu de temps au développement).
De mémoire, set -e (et ses dérivés) peut parfois poser problème donc je n’irais pas forcément le recommander à quelqu’un qui ne sait pas trop ce qu’il fait parce qu’il débute, ou alors en le prévenant des potentiels soucis.
Le
21/09/2021 à
19h
57
(reply:60071:doktoil makresh)
tee remplace echo parce qu’il faut un sudo, pour grep je regarderais ça
Que tu remettes en cause la pertinence des choix de MS, pas de soucis, mais il aurait fallu les exposer puis les critiquer.
Dès le début de mes commentaires (le 30⁄08), j’ai expliqué ce que j’ai compris de l’article de blog de MS, à savoir que leur choix de machines supportées s’appuyait sur 3 critères et que j’ai conclus de cette lecture que ce qui avait éliminé certains CPU assez récent étaient les drivers DCH.
Le lendemain, comme je savais quoi chercher, j’ai trouvé des articles anglophones qui confirmaient ce que je disais. La page la plus complète me semble celle de la République Tchèque mais l’article de arstechnica.com du 27/08/21 est aussi assez complet et parfois critique.
Mais par contre, ce n’est pas parce que j’explique ce qui a conduit aux choix de MS que je les défends ou même que j’approuve ces choix. Je suis très loin d’être un supporter de Windows et de Microsoft : ça fait plus de 20 ans que mes machines sont sous Linux, donc Windows, je ne suis ça que de loin, surtout pour pouvoir comprendre ce qui se passe sur le PC de ma compagne quand elle m’appelle à l’aide. J’ai surtout essayé de dire aux commentateurs que MS avait expliqué ses choix, ce qui n’apparaissait clairement dans aucun de vos articles sur le sujet. Ça aurait dû apparaître à mon avis dans ton article du 27⁄08 qui citait justement le billet de blog de MS explicatif.
Certains comme RedShader plus haut ont trouvé mes commentaires utiles.
David_L a dit:
Pour rappel, la question des pilotes DCH que tu évoques n’a pas grand chose à voir avec les CPU,
J’ai moi-même critiqué leur communication sur ce point le 31⁄08 : Se focaliser sur les CPU est en fait une erreur, ce n’est pas le CPU seul qui bloque mais tout le hardware qui l’accompagne. En fait, ce que l’on peut surtout reprocher à Microsoft, c’est d’avoir communiqué sur une liste de CPU pour simplifier alors que c’est un tout qui empêche le support.
et rien que pour les pilotes graphiques chez Intel par exemple, le pilote DCH gère depuis la 6e génération (mais Windows 11 ne reconnait que la 8e au minimum).
Comme dit dans mon auto-citation juste au-dessus, le choix de MS était que tous les drivers d’un machine soient DCH, pas seulement ceux des GPU voire des chipsets accompagnant les CPU. Remarque : ces drivers DCH étaient déjà obligatoires pour feu Windows 10X (que j’ai appelé improprement 10S dans un de mes commentaires sur le sujet), il est assez normal que ce genre d’exigence reste sur les Windows suivant.
Reste la question de la sécurité qui est ici utilisée comme une limitation arbitraire pour segmenter le parc, allant à l’inverse du but rechercher (mieux sécuriser) et qui a pour principal défaut d’avoir été fait n’importe comment. Si MS avait dit l’année dernière “voilà ce qu’on va faire pour Windows 11, on vous laisse le temps de vous préparer” ou en juin “voilà ce qu’on va faire, on vous laisse 1 an avant des limites “dures”“, ça aurait sans doute été mieux perçu.
Je ne comprends pas ce passage.
Pourquoi dis-tu que c’est la sécurité qui est une limitation arbitraire alors qu’en fait, ce n’est pas elle qui fait la limitation ? Les machines plus anciennes que celles acceptées supportent les exigences liées à la sécurité de MS.
La plupart des éléments de sécurité de Windows 11 sont activables (et pas activés par défaut) sous Windows 10 il me semble soit dans l’UEFI, soit dans Windows lui-même.
À qui MS n’a pas laissé le temps de se préparer ? Toutes les machines de plus d’un an (pour suivre le délai dont tu parles) sont compatibles Windows 11, il me semble.
Mais là on a eu une annonce foireuse, un outil foireux, de flou pendant des semaines et encore récemment un changement de décision qui n’a aucun sens sur les VM (à la dernière minute). Je veux bien qu’on défende MS, mais autant le faire avec un peu plus d’ambition que “c’est les pilotes DCH, vous comprenez”.
Sur ces points, je te suis plutôt. Pour les VM, je n’ai pas d’avis ne maîtrisant pas assez le sujet.
Les articles que tu évoques reprennent le billet de blog justificatif de MS que l’on a déjà évoqué. Mais comme dit, il y a des justifications techniques, qui obligent à certains choix. Puis il y a celles que l’on décide de mettre en place. Ici, on est dans la seconde situation (qui n’a rien à voir avec DCH). Et c’est mal fait.
Le
25/09/2021 à
15h
39
Note que ce n’est pas parce que tu le répètes (en répétant le propos de MS) que ça devient pertinent pour autant. Pour rappel, la question des pilotes DCH que tu évoques n’a pas grand chose à voir avec les CPU, et rien que pour les pilotes graphiques chez Intel par exemple, le pilote DCH gère depuis la 6e génération (mais Windows 11 ne reconnait que la 8e au minimum).
Chez AMD tu as les Ryzen 3200G/3400G mais pas les 2200G/2400G qui sont… identiques (avec un boost de fréquence et un changement de nom marketing pour dire que). D’ailleurs la liste CPU n’est pas un blocage fort (surtout à l’update pour le moment).
Reste la question de la sécurité qui est ici utilisée comme une limitation arbitraire pour segmenter le parc, allant à l’inverse du but rechercher (mieux sécuriser) et qui a pour principal défaut d’avoir été fait n’importe comment. Si MS avait dit l’année dernière “voilà ce qu’on va faire pour Windows 11, on vous laisse le temps de vous préparer” ou en juin “voilà ce qu’on va faire, on vous laisse 1 an avant des limites “dures”“, ça aurait sans doute été mieux perçu.
Mais là on a eu une annonce foireuse, un outil foireux, de flou pendant des semaines et encore récemment un changement de décision qui n’a aucun sens sur les VM (à la dernière minute). Je veux bien qu’on défende MS, mais autant le faire avec un peu plus d’ambition que “c’est les pilotes DCH, vous comprenez”.
Oui après attention ce sont des SSD pour datacenter. Un SSD de ce type + contrôleur RoCE v2 25G pour une connexion dans une baie 600G, ça va vite coûter le prix d’un PC grand public complet ;) Rien que les cartes avec DPU de NVIDIA c’est dans les 2K$ pour rappel (et y’a pas les SSD )
Le
23/09/2021 à
16h
54
Je comprends pas le “limites fortes en termes de disques durs”
evilash a dit:
Et aussi parce-que le FC c’est perf, fiable, robuste et simple à exploiter et que malgré le ticket d’entrée un peu plus élevé, on s’y retrouve vite.
Comme dit dans le dossier dédié, c’est vrai et faux à la fois. Disons que ça dépend du besoin. Quand tu te moques de la facture, c’est le bon choix. Sinon tu vas voir ailleurs (c’est aussi pour ça que RoCE/iWarp ont été créés d’ailleurs, puis NVMe/TCP).
L’avantage de /TCP c’est d’ailleurs de pouvoir migrer une infrastructure existante sans avoir à tout changer. Et les constructeurs de NAS pourraient proposer du NVMe/FC ou /TCP selon l’équipement, mais ne misent que sur le premier. C’est peut être aussi que leur intérêt est ailleurs ;)
D’ailleurs, à voir si le NVMe/TCP suit le même chemin ou pas que le FCoE dont tout le monde disait que c’était l’avenir et… ben dont plus personne ne veut quasiment
C’est surtout que RoCE a plus d’avantages que FCoE pour le but visé non ?
Le
23/09/2021 à
16h
18
Disons que ça n’existe jamais “branché en direct sur”. Quand tu as un SSD M.2 dans un boîtier USB il y a un composant pour gérer la conversion de protocole. Ici c’est la même chose. Après on peut espérer voir des constructeurs plancher sur une puce NVMe/TCP hardware (c’est le rôle des TPU dans le domaine du réseau), mais ça n’est pas franchement de la puce à 0.5$ pour du boîtier ultra compact.
Ce que tu évoques c’est ce que l’on appelle la désagrégation du stockage dans les datacenters, avec effectivement une séparation stockage/compute. Mais on est loin d’un truc anodin. Rien que dans le cas de la solution de Kalray que j’évoquais ce matin, on parle de traiter 2 MIOPS et 12 Go/s pour du réeau 2x 100G, on ne fait pas ça avec un RPi, un arduino ou un contrôleur cheap consommant 1W.
PS : un NAS est déjà fait pour séparer le stockage du reste. Les constructeur leur font calculer des trucs pour justifier des modèles coûteux, mais ce n’est pas leur rôle au départ, c’est la tendance à l’hyperconvergence qui a poussé vers ça, on en revient justement avec les solutions de désagrégation.
Le
23/09/2021 à
15h
18
Tu as du TCP (et donc de la charge) des deux côtés, forcément. Mais là on parlait d’un appareil minimal pour partager des SSD NVMe, je précisais que le CPU utilisé ne pouvait pas être trop léger.
Des boîtiers avec plein d’emplacements et du réseau ça existe : SAN et NAS Mais pour le moment, les constructeurs sont assez frileux sur NVMe/TCP (et préfèrent Fibre Channel sur le pro parce que ça vend des composants assez chers, c’est toujours ça de gagné ). Mais ça viendra, forcément.
Le
23/09/2021 à
14h
59
C’est surtout que NVMe/TCP, tout est software et côté CPU, donc il faut pouvoir encaisser. Certaines cartes réseau offload TCP, Intel a SPDK pour mieux gérer la charge, mais ça n’est pas anodin côté serveur.
Le
23/09/2021 à
14h
51
Bah déporter du stockage en 10G par exemple sans les contraintes du iSCSI (qui n’est pas trop fait pour du NVMe) et profiter à plein des SSD. Comme j’ai pu mettre sur Twitter j’ai par exemple monté des SSD PCIe en RAID dans mon Proxmox sur le serveur (25G) qui n’avait pas de SSD internes (juste deux HDD SAS). Après l’outil est là : si on en a besoin tant mieux, sinon c’est pas grave
Le
23/09/2021 à
12h
57
When it’s done ;)
Le
23/09/2021 à
12h
03
Oui, quand le SSD le gère
Oui et le support Linux des adaptateurs USB/Multi-Gig est pas toujours fameux. Mais ne vous inquiétez pas, on parle bientôt de solutions à plus de 1 Gb/s
Le
23/09/2021 à
09h
48
ça va 2,5x plus vite ;)
shlagevuk a dit:
J’ai une petite question sur le cas d’usage du nvme-of.
Je peux répondre aux questions, mais il faudrait un minimum lire les articles pour éviter de tout me faire répéter, là tout ce qui est demandé est déjà traité dans les sujets NVMe/TCP
Le partage de périphérique se faire directement?
Oui, c’est le principe du block storage
C’est à dire, 1 SSD nvme = 1 partage?
Oui, comme montré dans cet article
Ou on peut faire un partage en raidx?
Ca n’a pas de sens, le RAID se fait par dessus le périphérique. Comme dit dans l’article, on peut monter un RAID depuis des SSD auxquels on se connecte en NVMe/TCP
De même peut-on découper un SSD en sous-volume pour un partage 1 SSD = N partage?
On appelle ça créeer différentes partitions ;) Si tu veux partager de manière indépendante différents volumes d’un même périphérique comme on le fait en iSCSI via les LUN je n’ai pas creusé le sujet
Super articles en tout cas, je connaissait pas nvme-of, c’est sympa comme techno, merci! :)
Le
23/09/2021 à
08h
57
C’est de l’USB, donc non ;) Après ça doit être possible de bidouiller ça en iSCSI ou NVMe/TCP quand même, m’enfin on perf l’intérêt du côté “commandes envoyées en direct via TCP” (mais il y a des solutions d’USB/TCP de mémoire).
sauf que l’utilité du nvme-of c’est de…
Méfions nous de ce genre de formule
regrouper sur une seule machine les disque de plusieurs clients différents et chacun sera isolé des autres, ça permet pas d’avoir plusieurs clients qui accèdent au même disque
C’est du block storage, donc le principe c’est un serveur partage un périphérique sur le réseau et des clients s’y connectent. Tehniquement, tu peux avoir plusieurs clients qui montent un même périphérique NVMe-oF, mais en cas de conflit… il faudrait que je regarde dans le détail s’il y a des mécaniques pour éviter les soucis (comme cela peut exister avec iSCSI), mais ce n’est pas l’usage idéal.
Je vais répéter un truc que je dis souvent, mais l’erreur initiale c’est de penser binaire, que GUI ou CLI doit gagner. L’un est plus adapté à certains usages, l’autre à d’autres. L’être doué d’intelligence ce n’est pas celui qui pense avoir raison parce que son camp est le meilleur, c’est celui qui utilise les deux de manière efficace pour répondre à ses besoins.
Pour IM/GIMP c’est assez simple à illustrer. si je dois cropper une image à l’oeil, ce sera bien plus efficace qu’IM. Par contre si je dois faire un traitement par lot sur une série de 100 images en connaissant par avance les paramètres, IM sera bien plus adapté (avec une couche pour le threading )
Le
22/09/2021 à
11h
37
fredbezies a dit:
Tu me diras après quelles sont les différences fondamentales avec une Archlinux, mis à part les quelques outils dédiés.
Spoiler : tu n’en trouveras quasiment aucune !
Les fonds d’écrans sont souvent mauves, et ça, c’est fondamental ! (certains sont cools BTW)
fredbezies a dit:
J’ai moins apprécié les “”“attaques”“”” sur l’auteur d’un commentaire du fil en question. Mais je n’en dirai pas plus, j’ai depuis longtemps quitté ce forum pour des raisons dont je ne me souviens plus.
Le non respect du droit d’auteur ? (oui je suis taquin aujourd’hui)
C’est le jeu auxquels jouent tous les constructeurs. Ils développent des choses, ça prend des années et une fois sur le marché la sauce prend… ou pas (pour de bonnes raisons ou non). La tendance actuelle va vers le DPU, la tentative EBOF permet de s’en passer mais ce sera le ratio perf/cout/flexibilité qui décidera sans doute du succès ou non (et des critères sans doute moins rationnels comme toujours).
Maintenant la tendance existe, elle est intéressante d’un point de vue technique.
Je crois qu’il y a eu malentendu je parlais d’imposé le C en cable, et profité de la loi pour imposé le QI pour le sans fil, histoire d’évité qu’il fasse n’importe quoi sur le sans fil une fois le filaire réglementé
Voir l’article :
Elle veut aussi « une harmonisation future dans ce domaine en fonction de l’évolution technologique, y compris l’harmonisation de tout type de charge autre que la recharge filaire »
SIaelrod a dit:
bon on est pas vendredi encore mais je me lance : et si on remplaçait les fils électrique par de l’usb-C ? xD
Il existe de l’USB Type-C en mural
Le
23/09/2021 à
18h
51
Non : les solutions sont complémentaires, pas exclusives.
Le
23/09/2021 à
17h
54
Mimoza a dit:
Autant sur des apareil avec des contraintes d’espace forte j’accepte que le port de recharge, unique pour tout l’appareil, soit «intelligent». Autant pour les autre périphérique je préfèrerais largement qu’il soit «con», ça fera toujours un vecteur d’attaque en moins.
Un Type-C n’est pas forcément Power Delivery
Troy2001 a dit:
Il ne reste plus qu’à faire de même avec l´électroportatif ou là c´est le far West.
Il y a déjà des standards en la matière interconstructeurs, mais comme quand tu laisses le marché décider c’est la foire. Donc tu as Cordless Alliance System d’un côté et Power for All Alliance de l’autre.
Le
23/09/2021 à
16h
11
Bah si l’alim chinoise noname implémente mal le handshake et qu’un bug logiciel fait que ça envoie du 48V au téléphone, ça va moyennement bien se passer.
Oui, parce que les alims “chinoises” ont besoin d’un handshake pour déconner à plein tube La qualité des produits acheté (et leur certification/qualification) est une préoccupation générale, pas spécifique à des produits avec un embout Type-C.
Le
23/09/2021 à
16h
07
Pourquoi plus que sur un autre chargeur de 100⁄200 watts en DC ? Le fait que le connecteur soit Type-C change quoi au besoin d’avoir des composants de puissance de qualité dans un produit compact ?
Apple a déjà migré presque tous ses produits sur du Type-C de toutes façons. Le souci c’est surtout tout l’écosystème Lightning existant. Mais in fine, et surtout avec la généralisation de l’USB4 (qui reprend TB3), on y viendra petit à petit.
Le
23/09/2021 à
15h
48
Ne pas oublier qu’un connecteur n’est pas le vecteur principal d’innovation. On fait du 8P8C depuis plus de 20 ans, on est passé de 100 à 10 Gb/s, avec PoE+++ et parfois même du flux sat. Le connecteur HDMI n’a pas bougé d’un poil et pourtant on y fait bien plus qu’à ses débuts.
Idem pour l’USB Type-C qui fait aussi bien passer de l’USB 2.0 que différents protocoles, 40 Gb/s de débit de données et 100 watts de puissance (et bientôt plus) alors qu’il n’a pas été conçu à une époque où tout cela était possible.
Et les migrations de connecteur s’anticipent assez pour que, si d’aventure il faille faire des ajustements ici ou là ce soir facilement possible de le faire par avance sur les évolutions technologiques concrètes.
Il existe de nombreux services proposant de générer des codes QR simples ou plus complexes, de différentes tailles, avec ou sans personnalisation, mais aussi des librairies clé en main.
Le
23/09/2021 à
12h
41
De pas avoir à installer un outil, donc pas de dépendance locale ou si t’as pas APT sur ton système par exemple
Le
23/09/2021 à
12h
25
Je suppose que si tu clones le dépôt tu dois pouvoir le faire en local
C’est aussi pour faciliter l’association qu’ils ajoutent le BT de ce que j’en comprend. Pour le CPL, vu la taille des prises utilisant cette technologie en général, je doute que ce soit exploitable ici. Par contre tu entends quoi par ancien/stable ? Parce que le Wi-Fi 2.4 GHz c’est ni récent, ni instable (ni très gourmand).
C’est des relais, donc à piloter. Les modèles PM ont aussi une mesure de la consommation comme précisé dans l’article.
Free nous a confirmé que c’était toujours un noyau 5.4+backport, l’article a été mis à jour
Le
22/09/2021 à
07h
33
La fonctionnalité étant désormais disponible, nous avons refait le tour de l’interface pour évoquer les modifications apportées depuis la bêta et mis à jour l’article
Ce sera toujours possible de rester sur la LTS antérieure de toutes façons. Mais lors du passage à la 3.0 et les premiers détails publics sur Cycles-X ils avaient été assez clairs sur OpenCL, ce qui n’empêchera pas d’avoir d’autres solutions à l’avenir (mais pas pour la 3.0). Il faudra par contre voir quels seront les modèles supportés par AMD. De toutes façons tu as toujours la solution du plug-in ProRender non ?
Attention quand même, ce n’est pas parce qu’un firmware est antérieur qu’il est utilisé à la prod des nouveaux modèles. On voit ça assez bien dans les cartes mères par exemple. Mais le conseil de mettre à jour le firmware avant d’utiliser un SSD dans un appareil qui ne permet pas de le mettre à jour est une bonne idée.
15083 commentaires
AMD continue de prendre de l’importance dans les serveurs
27/09/2021
Le 27/09/2021 à 10h 32
MI200 c’est du GPU, pas du CPU. Et ça doit être annoncé. Dans le domaine des serveurs, l’annonce et la disponibilité effective ce sont deux choses assez différentes. Pour les mécaniques de cohérence de cache, on verra qui gèrera quoi et sur quelles plateformes quand ce sera disponible Mais je doute que ce dont tu parles soit de nature à fondamentalement changer l’équilibre.
Concours GeForce RTX 3060 Ti : et le gagnant est…
27/09/2021
Le 27/09/2021 à 10h 00
Merci pour vos participations, on procède au tirage au sort et on remontera l’article avec le pseudo de l’heureux élu
Le 27/09/2021 à 07h 55
Les commentaires ne sont pas gérés par le forum ;)
Le 27/09/2021 à 06h 16
C’est une question que je me poserai toujours sur ce genre d’actu (malgré les remontées & co )
Le 26/09/2021 à 14h 34
Oui
Le 22/09/2021 à 16h 28
Non, lundi ;)
Installation de Windows 11 sur Proxmox VE ou VirtualBox : ça coince, quelles solutions ?
27/09/2021
Le 27/09/2021 à 09h 27
Ceci explique cela Dans la version Player tu n’as pas le choix BIOS/UEFI, le chiffrement de la VM et donc l’ajout de vTPM (comme je suis taquin on le voit dans la capture mais je l’ai ajouté en modifiant le fichier de config, avec une erreur au lancement de la VM). VMware indique vTPM comme présent, mais dans la doc il n’en est pas fait mention.
Le 27/09/2021 à 09h 04
Ce qui n’est possible que sur la version Pro (et comme dit dans l’article) non ?
Le 27/09/2021 à 08h 39
Le sujet n’est pas oVirt contre le monde ;) Comme dit dans l’article, le problème touche différents hyperviseurs, mais pas tous. On évoque ses racines et comment le résoudre à court/moyen terme.
“Avec des si, on refait le monde”
Oui, mais on peut aussi se dire que comme ça ne touche pas que Proxmox, peut être que tout cela n’a pas été implémenté en priorité parce que ce n’était pas une demande forte des utilisateurs. Que ça le devienne pour MS est une chose, mais il aurait été de bon aloi de faire les choses dans le bon ordre et de ne pas dire blanc un jour et noir à la dernière minute.
Comme dit plus haut, les guerres de chapelle n’ont pas d’intérêt ici (mais je pense qu’on a compris le fond du point de vue ;)).
Le 27/09/2021 à 07h 50
Oui c’est ce que je dis dans l’article (pour le fait que ce soit déjà intégré dans QEMU mais pas facilement activable dans Proxmox). Après quand tu commences à monter et gérer quelques VM de manière avancée et éventuellement des clusters, tu ne passes pas vraiment par virt-manager. Sur le fond, tout ça aurait été évité si MS avait dit dès juin que ça coincerait avec les VM à partir des builds qui seraient diffusées à partir de septembre.
Le 27/09/2021 à 07h 20
Oui de mémoire c’est ce que recommande la doc QEMU d’ailleurs, mais sur le fond on en revient toujours au besoin de pouvoir activer tout ça sans bidouille pour l’utilisateur final.
NVMe/TCP : partagez vos SSD depuis Ubuntu Server, notre script pour vous y aider
21/09/2021
Le 27/09/2021 à 08h 58
ça doit être possible mais j’ai du mal à capter l’intérêt de faire ça dans cet ordre, parce que ça revient à faire passer un ZFS/RAID pour un NVMe natif, ce que ça n’est pas pour l’utiliser de manière distante comme un seul périphérique alors qu’on aurait pu tout gérer correctement côté client.
Le 22/09/2021 à 17h 48
Le principe est de partager des périphériques, comme expliqué, le formatage se fait côté client. Donc si tu veux faire du ZFS/RAID, tu peux.
Le 22/09/2021 à 06h 24
De mémoire oui on peut encapsuler dans du TLS (ne serait-ce que si on veut transporter hors d’un réseau “de confiance”) mais je n’ai pas regardé comment le faire pour le moment (ce qui aurait potentiellement complexifié par mal l’explication avec la mécanique de certificats). SSH je ne sais pas je n’ai pas regardé.
Tu as aussi des mécaniques d’auth via les IP des hôtes ou de type “CHAP” (je n’ai plus les références exactes en tête) qui sont en général implémenté dans les appliances qui proposent du NVMe/TCP, mais de mémoire le travail est encore en cours sur certaines, là aussi ça demande de creuser (on en reparlera).
J’ai cru comprendre que Facebook utilisait déjà pas mal NVMe/TCP, donc c’est de toutes façons qu’il doit y avoir toutes les mécaniques suffisante à de la mise en prod, d’une manière ou d’une autre
Le 21/09/2021 à 20h 29
Chaque chose en son temps ;)
En général dans les scripts “publics” j’évite de mettre des commandes de ce type pour ne pas avoir à les expliquer vu qu’elles ne sont pas en rapport avec le sujet traité.
Après pour la gestion d’erreur “automatisée” ça peut être une bonne béquille, mais c’est un peu comme le “catch” général dans certains langages, ça sauve dans certains cas (parce que c’est simple et que ça va vite) mais ce n’est pas forcément l’usage recommandé en pratique (où il vaut mieux une gestion plus fine des erreurs éventuelles même si ça peut prendre un peu de temps au développement).
De mémoire, set -e (et ses dérivés) peut parfois poser problème donc je n’irais pas forcément le recommander à quelqu’un qui ne sait pas trop ce qu’il fait parce qu’il débute, ou alors en le prévenant des potentiels soucis.
Le 21/09/2021 à 19h 57
tee remplace echo parce qu’il faut un sudo, pour grep je regarderais ça
Windows 11 dans le release preview channel, les ISO disponibles
24/09/2021
Le 26/09/2021 à 14h 28
Les articles que tu évoques reprennent le billet de blog justificatif de MS que l’on a déjà évoqué. Mais comme dit, il y a des justifications techniques, qui obligent à certains choix. Puis il y a celles que l’on décide de mettre en place. Ici, on est dans la seconde situation (qui n’a rien à voir avec DCH). Et c’est mal fait.
Le 25/09/2021 à 15h 39
Note que ce n’est pas parce que tu le répètes (en répétant le propos de MS) que ça devient pertinent pour autant. Pour rappel, la question des pilotes DCH que tu évoques n’a pas grand chose à voir avec les CPU, et rien que pour les pilotes graphiques chez Intel par exemple, le pilote DCH gère depuis la 6e génération (mais Windows 11 ne reconnait que la 8e au minimum).
Chez AMD tu as les Ryzen 3200G/3400G mais pas les 2200G/2400G qui sont… identiques (avec un boost de fréquence et un changement de nom marketing pour dire que). D’ailleurs la liste CPU n’est pas un blocage fort (surtout à l’update pour le moment).
Reste la question de la sécurité qui est ici utilisée comme une limitation arbitraire pour segmenter le parc, allant à l’inverse du but rechercher (mieux sécuriser) et qui a pour principal défaut d’avoir été fait n’importe comment. Si MS avait dit l’année dernière “voilà ce qu’on va faire pour Windows 11, on vous laisse le temps de vous préparer” ou en juin “voilà ce qu’on va faire, on vous laisse 1 an avant des limites “dures”“, ça aurait sans doute été mieux perçu.
Mais là on a eu une annonce foireuse, un outil foireux, de flou pendant des semaines et encore récemment un changement de décision qui n’a aucun sens sur les VM (à la dernière minute). Je veux bien qu’on défende MS, mais autant le faire avec un peu plus d’ambition que “c’est les pilotes DCH, vous comprenez”.
NVMe/TCP sur un Raspberry Pi : c’est possible, quelles performances ?
23/09/2021
Le 26/09/2021 à 09h 03
Tu peux la refaire, j’ai rien compris ?
Le 24/09/2021 à 14h 16
Oui après attention ce sont des SSD pour datacenter. Un SSD de ce type + contrôleur RoCE v2 25G pour une connexion dans une baie 600G, ça va vite coûter le prix d’un PC grand public complet ;) Rien que les cartes avec DPU de NVIDIA c’est dans les 2K$ pour rappel (et y’a pas les SSD )
Le 23/09/2021 à 16h 54
Je comprends pas le “limites fortes en termes de disques durs”
Comme dit dans le dossier dédié, c’est vrai et faux à la fois. Disons que ça dépend du besoin. Quand tu te moques de la facture, c’est le bon choix. Sinon tu vas voir ailleurs (c’est aussi pour ça que RoCE/iWarp ont été créés d’ailleurs, puis NVMe/TCP).
L’avantage de /TCP c’est d’ailleurs de pouvoir migrer une infrastructure existante sans avoir à tout changer. Et les constructeurs de NAS pourraient proposer du NVMe/FC ou /TCP selon l’équipement, mais ne misent que sur le premier. C’est peut être aussi que leur intérêt est ailleurs ;)
C’est surtout que RoCE a plus d’avantages que FCoE pour le but visé non ?
Le 23/09/2021 à 16h 18
Disons que ça n’existe jamais “branché en direct sur”. Quand tu as un SSD M.2 dans un boîtier USB il y a un composant pour gérer la conversion de protocole. Ici c’est la même chose. Après on peut espérer voir des constructeurs plancher sur une puce NVMe/TCP hardware (c’est le rôle des TPU dans le domaine du réseau), mais ça n’est pas franchement de la puce à 0.5$ pour du boîtier ultra compact.
Ce que tu évoques c’est ce que l’on appelle la désagrégation du stockage dans les datacenters, avec effectivement une séparation stockage/compute. Mais on est loin d’un truc anodin. Rien que dans le cas de la solution de Kalray que j’évoquais ce matin, on parle de traiter 2 MIOPS et 12 Go/s pour du réeau 2x 100G, on ne fait pas ça avec un RPi, un arduino ou un contrôleur cheap consommant 1W.
PS : un NAS est déjà fait pour séparer le stockage du reste. Les constructeur leur font calculer des trucs pour justifier des modèles coûteux, mais ce n’est pas leur rôle au départ, c’est la tendance à l’hyperconvergence qui a poussé vers ça, on en revient justement avec les solutions de désagrégation.
Le 23/09/2021 à 15h 18
Tu as du TCP (et donc de la charge) des deux côtés, forcément. Mais là on parlait d’un appareil minimal pour partager des SSD NVMe, je précisais que le CPU utilisé ne pouvait pas être trop léger.
Des boîtiers avec plein d’emplacements et du réseau ça existe : SAN et NAS Mais pour le moment, les constructeurs sont assez frileux sur NVMe/TCP (et préfèrent Fibre Channel sur le pro parce que ça vend des composants assez chers, c’est toujours ça de gagné ). Mais ça viendra, forcément.
Le 23/09/2021 à 14h 59
C’est surtout que NVMe/TCP, tout est software et côté CPU, donc il faut pouvoir encaisser. Certaines cartes réseau offload TCP, Intel a SPDK pour mieux gérer la charge, mais ça n’est pas anodin côté serveur.
Le 23/09/2021 à 14h 51
Bah déporter du stockage en 10G par exemple sans les contraintes du iSCSI (qui n’est pas trop fait pour du NVMe) et profiter à plein des SSD. Comme j’ai pu mettre sur Twitter j’ai par exemple monté des SSD PCIe en RAID dans mon Proxmox sur le serveur (25G) qui n’avait pas de SSD internes (juste deux HDD SAS). Après l’outil est là : si on en a besoin tant mieux, sinon c’est pas grave
Le 23/09/2021 à 12h 57
When it’s done ;)
Le 23/09/2021 à 12h 03
Oui, quand le SSD le gère
Oui et le support Linux des adaptateurs USB/Multi-Gig est pas toujours fameux. Mais ne vous inquiétez pas, on parle bientôt de solutions à plus de 1 Gb/s
Le 23/09/2021 à 09h 48
ça va 2,5x plus vite ;)
Je peux répondre aux questions, mais il faudrait un minimum lire les articles pour éviter de tout me faire répéter, là tout ce qui est demandé est déjà traité dans les sujets NVMe/TCP
Oui, c’est le principe du block storage
Oui, comme montré dans cet article
Ca n’a pas de sens, le RAID se fait par dessus le périphérique. Comme dit dans l’article, on peut monter un RAID depuis des SSD auxquels on se connecte en NVMe/TCP
On appelle ça créeer différentes partitions ;) Si tu veux partager de manière indépendante différents volumes d’un même périphérique comme on le fait en iSCSI via les LUN je n’ai pas creusé le sujet
Le 23/09/2021 à 08h 57
C’est de l’USB, donc non ;) Après ça doit être possible de bidouiller ça en iSCSI ou NVMe/TCP quand même, m’enfin on perf l’intérêt du côté “commandes envoyées en direct via TCP” (mais il y a des solutions d’USB/TCP de mémoire).
Méfions nous de ce genre de formule
C’est du block storage, donc le principe c’est un serveur partage un périphérique sur le réseau et des clients s’y connectent. Tehniquement, tu peux avoir plusieurs clients qui montent un même périphérique NVMe-oF, mais en cas de conflit… il faudrait que je regarde dans le détail s’il y a des mécaniques pour éviter les soucis (comme cela peut exister avec iSCSI), mais ce n’est pas l’usage idéal.
Linux : EndeavourOS, un Arch Linux simplifié mais faisant la part belle à la ligne de commande
20/09/2021
Le 26/09/2021 à 06h 58
Je vais répéter un truc que je dis souvent, mais l’erreur initiale c’est de penser binaire, que GUI ou CLI doit gagner. L’un est plus adapté à certains usages, l’autre à d’autres. L’être doué d’intelligence ce n’est pas celui qui pense avoir raison parce que son camp est le meilleur, c’est celui qui utilise les deux de manière efficace pour répondre à ses besoins.
Pour IM/GIMP c’est assez simple à illustrer. si je dois cropper une image à l’oeil, ce sera bien plus efficace qu’IM. Par contre si je dois faire un traitement par lot sur une série de 100 images en connaissant par avance les paramètres, IM sera bien plus adapté (avec une couche pour le threading )
Le 22/09/2021 à 11h 37
Les fonds d’écrans sont souvent mauves, et ça, c’est fondamental ! (certains sont cools BTW)
Le non respect du droit d’auteur ? (oui je suis taquin aujourd’hui)
Ubuntu 21.10 bêta : nouvel installeur et GNOME 40 pour Impish Indri
24/09/2021
Le 24/09/2021 à 16h 35
Alpine FTW
Kioxia parle du futur du stockage, le PCIe 5.0 n’est pas le plus intéressant
24/09/2021
Le 24/09/2021 à 16h 07
C’est le jeu auxquels jouent tous les constructeurs. Ils développent des choses, ça prend des années et une fois sur le marché la sauce prend… ou pas (pour de bonnes raisons ou non). La tendance actuelle va vers le DPU, la tentative EBOF permet de s’en passer mais ce sera le ratio perf/cout/flexibilité qui décidera sans doute du succès ou non (et des critères sans doute moins rationnels comme toujours).
Maintenant la tendance existe, elle est intéressante d’un point de vue technique.
L’Europe veut imposer un chargeur universel USB-C
23/09/2021
Le 24/09/2021 à 03h 52
Voir l’article :
Il existe de l’USB Type-C en mural
Le 23/09/2021 à 18h 51
Non : les solutions sont complémentaires, pas exclusives.
Le 23/09/2021 à 17h 54
Un Type-C n’est pas forcément Power Delivery
Il y a déjà des standards en la matière interconstructeurs, mais comme quand tu laisses le marché décider c’est la foire. Donc tu as Cordless Alliance System d’un côté et Power for All Alliance de l’autre.
Le 23/09/2021 à 16h 11
Oui, parce que les alims “chinoises” ont besoin d’un handshake pour déconner à plein tube La qualité des produits acheté (et leur certification/qualification) est une préoccupation générale, pas spécifique à des produits avec un embout Type-C.
Le 23/09/2021 à 16h 07
Pourquoi plus que sur un autre chargeur de 100⁄200 watts en DC ? Le fait que le connecteur soit Type-C change quoi au besoin d’avoir des composants de puissance de qualité dans un produit compact ?
Apple a déjà migré presque tous ses produits sur du Type-C de toutes façons. Le souci c’est surtout tout l’écosystème Lightning existant. Mais in fine, et surtout avec la généralisation de l’USB4 (qui reprend TB3), on y viendra petit à petit.
Le 23/09/2021 à 15h 48
Ne pas oublier qu’un connecteur n’est pas le vecteur principal d’innovation. On fait du 8P8C depuis plus de 20 ans, on est passé de 100 à 10 Gb/s, avec PoE+++ et parfois même du flux sat. Le connecteur HDMI n’a pas bougé d’un poil et pourtant on y fait bien plus qu’à ses débuts.
Idem pour l’USB Type-C qui fait aussi bien passer de l’USB 2.0 que différents protocoles, 40 Gb/s de débit de données et 100 watts de puissance (et bientôt plus) alors qu’il n’a pas été conçu à une époque où tout cela était possible.
Et les migrations de connecteur s’anticipent assez pour que, si d’aventure il faille faire des ajustements ici ou là ce soir facilement possible de le faire par avance sur les évolutions technologiques concrètes.
Comment générer des codes QR en ligne de commandes
23/09/2021
Le 23/09/2021 à 15h 43
Le 23/09/2021 à 12h 41
De pas avoir à installer un outil, donc pas de dépendance locale ou si t’as pas APT sur ton système par exemple
Le 23/09/2021 à 12h 25
Je suppose que si tu clones le dépôt tu dois pouvoir le faire en local
UniFi Dream Router : la Dream Machine d’Ubiquiti passe au Wi-Fi 6, au PoE et intègre un SSD
23/09/2021
Le 23/09/2021 à 13h 20
Bah le dream machine/router c’est pas vraiment qu’un AP faut dire
BienouBien.com : Maif et Ulule lancent une place de marché « dédiée à la consommation engagée »
23/09/2021
Le 23/09/2021 à 11h 59
J’avoue, tu vas pas dans les champs avec un pull à 200 balles
Shelly dévoile ses relais Plus et Pro : nouvelles fonctionnalités et chiffrement au programme
23/09/2021
Le 23/09/2021 à 08h 01
C’est aussi pour faciliter l’association qu’ils ajoutent le BT de ce que j’en comprend. Pour le CPL, vu la taille des prises utilisant cette technologie en général, je doute que ce soit exploitable ici. Par contre tu entends quoi par ancien/stable ? Parce que le Wi-Fi 2.4 GHz c’est ni récent, ni instable (ni très gourmand).
C’est des relais, donc à piloter. Les modèles PM ont aussi une mesure de la consommation comme précisé dans l’article.
Freebox OS passe en version 4.5, le répéteur Wi-Fi mis à jour
22/09/2021
Le 22/09/2021 à 16h 04
Il n’est pas exploitable en France
Le protocole VPN Wireguard disponible sur Freebox : comment ça marche ?
22/09/2021
Le 22/09/2021 à 11h 02
Free nous a confirmé que c’était toujours un noyau 5.4+backport, l’article a été mis à jour
Le 22/09/2021 à 07h 33
La fonctionnalité étant désormais disponible, nous avons refait le tour de l’interface pour évoquer les modifications apportées depuis la bêta et mis à jour l’article
Blender 3.0 dévoile ses nouveautés à venir et les améliorations de Cycles (sans GPU AMD/Intel)
22/09/2021
Le 22/09/2021 à 10h 18
Ce sera toujours possible de rester sur la LTS antérieure de toutes façons. Mais lors du passage à la 3.0 et les premiers détails publics sur Cycles-X ils avaient été assez clairs sur OpenCL, ce qui n’empêchera pas d’avoir d’autres solutions à l’avenir (mais pas pour la 3.0). Il faudra par contre voir quels seront les modèles supportés par AMD. De toutes façons tu as toujours la solution du plug-in ProRender non ?
La PlayStation 5 s’ouvre aux SSD M.2 tiers avec dissipateur : quelles règles suivre ?
17/09/2021
Le 22/09/2021 à 04h 03
Attention quand même, ce n’est pas parce qu’un firmware est antérieur qu’il est utilisé à la prod des nouveaux modèles. On voit ça assez bien dans les cartes mères par exemple. Mais le conseil de mettre à jour le firmware avant d’utiliser un SSD dans un appareil qui ne permet pas de le mettre à jour est une bonne idée.