Une idée comme ça, mais tu peux leur demander ? ;) Pour TGCC, je ne comprends pas la remarque. C’est un centre de calcul. SiPearl est une société qui conçoit un CPU pour les futures solutions HPC EU. Quel rapport entre les deux et pourquoi l’un aurait été mieux que l’autre ?
Pourtant on a de plus en plus de machines vendues nues, certains proposent aussi une distribution Linux ou Windows. Quand on échange avec eux, ils ne nous disent pas que Linux est le choix majoritaire. Il faut aussi comprendre que dans le logiciel comme dans le matériel, il y a des habitudes et pas mal d’inertie. C’est ainsi. Et le premier moyen (mais pas le seul) de remporter l’adhésion des foules, c’est avant tout de proposer le meilleur produit.
Maintenant et comme ça a été dit déjà 5 000 000 de fois : les OS sur base Unix sont majoritaires dans les serveurs, dans le mobile. Même si le desktop leur résiste, ce n’est pas un drame en soi. Cela correspond au besoin de certains, pas d’autres. Il y a une diversité de distributions, chacune avec ses avantages et ses inconvénients. L’important c’est que le client soit libre de ses choix.
Il y a encore des efforts à faire en la matière, mais ça avance dans le bon sens. Une choses est sûre, ce n’est pas en simplifiant la problématique pour en faire un match gentil contre méchant que l’on pourra convaincre qui que ce soit.
Du coup tu conseilles quoi, des tarifs cassés sur des serveurs qui n’ont jamais servi ? Vu la tendance actuelle c’est pas gagné quand même
Le
30/09/2021 à
10h
35
Oui et accessoirement un hébergement en DC c’est pas les mêmes conditions qu’un particulier
Le
29/09/2021 à
07h
17
Tu entends quoi par meilleurs perfs ? Stockage, réseau, CPU ?
Le
29/09/2021 à
06h
59
On parle de serveurs dédiés ici ;) après attention sur les vCPU, comme explique dans d’autres articles c’est une dénomination souvent trompeuse. Toujours de baser sur des analyses de perfs réelles
Oui pas de souci je comprends tout à fait. Mais pour être honnête, quand ça se fait suite à des échanges avec un constructeur en particulier, ce qui peut arriver, on le dit clairement.
Mais j’ai une curiosité assez naturelle pour les sujets tordus avec lesquels je saoule une partie de l’écosystème Parfois ça aboutit juste au bon moment
Le
01/10/2021 à
03h
08
Il n’ a pas de règle générale, ça dépend des besoins. Mais rien qu’un hébergeur utilise ce genre de solution pour ses offres de bloc storage par exemple (en iSCSI ou via des solutions spécifiques comme en Ceph/RADOS). C’est aussi assez courant de voir des VM avec des “datastores” externalisés, jusqu’à maintenant surtout via iSCSI ou des protocoles fichiers comme NFS.
Ce que tu vois apparaître aussi ce sont des baies avec du matos spécialisée dans les accélérations liées au réseau/stockage, qui ne sont pas forcément les mêmes que dans une baie “compute”. Reste la question du débit réseau, parce qu’un SSD actuellement ça sait faire du 4⁄8 Go/s tout seul en lecture séquentielle, donc 32⁄64 Gb/s. Un seul suffit à saturer un seul lien 40G.
Mais en pratique ce n’est pas toujours de gros accès séquentiels et de toutes façons ça peut être une bonne solution pour compléter du stockage local forcément limité physiquement. Potentiellement une machine peut monter l’espace de stockage de plusieurs baies externes, elles ne pourrait pas les accueillir. Et c’est tout le principe du réseau que d’ouvrir de tels accès.
Ici par exemple j’ai en général un SSD local et potentiellement un HDD dans la machine. Pour le reste je monte des périphériques sur le réseau selon les besoins (NVMe/TCP ou iSCSI).
Le
30/09/2021 à
17h
52
Le PCIe 5.0 c’est plutôt fin d’année voir début 2022
Le
30/09/2021 à
10h
33
Je ne savais pas que ces annoncés arrivaient. Après peut être qu’ils l’ont décidé suite aux articles, on sait pas (en vrai ça fait un moment que je travaille sur le sujet mais ça s’est débloqué cet été avec l’arrivé du switch 25G et mon travail sur les scripts NVMe/TCP)
Rares sont les constructeurs, intégrateurs ou revendeurs à ne pas se plaindre de la difficulté de trouver des composants, telle ou telle pièce, parfois de ne même plus trouver de quoi finaliser certains PCB.
Non pas forcément, tout dépend ce que tu en fais et où c’est traité. Mais pour le moment la mémoire est toujours plus rapide que les bus PCIe (surtout si ça termine sur du GPU/HBM). Pour te donner un ordre d’idée, sur le P620, je mesure la BP mémoire (8 canaux) aux alentours de 135 Go/s. Mais c’est aussi pour ça qu’on passe à la DDR5 et qu’on arrive à des initiatives comme Sapphire Rapids avec HBM.
Le
30/09/2021 à
14h
04
Ils le font, en lecture. En écriture c’est plus compliqué mais ça vient de la nature même de la flash. Après on sait faire e la flash rapide et toujours performante, mais ça ne coute pas le même tarif ;)
Le
30/09/2021 à
08h
24
C’est pas pour rien que tout le monde essaie de bypasser le CPU
Oui c’était un des éléments de la refonte technique de l’interface de DSM 7 (on l’a rappelé assez régulièrement d’ailleurs)
Le
30/09/2021 à
02h
11
Ils le font de série, mais pas sur de petits modèles étant donné le coût d’une puce 10G. Du coup c’est DS1621xs+ au minimum, sur le DS1621+ la carte 10G est en option
Le
29/09/2021 à
18h
29
Oui on avait noté ça dans les tests des OS récents pour NAS; d’autant que ADM/QTS sont passés sur un 5.1x pour Wireguard notamment. Espérons que ça viendra vite chez Synology. Pour la 7.1 ?
lahire789 a dit:
ca coute quand meme cher Synology par rapport à un nas custom sous debian, je vois pas l’interet pour une boite ou un particulier
Comme dit par d’autres, ce que vend principalement un fabricant de NAS (outre le format de la machine), c’est la couche logicielle. Si on veut juste faire du SMB/CIFS ou qu’on veut tout gérer à la main, ce n’est pas la bonne solution.
Je ne vois pas trop pourquoi, quand on dit ça on parle au sens large. Prend 100 personnes, demande “qui connait les FH ?” si tu as 5 personnes qui lèvent la main c’est déjà un bon panel. Ce n’est pas tant une question de zone d’ignorance de tel ou tel.
(quote:1903749:Idiogène) Les maires aussi oublient. Lorsqu’on veut planter des éoliennes par exemple.
Au pire ça fait une bonne antenne non ?
emmettbrown a dit:
Pour la 5G en fréquence millimétriques sur la bande des 26Ghz, est-ce que les FH peuvent concurrencer la fibre ? Surtout sur la distance. Des connaisseurs pour la 5G ?
La 5G en millimétrique et les FH ce n’est pas le même besoin ni le même fonctionnement. Au bout tu as toujours un smartphone qui bouge ;)
On fait quand même la différence entre : “cette techno résiste à quand il pleut” et “cette techno résiste à un cataclysme” Si le terrain se barre, la FH dégage aussi sec. Mais ça peut être plus rapide à remettre en place (c’est aussi une solution de secours comme dit dans l’article).
Le
30/09/2021 à
09h
24
Que la terre est courbe ou qu’elle n’est pas plate ?
Ce qui sera intéressant de voir c’est comment ça évolue sur le marché des CSP. Ce sont eux qui ont sauté le pas en premier parce qu’ils veulent de la densité, du prix, des E/S et EPYC répond à tout ça…. mais c’est aussi sur tout ça qu’ARM attaque (notamment Ampere, mais voir aussi Graviton). De fait, leur plus grande force va vite être leur plus grande faiblesse à moins qu’ils se diversifient rapidement. On verra avec Zen 4.
Le
28/09/2021 à
03h
46
mi-2022 c’est improbable en l’état (pour la dispo de plus de trois samples, comme dit, un lancement on fait ça quand on veut techniquement). Rien que sur EPYC, les partenaires ont principalement de la doc technique et ne voient pas les CPU tourner, à 6⁄9 mois d’un lancement ça n’arrive pas.
Sur SPR par exemple, il y a du CPU qui tourne depuis un moment (mais les changements sont importants et il y a eu pas mal de choses à affiner, d’où les retards déjà annoncés pour ne pas se louper).
De toutes façons AMD va forcément devoir affiner le calendrier officiel à son évènement de fin d’année ou au CES, ils ne peuvent pas rester sans rien dire pendant qu’Intel multiplie les annonces plus longtemps.
Le
27/09/2021 à
16h
30
Intel a fait des choix techniques qui ont posé problème par la suite, comme pas mal d’autres constructeurs (qui ont été plus ou moins touchés par des failles similaires découvertes ces dernières années). Tous ont profité de ces découvertes pour renforcer leurs architectures; c’est comme ça qu’on avance.
L’innovation dans le secteur c’est franchement le quotidien. Tous les produits qu’on voit sur le marché en sont remplis, et ça ne touche pas que le monde des processeurs. Je sais qu’on peut vite avoir tendance à croire que tout est facile, mais la moindre architecture ce sont des milliers d’ingénieurs dans différents pays pendant plusieurs années, sans parler de la fabrication. Que ce soit chez AMD, Intel ou autre.
Il y a des bons et des mauvais cycles chez tous, les mécaniques sont d’ailleurs souvent les mêmes et se répètent. Aucun n’a l’exclusivité de l’innovation, qu’elle soit logicielle, matérielle ou même stratégique, elle est toujours là. Parfois avec des bonds plus importants que d’autres.
micktrs a dit:
AMD n’ayant réussi qu’à réellement riposter depuis Zen (2016-2017), Intel a eu beaucoup de mal à réagir..
Attention à ce genre d’analyse. Ce n’est pas tant qu’Intel a du mal à réagir ou pas. On a déjà largement documenté les erreurs d’Intel ces dernières années. Mais quand un constructeur “réagit” à l’instant “t”, ce n’est visible dans les gammes de produits que 3 à 5 ans plus tard.
Le
27/09/2021 à
11h
11
Zen 4 arrivera tard, d’où le risque vis à vis de SPR. Mais sur le fond et comme dit dans l’article, Intel n’est pas le seul ennemi qu’AMD devra prendre en compte. Notamment parce que sur le terrain du “beaucoup de cœurs pour pas cher (mais de moins en moins), Intel n’est pas leur plus gros concurrent.
PS : si on pouvait aussi arrêter avec les “ça va enterrer Intel”. Pour rappel, Intel c’est 5 milliards de bénéfices sur un trimestre, AMD 4 milliards de chiffres d’affaires sur la même période. Oui AMD gagne en pdm et fait de bons produts, mais non ils ne vont pas enterrer Intel de si tôt.
Exact, je continue d’utiliser le nom du service auquel j’ai souscrit ! Je fais partie de ceux qui disent toujours PCINpact
Le
29/09/2021 à
05h
45
Je recommence :
C2 Backup était avant le service associé à Hyper Backup, il est devenu C2 Storage
C2 Backup est le nom du nouveau service de sauvegarde cloud évoqué ici.
Le
29/09/2021 à
03h
57
C2 Storage (Dont l’ancien nom est C2 Backup, oui, c’est logique )
Le
28/09/2021 à
10h
16
Chez Acronis c’était Disk Director ?
Le
28/09/2021 à
10h
13
Oui là il faut booter la VM sur l’ISO de récupération et faire la procédure, alors qu’une conversion en image disque doit sans doute être gérable “simplement”. A voir si ça évoluera. Je devrais voir Synology bientôt j’essaierai d’en parler avec eux
Le
28/09/2021 à
09h
49
Ceci dit je vois déjà un avantage — puisque je suis l’IT guy de la famille — c’est que les ordinateurs peuvent être sauvegardé via Internet, alors que ma solution ne fonctionne que via SMB et donc en réseau local.
Quoi qu’il en soit, merci encore pour cet article et tout le dossier sur les sauvegardes!
(reply:1903104avid-GDE)
Il faudrait que je monte sérieusement en compétence sur les outils d’installation et de restauration de Windows pour pouvoir dépanner les ordis de la famille et des voisins un peu plus facilement et pratiquement
Tu peux toujours mettre un VPN vers ta connexion a toute la famille
Le
28/09/2021 à
09h
04
Oui, on a déjà évoqué Time Machine, notamment l’interaction possible avec des NAS qui ne cherchent en général même pas à proposer d’alternative. Dans le cas de Windows, c’est différent puisque les outils sont vieux et incomplets, poussant souvent à trouver mieux (d’où le dossier )
Le
28/09/2021 à
08h
11
Pas de quoi Attention tout de même ce n’est pas sur tous les modèles (voir la liste de compatibilité qui reste assez large)
DRM = Digital Right Managment. C’est une gestion des droits d’accès, donc il n’y a pas de différence à faire. Comme dit il peut y avoir de bons et de mauvais usages des DRM. Pour les enclaves, tu en as le total contrôle, mais le principe d’une enclave est justement de ne pas pouvoir lire.
Quand tu mets une clé privée GnuPG dans une enclave sécurisée (comme une clé de sécurité), tu ne peux plus lire le contenu de la clé privée. Mais tu peux l’utiliser pour signer des message, déchiffrer des messages qui te sont destinés. Pourquoi ? Parce que si tu peux lire la clé, un pirate peut potentiellement lire la clé. Le principe de l’enclave est de l’éviter.
Le
28/09/2021 à
03h
41
Pas que je sache, surtout que c’est assez lié au BIOS/UEFI de la carte mère. C’est fait dans le cadre d’un hyperviseur (bien que ce soit parfois du passthrough), mais pourquoi pour un système natif ? Car quand bien même ce serait possible, ce serait assez contre productif et c’est sans doute la mauvaise manière de régler le problème.
Le
27/09/2021 à
16h
25
J’ai l’impression que TPM permet de superbement sécuriser les enclaves SGX. C’est une symbiose. Ces enclaves, dans ton PC ne t’appartiennent pas. Elles facilitent grandement l’implémentation de DRM ou autres.
En forçant TPM y compris dans les VM, je pense (sans en être certain) que MicroSoft protège ses enclaves et DRM y compris du reverse engineering. Il est probablement possible, mais plus difficile.
Et TPM fiabilise le secure boot tant pour eux que nous, mais je pense que les gagnants seront les DRM.
Je sais que c’est courant comme argumentaire, mais ça n’a aucun sens. Une enclave est une enclave. Une carte de paiement est une enclave, un clé de sécurité ou GPG sont des enclaves.
Il n’y a pas de notion d’appartenance ou pas. Le processeur qui contient les enclaves appartient à l’utilisateur, ce qui y est placé par les applications n’est pas accessible directement (c’est un peu le principe du truc en fait) parce que sinon, n’importe qui… pourrait en lire le contenu.
C’est la même chose avec le stockage où n’importe quelle application peut écrire des données chiffrées sans que l’utilisateur puisse forcément en avoir connaissance. Le stockage n’est pas pour autant une technologie du mal que Microsoft veut protéger d’un reverse engineering de hax0r.
C’est le plus souvent dans l’intérêt de l’utilisateur qu’il ne puisse y avoir accès, et ça doit être fait dans le cadre de la loi. On peut y mettre des clés dans différents buts, dont le DRM. Gérer les droits d’accès (du DRM quoi) c’est nécessaire.
C’est par exemple le principe de se connecter à son compte Next INpact pour accéder aux articles. Sans vérification de l’accès, pas de modèle économique, pas de Next INpact. Les DRM doivent ne pas être contraignants pour l’utilisateur, notamment ne pas dépendre d’une plateforme/solution logicielle spécifique, c’est principalement ce qu’on leur demande.
Alors je sais que “DRM caca boudin” ça fait toujours plaisir, mais que diable, merci de nous éviter ça avec des analyses qui n’ont ni queue ni tête sur des sujets tel que celui-ci qui sont déjà complexes. La problématique ici c’est tout sauf les DRM (ou SGX). Ils n’ont pas besoin de TPM pour exister, même si, comme toute solution de sécurité, les DRM peuvent profiter de TPM pour mieux protéger certains éléments nécessaires à leur fonctionnement.
Mais tout cela dépend de l’usage. La technologie n’est responsable de rien, ce qui compte c’est ce qu’en font les développeurs. Il existe de bons et de mauvais usages de TPM, des DRM, du PC au sens large. Même avec Linux on peut faire de mauvaises choses.
Le
27/09/2021 à
14h
13
Comme dit dans l’article, normalement ça sera bloquant pour la mise à jour mais pas une installation “propre”. J’attends de voir l’ISO finale et la mise à jour de Windows Update publique pour faire le point sur ces cas là
Pas tant que ça mais y’a un peu de ça. Disons que comme dit plus haut et dans l’article, c’est toujours une question de point de vue et de besoin. Pour un particulier un switch à 1400 euros c’est une dépense un peu folle, “plaisir” pour les passionnés. Pour une boite ça passe, pour un DC c’est cheap
Le
28/09/2021 à
15h
03
J’ai un peu de mal à voir où tu veux en venir dans tes interventions, mais l’absolutisme ne paie jamais. Tu peux avoir des postes client 1G (ou moins), comme tu peux avoir des postes clients qui font de la vidéo constamment et donc pas vraiment avec un “besoin débit assez faible”. Et dans ce genre de cas, ce que d’aucuns considèrent comme “le cas général” on s’en moque.
Le
28/09/2021 à
13h
27
Oui comme je dis dans cette partie c’est surtout une question de perception/besoin. Quand tu parles à des gens en DC c’est le 100G qui est le nouveau focus, plus bas dans la chaine c’est le 25G. Et pendant ce temps, dans le grand public on nous explique que 2,5 Gb/s c’est déjà beaucoup trop
Le
28/09/2021 à
10h
20
Non mais Noël approche, je pense à vos proches, il faut les préparer sur la durée
Parce qu’un port RJ45 ça n’est pas exploitable en l’état, il faut une couche logicielle/réseau pour toute la gestion (de la stack iSCSI par exemple) et ça n’est pas un truc qu’on gère avec un micro-contrôleur. Mais ce serait intéressant de voir déjà une solution de type RPi avec une connexion NVMe pour un partage sur réseau et voir le niveau de perf (qui peut consommer pas mal de CPU sans offload).
Le
28/09/2021 à
09h
37
patos a dit:
Je me permets de ne pas être d’accord. La différence entre NAS et SAN est que ce ne sont pas la même chose: un SAN est un réseau interconnectable alors qu’un NAS fait partie d’un réseau: les SANs sont auto-redondants (au moins double contrôleurs, avec un canal interne privilégié et des backends multipoints qu’ils soient NVMe, SAS ou SATA). Chacun de ces contrôleurs est un NAS par définition.
On est d’accord sur le fait que NAS et SAN sont des éléments différents, par contre tu leur prête à mon avis des caractéristiques qui sont communes sans être obligatoires.
Le principe du SAN c’est d’exposer le stockage brut, qui sera monté et formaté sur le client, là où le NAS gère le système de fichiers et utilise un protocole de partage réseau. Que le SAN soit redondant ou non, double port ou non, etc. c’est une caractéristique possible pas ce qui le compose en tant que tel.
Le
28/09/2021 à
04h
03
Cqoicebordel a dit:
… ça revient au NAS.
Spoiler : si tu prends un périphérique de stockage et que tu le partages sur le réseau, c’est du SAN qqsoit la forme. Au final tu auras un contrôleur qui fait tourner un système pour gérer le partage quelle que soit la solution retenue ;) Et il faut pouvoir encaisser le débit/IOPS.
Soraphirot a dit:
Je vois pas pourquoi les NAS devraient être plus cher que les SAN, justement.
Attention : NAS/SAN, ça n’est pas une question de prix. Tout dépend de ce qui est partagé et comment c’est géré. Ce que l’on appelle communément “NAS” sont des serveurs qui intègrent à la fois des fonctionnalités de NAS et de SAN (via iSCSI par exemple).
Cqoicebordel a dit:
Et pourquoi c’est excentrique, si on le fait pour des SSD ? Le faire pour des HDD n’est pas si différent.
Bref. Le marché ne le propose pas, mais peut-être qu’il devrait.
On le fait pour des SSD Entreprise à 4 To ou plus parce que c’est “indolore” au regard du prix du SSD, du serveur qui embarque le tout et son interconnexion à 600G. Mais au niveau d’un usage personnel et d’un particulier, c’est un SAN minaturisé et le surcoût serait sans doute prohibitif.
Pourquoi des SSD plutôt que des HDD ? Parce que c’est la demande du marché d’avoir du gros débit en block storage, et du HDD ce n’est pas du gros débit. Et on maitrise déjà bien les SAN HDD iSCSI (mais s’il y a une demande pour une version plus directe, elle n’est pas impossible à imaginer).
Soraphirot a dit:
Et comme on l’a dit dans les commentaire d’un autre article déporter un stockage sur un ASIC & cie n’a aucun intérêt.
Si, il y a même un marché pour ça, voir le papier sur les EBOF. On le déporte aussi sur la carte réseau de plus en plus avec les DPU (on parle de cartes réseau à 2000 euros pour info), qui est une autre approche moins figée dans la programmation. On ne sait pas encore ce qui sera le plus adopté par le marché, même si les DPU ont l’avantage de pouvoir gérer plein de truc (c’est aussi leur problème; s’ils traitent plein de trucs, auront-ils la ressource pour gérer comme il faut le stockage, ne faut il pas déporter ce besoin ailleurs et au plus près du périphérique ?)
Ca n’intéressera pas le grand public non plus car ça n’apporte rien de plus qu’un DD branché en interne mais avec une configuration plus complexe.
Tout dépend toujours de la définition de grand public. Si tu proposes un boîtier avec un SSD à brancher sur le réseau et à monter comme bon te semble, ça intéressera du monde, mais sur le fond, ceux qui sont intéressés voudront le faire avec plusieurs SSD, et donc on en revient à une forme de SAN.
La question c’est : pourquoi on a pas plus de SAN à petit prix sur le marché ? La réponse est sans doute que les vendeurs de NAS vendent principalement du logiciel et que du SAN c’est “simple”, donc peu valorisable (hors d’un besoin spécifique en entreprise) et moins facile que du SMB pour Michu.
Mais bon, si demain quelqu’un fait un OS avec un Linux minimal et juste une interface web pour iSCSI/NVMe-oF, je suis sûr que ça aura du succès
L’esprit du block storage c’est de partager un périphérique de stockage brut. Si tu veux tout gérer côté serveur avec un gros niveau de redondance, il y a l’objet/fichier. Certes les NAS nous ont habitué à faire du RAID côté serveur avec des LUN partagés, mais ce n’est pas leur “intérêt” parce qu’on s’éloigne du protocole (ne serait-ce que parce que le périphérique n’est pas SCSI). Avec NVMe-oF le but c’est quand même de passer les commandes brutes au périphérique.
Comme dit plus haut, ça n’empêchera pas la segmentation, mais elle sera gérée de manière plus native, le protocole ayant été pensé pour ça.
15083 commentaires
SiPearl s’installe à Grenoble
01/10/2021
Le 02/10/2021 à 12h 24
Une idée comme ça, mais tu peux leur demander ? ;) Pour TGCC, je ne comprends pas la remarque. C’est un centre de calcul. SiPearl est une société qui conçoit un CPU pour les futures solutions HPC EU. Quel rapport entre les deux et pourquoi l’un aurait été mieux que l’autre ?
Linux : Pop!_OS fait fort dans l’ergonomie et le soin porté à l’interface
01/10/2021
Le 02/10/2021 à 11h 58
Pourtant on a de plus en plus de machines vendues nues, certains proposent aussi une distribution Linux ou Windows. Quand on échange avec eux, ils ne nous disent pas que Linux est le choix majoritaire. Il faut aussi comprendre que dans le logiciel comme dans le matériel, il y a des habitudes et pas mal d’inertie. C’est ainsi. Et le premier moyen (mais pas le seul) de remporter l’adhésion des foules, c’est avant tout de proposer le meilleur produit.
Maintenant et comme ça a été dit déjà 5 000 000 de fois : les OS sur base Unix sont majoritaires dans les serveurs, dans le mobile. Même si le desktop leur résiste, ce n’est pas un drame en soi. Cela correspond au besoin de certains, pas d’autres. Il y a une diversité de distributions, chacune avec ses avantages et ses inconvénients. L’important c’est que le client soit libre de ses choix.
Il y a encore des efforts à faire en la matière, mais ça avance dans le bon sens. Une choses est sûre, ce n’est pas en simplifiant la problématique pour en faire un match gentil contre méchant que l’on pourra convaincre qui que ce soit.
Serveurs dédiés : Scaleway promet de nouvelles offres en 2022, certains serveurs en fin de vie
29/09/2021
Le 02/10/2021 à 02h 32
Du coup tu conseilles quoi, des tarifs cassés sur des serveurs qui n’ont jamais servi ? Vu la tendance actuelle c’est pas gagné quand même
Le 30/09/2021 à 10h 35
Oui et accessoirement un hébergement en DC c’est pas les mêmes conditions qu’un particulier
Le 29/09/2021 à 07h 17
Tu entends quoi par meilleurs perfs ? Stockage, réseau, CPU ?
Le 29/09/2021 à 06h 59
On parle de serveurs dédiés ici ;) après attention sur les vCPU, comme explique dans d’autres articles c’est une dénomination souvent trompeuse. Toujours de baser sur des analyses de perfs réelles
Dell EMC et VMWare misent sur NVMe over TCP, Intel et Lightbits Labs partenaires
30/09/2021
Le 02/10/2021 à 02h 28
Oui pas de souci je comprends tout à fait. Mais pour être honnête, quand ça se fait suite à des échanges avec un constructeur en particulier, ce qui peut arriver, on le dit clairement.
Mais j’ai une curiosité assez naturelle pour les sujets tordus avec lesquels je saoule une partie de l’écosystème Parfois ça aboutit juste au bon moment
Le 01/10/2021 à 03h 08
Il n’ a pas de règle générale, ça dépend des besoins. Mais rien qu’un hébergeur utilise ce genre de solution pour ses offres de bloc storage par exemple (en iSCSI ou via des solutions spécifiques comme en Ceph/RADOS). C’est aussi assez courant de voir des VM avec des “datastores” externalisés, jusqu’à maintenant surtout via iSCSI ou des protocoles fichiers comme NFS.
Ce que tu vois apparaître aussi ce sont des baies avec du matos spécialisée dans les accélérations liées au réseau/stockage, qui ne sont pas forcément les mêmes que dans une baie “compute”. Reste la question du débit réseau, parce qu’un SSD actuellement ça sait faire du 4⁄8 Go/s tout seul en lecture séquentielle, donc 32⁄64 Gb/s. Un seul suffit à saturer un seul lien 40G.
Mais en pratique ce n’est pas toujours de gros accès séquentiels et de toutes façons ça peut être une bonne solution pour compléter du stockage local forcément limité physiquement. Potentiellement une machine peut monter l’espace de stockage de plusieurs baies externes, elles ne pourrait pas les accueillir. Et c’est tout le principe du réseau que d’ouvrir de tels accès.
Ici par exemple j’ai en général un SSD local et potentiellement un HDD dans la machine. Pour le reste je monte des périphériques sur le réseau selon les besoins (NVMe/TCP ou iSCSI).
Le 30/09/2021 à 17h 52
Le PCIe 5.0 c’est plutôt fin d’année voir début 2022
Le 30/09/2021 à 10h 33
Je ne savais pas que ces annoncés arrivaient. Après peut être qu’ils l’ont décidé suite aux articles, on sait pas (en vrai ça fait un moment que je travaille sur le sujet mais ça s’est débloqué cet été avec l’arrivé du switch 25G et mon travail sur les scripts NVMe/TCP)
Dons défiscalisables à Next INpact en 2021 : ce soir il sera trop tard
30/12/2021
Le 01/10/2021 à 14h 33
C’est en cours ;)
Pénurie de composants : attendez-vous à galérer encore un an (au moins)
30/09/2021
Le 01/10/2021 à 12h 25
Le biais c’est de ne pas tout lire ;)
Le 30/09/2021 à 09h 28
Il l’était déjà à la commande
Phison prépare aussi des SSD PCIe 5.0, disponibles à la mi-2022
30/09/2021
Le 01/10/2021 à 12h 20
Non pas forcément, tout dépend ce que tu en fais et où c’est traité. Mais pour le moment la mémoire est toujours plus rapide que les bus PCIe (surtout si ça termine sur du GPU/HBM). Pour te donner un ordre d’idée, sur le P620, je mesure la BP mémoire (8 canaux) aux alentours de 135 Go/s. Mais c’est aussi pour ça qu’on passe à la DDR5 et qu’on arrive à des initiatives comme Sapphire Rapids avec HBM.
Le 30/09/2021 à 14h 04
Ils le font, en lecture. En écriture c’est plus compliqué mais ça vient de la nature même de la flash. Après on sait faire e la flash rapide et toujours performante, mais ça ne coute pas le même tarif ;)
Le 30/09/2021 à 08h 24
C’est pas pour rien que tout le monde essaie de bypasser le CPU
Après le Cloud de confiance français, des géants américains vantent leurs Trusted Cloud Principles
01/10/2021
Le 01/10/2021 à 09h 33
Il y a un bouton pour signaler les erreurs ;) (fixed néanmoins)
Let’s Encrypt : l’expiration d’un certificat racine fait la une
30/09/2021
Le 01/10/2021 à 07h 51
Apparemment il y a eu des soucis sur les Android avec du DoT, voir ici. Pour ceux qui veulent il y a un thread récap
Synology : DSM 7.0.1 disponible, la seconde vague de NAS compatibles
29/09/2021
Le 30/09/2021 à 14h 04
Oui c’était un des éléments de la refonte technique de l’interface de DSM 7 (on l’a rappelé assez régulièrement d’ailleurs)
Le 30/09/2021 à 02h 11
Ils le font de série, mais pas sur de petits modèles étant donné le coût d’une puce 10G. Du coup c’est DS1621xs+ au minimum, sur le DS1621+ la carte 10G est en option
Le 29/09/2021 à 18h 29
Oui on avait noté ça dans les tests des OS récents pour NAS; d’autant que ADM/QTS sont passés sur un 5.1x pour Wireguard notamment. Espérons que ça viendra vite chez Synology. Pour la 7.1 ?
Comme dit par d’autres, ce que vend principalement un fabricant de NAS (outre le format de la machine), c’est la couche logicielle. Si on veut juste faire du SMB/CIFS ou qu’on veut tout gérer à la main, ce n’est pas la bonne solution.
Faisceaux hertziens : qui sont-ils, quels sont leurs réseaux ?
30/09/2021
Le 30/09/2021 à 14h 02
Je ne vois pas trop pourquoi, quand on dit ça on parle au sens large. Prend 100 personnes, demande “qui connait les FH ?” si tu as 5 personnes qui lèvent la main c’est déjà un bon panel. Ce n’est pas tant une question de zone d’ignorance de tel ou tel.
Au pire ça fait une bonne antenne non ?
La 5G en millimétrique et les FH ce n’est pas le même besoin ni le même fonctionnement. Au bout tu as toujours un smartphone qui bouge ;)
On fait quand même la différence entre : “cette techno résiste à quand il pleut” et “cette techno résiste à un cataclysme” Si le terrain se barre, la FH dégage aussi sec. Mais ça peut être plus rapide à remettre en place (c’est aussi une solution de secours comme dit dans l’article).
Le 30/09/2021 à 09h 24
Que la terre est courbe ou qu’elle n’est pas plate ?
AMD continue de prendre de l’importance dans les serveurs
27/09/2021
Le 29/09/2021 à 18h 12
Ce qui sera intéressant de voir c’est comment ça évolue sur le marché des CSP. Ce sont eux qui ont sauté le pas en premier parce qu’ils veulent de la densité, du prix, des E/S et EPYC répond à tout ça…. mais c’est aussi sur tout ça qu’ARM attaque (notamment Ampere, mais voir aussi Graviton). De fait, leur plus grande force va vite être leur plus grande faiblesse à moins qu’ils se diversifient rapidement. On verra avec Zen 4.
Le 28/09/2021 à 03h 46
mi-2022 c’est improbable en l’état (pour la dispo de plus de trois samples, comme dit, un lancement on fait ça quand on veut techniquement). Rien que sur EPYC, les partenaires ont principalement de la doc technique et ne voient pas les CPU tourner, à 6⁄9 mois d’un lancement ça n’arrive pas.
Sur SPR par exemple, il y a du CPU qui tourne depuis un moment (mais les changements sont importants et il y a eu pas mal de choses à affiner, d’où les retards déjà annoncés pour ne pas se louper).
De toutes façons AMD va forcément devoir affiner le calendrier officiel à son évènement de fin d’année ou au CES, ils ne peuvent pas rester sans rien dire pendant qu’Intel multiplie les annonces plus longtemps.
Le 27/09/2021 à 16h 30
Intel a fait des choix techniques qui ont posé problème par la suite, comme pas mal d’autres constructeurs (qui ont été plus ou moins touchés par des failles similaires découvertes ces dernières années). Tous ont profité de ces découvertes pour renforcer leurs architectures; c’est comme ça qu’on avance.
L’innovation dans le secteur c’est franchement le quotidien. Tous les produits qu’on voit sur le marché en sont remplis, et ça ne touche pas que le monde des processeurs. Je sais qu’on peut vite avoir tendance à croire que tout est facile, mais la moindre architecture ce sont des milliers d’ingénieurs dans différents pays pendant plusieurs années, sans parler de la fabrication. Que ce soit chez AMD, Intel ou autre.
Il y a des bons et des mauvais cycles chez tous, les mécaniques sont d’ailleurs souvent les mêmes et se répètent. Aucun n’a l’exclusivité de l’innovation, qu’elle soit logicielle, matérielle ou même stratégique, elle est toujours là. Parfois avec des bonds plus importants que d’autres.
Attention à ce genre d’analyse. Ce n’est pas tant qu’Intel a du mal à réagir ou pas. On a déjà largement documenté les erreurs d’Intel ces dernières années. Mais quand un constructeur “réagit” à l’instant “t”, ce n’est visible dans les gammes de produits que 3 à 5 ans plus tard.
Le 27/09/2021 à 11h 11
Zen 4 arrivera tard, d’où le risque vis à vis de SPR. Mais sur le fond et comme dit dans l’article, Intel n’est pas le seul ennemi qu’AMD devra prendre en compte. Notamment parce que sur le terrain du “beaucoup de cœurs pour pas cher (mais de moins en moins), Intel n’est pas leur plus gros concurrent.
PS : si on pouvait aussi arrêter avec les “ça va enterrer Intel”. Pour rappel, Intel c’est 5 milliards de bénéfices sur un trimestre, AMD 4 milliards de chiffres d’affaires sur la même période. Oui AMD gagne en pdm et fait de bons produts, mais non ils ne vont pas enterrer Intel de si tôt.
Active Backup et C2 Backup : la sauvegarde de PC sous Windows selon Synology
28/09/2021
Le 29/09/2021 à 10h 29
Le 29/09/2021 à 05h 45
Je recommence :
Le 29/09/2021 à 03h 57
C2 Storage (Dont l’ancien nom est C2 Backup, oui, c’est logique )
Le 28/09/2021 à 10h 16
Chez Acronis c’était Disk Director ?
Le 28/09/2021 à 10h 13
Oui là il faut booter la VM sur l’ISO de récupération et faire la procédure, alors qu’une conversion en image disque doit sans doute être gérable “simplement”. A voir si ça évoluera. Je devrais voir Synology bientôt j’essaierai d’en parler avec eux
Le 28/09/2021 à 09h 49
Tu peux toujours mettre un VPN vers ta connexion a toute la famille
Le 28/09/2021 à 09h 04
Oui, on a déjà évoqué Time Machine, notamment l’interaction possible avec des NAS qui ne cherchent en général même pas à proposer d’alternative. Dans le cas de Windows, c’est différent puisque les outils sont vieux et incomplets, poussant souvent à trouver mieux (d’où le dossier )
Le 28/09/2021 à 08h 11
Pas de quoi Attention tout de même ce n’est pas sur tous les modèles (voir la liste de compatibilité qui reste assez large)
À IT Partners, Bleu Jour présente sa carte mère conçue et fabriquée en France
29/09/2021
Le 29/09/2021 à 08h 12
C’était un avant-goût
Installation de Windows 11 sur Proxmox VE ou VirtualBox : ça coince, quelles solutions ?
27/09/2021
Le 28/09/2021 à 16h 49
DRM = Digital Right Managment. C’est une gestion des droits d’accès, donc il n’y a pas de différence à faire. Comme dit il peut y avoir de bons et de mauvais usages des DRM. Pour les enclaves, tu en as le total contrôle, mais le principe d’une enclave est justement de ne pas pouvoir lire.
Quand tu mets une clé privée GnuPG dans une enclave sécurisée (comme une clé de sécurité), tu ne peux plus lire le contenu de la clé privée. Mais tu peux l’utiliser pour signer des message, déchiffrer des messages qui te sont destinés. Pourquoi ? Parce que si tu peux lire la clé, un pirate peut potentiellement lire la clé. Le principe de l’enclave est de l’éviter.
Le 28/09/2021 à 03h 41
Pas que je sache, surtout que c’est assez lié au BIOS/UEFI de la carte mère. C’est fait dans le cadre d’un hyperviseur (bien que ce soit parfois du passthrough), mais pourquoi pour un système natif ? Car quand bien même ce serait possible, ce serait assez contre productif et c’est sans doute la mauvaise manière de régler le problème.
Le 27/09/2021 à 16h 25
Je sais que c’est courant comme argumentaire, mais ça n’a aucun sens. Une enclave est une enclave. Une carte de paiement est une enclave, un clé de sécurité ou GPG sont des enclaves.
Il n’y a pas de notion d’appartenance ou pas. Le processeur qui contient les enclaves appartient à l’utilisateur, ce qui y est placé par les applications n’est pas accessible directement (c’est un peu le principe du truc en fait) parce que sinon, n’importe qui… pourrait en lire le contenu.
C’est la même chose avec le stockage où n’importe quelle application peut écrire des données chiffrées sans que l’utilisateur puisse forcément en avoir connaissance. Le stockage n’est pas pour autant une technologie du mal que Microsoft veut protéger d’un reverse engineering de hax0r.
C’est le plus souvent dans l’intérêt de l’utilisateur qu’il ne puisse y avoir accès, et ça doit être fait dans le cadre de la loi. On peut y mettre des clés dans différents buts, dont le DRM. Gérer les droits d’accès (du DRM quoi) c’est nécessaire.
C’est par exemple le principe de se connecter à son compte Next INpact pour accéder aux articles. Sans vérification de l’accès, pas de modèle économique, pas de Next INpact. Les DRM doivent ne pas être contraignants pour l’utilisateur, notamment ne pas dépendre d’une plateforme/solution logicielle spécifique, c’est principalement ce qu’on leur demande.
Alors je sais que “DRM caca boudin” ça fait toujours plaisir, mais que diable, merci de nous éviter ça avec des analyses qui n’ont ni queue ni tête sur des sujets tel que celui-ci qui sont déjà complexes. La problématique ici c’est tout sauf les DRM (ou SGX). Ils n’ont pas besoin de TPM pour exister, même si, comme toute solution de sécurité, les DRM peuvent profiter de TPM pour mieux protéger certains éléments nécessaires à leur fonctionnement.
Mais tout cela dépend de l’usage. La technologie n’est responsable de rien, ce qui compte c’est ce qu’en font les développeurs. Il existe de bons et de mauvais usages de TPM, des DRM, du PC au sens large. Même avec Linux on peut faire de mauvaises choses.
Le 27/09/2021 à 14h 13
Comme dit dans l’article, normalement ça sera bloquant pour la mise à jour mais pas une installation “propre”. J’attends de voir l’ISO finale et la mise à jour de Windows Update publique pour faire le point sur ces cas là
Switch S5860-20SQ 26 ports : 25 Gb/s (SFP28) et 40 Gb/s (QSFP+) à la portée de « tous »
28/09/2021
Le 28/09/2021 à 16h 14
J’en parle même dans l’article
Pas tant que ça mais y’a un peu de ça. Disons que comme dit plus haut et dans l’article, c’est toujours une question de point de vue et de besoin. Pour un particulier un switch à 1400 euros c’est une dépense un peu folle, “plaisir” pour les passionnés. Pour une boite ça passe, pour un DC c’est cheap
Le 28/09/2021 à 15h 03
J’ai un peu de mal à voir où tu veux en venir dans tes interventions, mais l’absolutisme ne paie jamais. Tu peux avoir des postes client 1G (ou moins), comme tu peux avoir des postes clients qui font de la vidéo constamment et donc pas vraiment avec un “besoin débit assez faible”. Et dans ce genre de cas, ce que d’aucuns considèrent comme “le cas général” on s’en moque.
Le 28/09/2021 à 13h 27
Oui comme je dis dans cette partie c’est surtout une question de perception/besoin. Quand tu parles à des gens en DC c’est le 100G qui est le nouveau focus, plus bas dans la chaine c’est le 25G. Et pendant ce temps, dans le grand public on nous explique que 2,5 Gb/s c’est déjà beaucoup trop
Le 28/09/2021 à 10h 20
Non mais Noël approche, je pense à vos proches, il faut les préparer sur la durée
Kioxia parle du futur du stockage, le PCIe 5.0 n’est pas le plus intéressant
24/09/2021
Le 28/09/2021 à 15h 06
Parce qu’un port RJ45 ça n’est pas exploitable en l’état, il faut une couche logicielle/réseau pour toute la gestion (de la stack iSCSI par exemple) et ça n’est pas un truc qu’on gère avec un micro-contrôleur. Mais ce serait intéressant de voir déjà une solution de type RPi avec une connexion NVMe pour un partage sur réseau et voir le niveau de perf (qui peut consommer pas mal de CPU sans offload).
Le 28/09/2021 à 09h 37
On est d’accord sur le fait que NAS et SAN sont des éléments différents, par contre tu leur prête à mon avis des caractéristiques qui sont communes sans être obligatoires.
Le principe du SAN c’est d’exposer le stockage brut, qui sera monté et formaté sur le client, là où le NAS gère le système de fichiers et utilise un protocole de partage réseau. Que le SAN soit redondant ou non, double port ou non, etc. c’est une caractéristique possible pas ce qui le compose en tant que tel.
Le 28/09/2021 à 04h 03
Spoiler : si tu prends un périphérique de stockage et que tu le partages sur le réseau, c’est du SAN qqsoit la forme. Au final tu auras un contrôleur qui fait tourner un système pour gérer le partage quelle que soit la solution retenue ;) Et il faut pouvoir encaisser le débit/IOPS.
Attention : NAS/SAN, ça n’est pas une question de prix. Tout dépend de ce qui est partagé et comment c’est géré. Ce que l’on appelle communément “NAS” sont des serveurs qui intègrent à la fois des fonctionnalités de NAS et de SAN (via iSCSI par exemple).
On le fait pour des SSD Entreprise à 4 To ou plus parce que c’est “indolore” au regard du prix du SSD, du serveur qui embarque le tout et son interconnexion à 600G. Mais au niveau d’un usage personnel et d’un particulier, c’est un SAN minaturisé et le surcoût serait sans doute prohibitif.
Pourquoi des SSD plutôt que des HDD ? Parce que c’est la demande du marché d’avoir du gros débit en block storage, et du HDD ce n’est pas du gros débit. Et on maitrise déjà bien les SAN HDD iSCSI (mais s’il y a une demande pour une version plus directe, elle n’est pas impossible à imaginer).
Si, il y a même un marché pour ça, voir le papier sur les EBOF. On le déporte aussi sur la carte réseau de plus en plus avec les DPU (on parle de cartes réseau à 2000 euros pour info), qui est une autre approche moins figée dans la programmation. On ne sait pas encore ce qui sera le plus adopté par le marché, même si les DPU ont l’avantage de pouvoir gérer plein de truc (c’est aussi leur problème; s’ils traitent plein de trucs, auront-ils la ressource pour gérer comme il faut le stockage, ne faut il pas déporter ce besoin ailleurs et au plus près du périphérique ?)
Tout dépend toujours de la définition de grand public. Si tu proposes un boîtier avec un SSD à brancher sur le réseau et à monter comme bon te semble, ça intéressera du monde, mais sur le fond, ceux qui sont intéressés voudront le faire avec plusieurs SSD, et donc on en revient à une forme de SAN.
La question c’est : pourquoi on a pas plus de SAN à petit prix sur le marché ? La réponse est sans doute que les vendeurs de NAS vendent principalement du logiciel et que du SAN c’est “simple”, donc peu valorisable (hors d’un besoin spécifique en entreprise) et moins facile que du SMB pour Michu.
Mais bon, si demain quelqu’un fait un OS avec un Linux minimal et juste une interface web pour iSCSI/NVMe-oF, je suis sûr que ça aura du succès
NVMe/TCP : partagez vos SSD depuis Ubuntu Server, notre script pour vous y aider
21/09/2021
Le 27/09/2021 à 14h 23
L’esprit du block storage c’est de partager un périphérique de stockage brut. Si tu veux tout gérer côté serveur avec un gros niveau de redondance, il y a l’objet/fichier. Certes les NAS nous ont habitué à faire du RAID côté serveur avec des LUN partagés, mais ce n’est pas leur “intérêt” parce qu’on s’éloigne du protocole (ne serait-ce que parce que le périphérique n’est pas SCSI). Avec NVMe-oF le but c’est quand même de passer les commandes brutes au périphérique.
Comme dit plus haut, ça n’empêchera pas la segmentation, mais elle sera gérée de manière plus native, le protocole ayant été pensé pour ça.
Concours GeForce RTX 3060 Ti : et le gagnant est…
27/09/2021
Le 27/09/2021 à 11h 44
Faut que je mette ça dans le prochain crowdfunding : “Votre nom gravé dans le marbre en B4”
Le 27/09/2021 à 11h 37
Bravo à foojb