Chic, ils ont donné mon nom à un produit ! Mais mais !? Je n’ai rien reçu en compensation ? Pourvu que je ne me reçoive pas une lettre d’huissier me demandant de renoncer à mon nickname séculaire…
Tu as pris quel modèle de NAS pour avoir cette interface 10GbE ?
Synology DS1819+ (16Go) et DX517 - E10M20-T1 10GbE+ SSD (1To Samsung 860 EVO) On m’a demandé un test de vitesse de transfert hier. Sur une grappe de 5 disques récents et de bonne facture, en SHR+ext4, transfert sur lien 10GbE de point à point, copie vers un dossier tmpfs sous Linux Gentoo, j’ai flashé un 902,6Mo/s relativement constant sur plus de 80 secondes. Donc, oui, effectivement, le simple GbE bride les transferts si on utilise des grappes permettant la lecture de segments en parallèle. Ce bridage à 120Mo/s intervient très vite dès l’utilisation de certains disques récents, mais en grappes avec assez de RAM, comme on le voit, le débit monte relativement haut. Pour tous les professionnels qui transfèrent des rushes, des photos de grandes tailles, ou de gros corpus de données, ce temps gagné est rentable.
Le
05/08/2020 à
14h
04
J’ai une interface 10GbE sur mon PC, sur mon NAS aussi. Vu que j’ai changé de NAS, pour le même en mieux, toujours en 10GbE, il m’a semblé logique de prendre un Switch 10G. Le Mikrotik 4 ports SFP+, avec les convertisseurs SFP+ vers 10G-baseT, font le Switch 10Gb à pas trop cher. Donc non, pour autant que je sache, je ne m’emmêle pas les pinceaux.
Le
05/08/2020 à
11h
51
Je viens de procéder à un test. Le transfert depuis un Synology 1819+, grappe SHR de 5 disques, via un lien point à point avec ma station, sous noyau Linux 5.7.9 Gentoo compilé maison, Jumbo Frames 9000 activés. Un fichier de 74Go a été transféré en 82 secondes, soit 900Mo/s. Pour arriver à ce score, j’ai copié le fichier en local dans un dossier tmpfs de 80Go en RAM. J’attends mon switch Mikrotik - CRS305-1G-4S+in aujourd’hui. J’ai un peu hâte de basculer tout en 10GbE. Ça commence vraiment.
J‘arrête le popcorn, j’ai pris du poids… Bon, vive la concurrence, elle stimule l‘innovation. Je viens d’y réfléchir, et depuis un 6700K que j‘ai mis dans un noeud de cluster de virtualisation, je n’ai plus acheté que des AMD Ryzen/TR depuis. J‘en suis à 7 sur ces 2 dernières années, Zen 1, Zen+, Zen 2, Zen 2 refresh, TR Zen+ … Ça commence à faire, et ça fonctionne tout de même super bien… Je fais partie de ces gens qui attendent impatiemment les Thinkpads X ou T en Ryzen 4000 U. ça arrive. Je n’aurai pas long à attendre je pense.
Loin de la guéguerre, autant j‘ai été ravi de l’arrivée, il y a un moment, de l‘architecture Core, autant je dois reconnaître que les patchs de microcode processeur Intel lié à Spectre/Meltdown/etc, et les patchs de mitigation du noyau Linux dans ce sens, diminuent à mon sens drastiquement les performances en multithread. La performance est là en monothread, comme toujours, mais en multihtread ça commence à devenir compliqué.
La concurrence innove tant, que le jour où un équivalent de SHR sera disponible hors Synology, ils risquent d‘avoir mal. Vraiment, c’est la seule chose qui m‘arrête.
J‘installe en ce moment un 3900XT sur sa nouvelle carte mère X570, en WC maison Swiftech. Je ferai un retour de mon script de bench progressif de mono à maxi-multi-thread, pour comparer ça à un 3900X sur X470 Taichi Ultimate. Je viens de finir le retrait de l’ancienne tuyauterie, la vidange des radiateurs à l‘eau distillée, le nettoyage du réservoir à l’acide propanoïque, puis rinçage. Oui, j‘ai craqué. Mais je n’ai qu‘une vie, et l’ancienne cm avec son 3900X va bien m‘arranger la vie au bureau…
Le
08/07/2020 à
21h
57
J‘ai un cluster Proxmox de production en TR 2950X 16C/32T, 128Go ECC), à 3 noeuds, pool disque en Ceph sur une boucle 10Gb, stockage lent en iSCSI. J’en suis extrêmement satisfait. Euphémisme. Je regrette juste d‘avoir été forcé de le prendre en Zen+ parce que je ne pouvais plus attendre.
Mettre fin aux forfaits sans quota… Si on a du mal à apprécier l’impact sur l’écosystème, comparativement à de vraies mesures drastiques, comme la vraie diminution des consommations de carburants fossiles carbonés, on entrevoit aisément à qui profiterait le crime.
Si les datacentres ne sont pas chez nous, ils seront ailleurs.
Cette mesure correspond à une perte de souveraineté numérique.
Une régression.
Consternant.
J’aurais ri, un premier avril, mais je viens encore de vérifier, et on est en juillet…
J’ai eu la chance d’effectuer un trajet, relativement long, en Tesla 3 full option, comme passager mais aussi au volant et ce qui fonctionne d’aide à la conduite constitue d’ores et déjà une révolution.
Personnellement, je ne m’en moque pas, et je mesure la peur viscérale qui noue le ventre des constructeurs séculaires.
Le troll conduit indubitablement à des débats stériles, cependant, force est de constater que deux sociétés se déchirent. Pour ma part, j‘ai sorti le popcorn pour assister au spectable, parce que la lutte est épique, et je vous expose quelques instants mon expérience en processeurs T, S, etc.
J’ai la chance de disposer d’un cluster de virtualisation à 3 nœuds fanless, dans mon séjour. Si je tends le bras gauche, j’évalue facilement s’il a chaud ou si tout va bien. Il est à l’image, en beaucoup moins puissant, de celui que j’ai au travail. La fiabilité remarquable de celui du travail est cachée par la joie non dissimulée d’en avoir un sur lequel jouer chez moi. A bien des égards, c’était le but.
J’en viens aux T, K, etc, dans un exposé qui parle de CPU sous contrainte thermique. Deux des 3 nœuds sont en Intel, le dernier étant en AMD. Les boitiers sont des modèles Fanless disponibles depuis longtemps, plutôt orienté HTPC, mais remarquablement adaptés à mon usage. Le plus ancien nœud, celui par lequel tout à commencé, est un Intel 4770S. Les S sont en dessous des T en terme de consommation. Il se trouve dans un boitier Stracom FC5, avec une alimentation ZF240 Streacom également. Le boitier permet de dissiper 65W, et le processeur se maintien presque dans l‘enveloppe… Tout est une question d’équilibre entre le besoin de dissipation et le besoin de puissance. J‘ai fait tourner un système Linux Gentoo en desktop sur ce nœud avant de lui ajouter des petits copains et former un cluster. Les compilations de grande envergure, de celles qui font juste augmenter le débit de la pompe ou la vitesse du ventirad, provoquaient un throttle non négligeable, avec la désagréable impression de faire souffrir l’électronique. Sa vie dans le cluster est beaucoup plus calme. Le second nœud est un Intel 6700K stock, délidé, sérieusement doté en pâte thermique de la meilleure facture, dans un boitier HDPlex H5 cette fois. Ici, la dissipation atteint les 95W sur le papier, mais, encore, tout est une question de fraîcheur relative du système de dissipation au moment où on a besoin de puissance de traitement. Le H5 dispose de 8 caloducts, contre 4, de mémoire, pour le FC5. Ça dissipe tout de même beaucoup mieux… Bon, ce n‘était pas nécessairement la peine de lui mettre un plus gros processeur, hein, mais voilà, l’homme est faible devant la possibilité de placer un truc un peu plus rapide et moderne. Oui, je sais, c‘est mal. Les deux nœuds Intel, même le 4770S pourtant plus frugal mais souffrant un peu de la chaleur dans son boitier dissipant un peu moins que préférable, fonctionnent de fait extrêmement bien tel que, aux tensions et fréquence stock. Par souci de fiabilité, j’ai cependant ajouté un script qui adapte 5 fois par seconde la fréquence maximale attendue à la température remontée par la sonde /sys/devices/platform/coretemp.0/hwmon/hwmon2/temp1_input , que j‘ai réglé sur 65°C. Avec ce script, plus aucun freeze n’intervient en cas de grande chaleur. Les 3 nœuds sont empilés, sous mon imprimante laser. Le 3ème noeud est un AMD Ryzen 3700X, venu remplacer un 1700X qui a eu un peu trop chaud. Encore dans un boitier HDPlex H5. Ici, pas de script de régulation en fonction de la température, pour une raison simple, parce que le processeur se limite seul à environ 70°C. L‘architecture de /sys/device/plateform changeant beaucoup chez Intel, le temps m’a manqué pour refaire le script de régulation de la fréquence en fonction de la témpérature, mais je vais m‘y coller un de ces jours. J’ai monté ce cluster avec les pièces disponibles à un instant t, avec pour contrainte mes inspirations du moment, mon insatiable envie de voir si ça marche. Le 4770S est en 32Go DDR3, le 6700K en 32Go DDR4 3200, le R7 3700X en 64Go DDR4 2133 (plus haut, il a chaud). Le plus ancien noeud, le 4770S, date de 2014. Il est enfermé dans une enveloppe de dissipation de 65W, avec son script qui le cape à 65°C, et il juste fonctionne, et plutôt bien. Je sais incidemment que les modèles de processeurs sont éventuellement inadaptés, mais il était hors de question, ni de me passer du cluster, ni de le refroidir activement. A cet instant, avec une charge faible, le cluster dispose des températures et fréquence suivantes: 4770S: 3,1GHz, 43°c 3700X: 2.2GHz, 55°c 6700K: 4.1HGz 35°c
Si j‘envoie toutes les 8 VMs sur le vénérable 4770S, le duo freq/T se pose à 2.2GHz/55°c. Le script de régulation n’intervient donc pas. La Charge est à 5. Si j‘envoie toutes les VMs (8) sur le 6700K, il reste en 4,2GHz, 55°c. Si je fais de même avec le 3700X, il monte à 63°c et 2.3GHz. Le governor réglé en ondemand fait grimper les fréquences en fonction des besoins. Charge à 0,74, avec les 8 VMs. Si j’envoie toutes les VMs (8) sur le 6700K, il reste en 4,2GHz, 55°c, charge à 2,3.
Ces valeurs sont non significatives, juste indicatives. Le cluster est loin de tourner en overprovisionning autrement que quand je mets toutes les VM sur un nœud pour mettre à jour les autres. Ça tourne sous proxmox v6.2, mis à jour depuis la v5, en ceph sur SSD pour l‘espace dédié aux VMs.
J’avais pensé prendre un 4770T en son temps pour ma première machine fanless, mais j‘ai pensé qu’un 4770S serait moins contraint par la capacité de dissipation incertaine.
Pourquoi ce pénible et trop long exposé ? Tout est une question de contrainte. Le nombre maximal de FPS peut être une contrainte. Le nombre maximal de Watts peut en être une également. Tout comme la fiabilité maximale, ou le prix. Pour moi, c‘était tout d’abord le silence, et la fiabilité. 6 ans après, le contrat est dûment rempli. Je conviens que le marché de ce type puisse sembler un marché de niche. Je dis bien "puisse sembler". Parce que quand on passe devant son agence immobilière, ou que l‘on passe dans un bureau openspace, les machines qui tournent H24 n’ont pas toutes besoin de 24 fils d’exécution ou de la fréquence maximale. Ça fait du volume, en fait. Et, même en 14nm, ça le fait bien.
Encoder en h265 met une sacrée claque à tout CPU. C’est la raison pour laquelle je suis passé un jour à Pascal. J’ai eu besoin d’encoder un jour, et je me suis pris une échelle de temps de calcul qui m’a démontré l’inutilité de l’approche. Donc, j’ai pris une 980ti d’alors.
Hmmm, Je n’ai que des disques Seagate, Ironwolf, testés un par un, avec 3 redondances de 1 et 1 disque de hot spare. En 8 et 14To. Toshiba trop petits en capacité. HGST introuvables.
Je verse dans la conversation ce simple et magnifique script Bash pour tester la scalabilité de la bande passante mémoire, qui, pour rapides qu’ils soient, sont encore trop souvent limités par la bande passante mémoire.
/ma life/ J’ai commencé par une station megatower avec un paquet de disques, sous Linux. Puis je suis passé à du fait maison dédié, avec un vieux boitier, une vieille CM, un vieux proc, un peu de RAM et une Debian, pour faire du samba/NFS/whatever. Puis, j’ai pris un boîtier bitfenix dédié, plus silencieux, avec une carte mère fanless Atom. J’ai essayé OMV, FeeeNAS, refait du raid mdadm maison sous Debian, puis j’ai essayé un coup XPenology, sur une clé USB. Et là, SHR. La claque. SHR, c’est du LVM+MD et puis c’est tout, mais vraiment pas mal foutu. La technologie, c’est du kernel Linux, c’est ancien, éprouvé. Du coup, je suis passé sur un Synology 1817+, avec de plus en plus de disques de 8To lors des soldes. Pour tout dire, j’ai pris goût à me défaire des Cloudz GAFA. Ma station est plus légère, plus silencieuse, sans disques durs. Je n’ai rien contre le faire moi même, mais là, on parle de stockage, de sauvegardes. Quand on a besoin de sa sauvegarde, on en a besoin tout de suite, on est pas là pour rattraper une bidouille sur le NAS maison. Autre avantage, dans son boîtier, un disque sature à 35°c durant un cycle de test badblocks -swn destructif. Dit autrement, la ventilation est juste efficace.
J’apprécie de changer mes disques à chaud pour augmenter la taille des volumes (vas-y, fais le à la main sans SHR sans un espace disque temporaire au moins équivalent, et en plus, sans jamais couper le service). J’apprécie les mises à jour automatiques du système.
Tout ce temps que je ne dédie pas à gérer mon NAS, je le dédie à autre chose.
Cette année, j’ai étendu le nombre de baies à 13 avec une unité DX517. Et je passe tous les disques en 14To. Avec un seul NAS. Sans couper aucun service. Vas-y sans SHR. Essaies.
Le seul truc que je regrette, c’est qu’il n’y ait qu’un seul port PCIe sur le 1817+, et que du coup, avec une carte SSD destinée à diminuer la charge des disques sur une BDD de grosse taille à fort trafic, je n’ai pas de 10Gb. Du coup, je fais du bonding de Gb, et ça suffit. Pour l’instant.
Je sais bien, qu’on peut faire mieux, tout seul, en taille, en débit, en prix. Ok. Mais c’est mon temps et mes données. J’ai goûté ce luxe de confier mes données à un système adaptable qui juste marche.
J’ai eu cette chance, et je vous la souhaite, à tous.
Avec ou sans apitoiement, mauvaise fois ni dénigrement, je vous invite à lire ce compte rendu de phoronix https://www.phoronix.com/scan.php?page=article&item=spectre-meltdown-2&num=1 où est chiffrée la perte de performance des anomalies d’architecture des processeurs Intel, fruit d’années d’immobilisme, d’économies de R&D, entre avec et sans les mitigations des failles. -25%, tout de même, ça pique. Je ne pense raisonnablement pas que 380W soit même justifiable.
J’ai beaucoup apprécié mon vieux i7 990X, qui a fait preuve d’une longévité colossale (et pour tout dire il tourne encore dans un de mes hyperviseurs, en orchestrateur non dédié à la performance), mais les mitigations obligent le flush des caches à chaque changement de contexte, d’où l’écroulement des performances…
Intel souffre, mais a su rebondir à l’impasse du pentium 4, par l’architecture Core. La pression de sélection est énorme, et la concurrence sérieuse, pour une fois.
Le coût comparé est faible par rapport aux solutions constructeurs de 5 disques et plus, pour des processeurs enfin décents, comme de simples R7 2700 à pas bien cher, sur des cartes mères d’occase, avec des cartes multi SATA3 comme celles ci: https://www.amazon.fr/dp/B07RMHH43W . On peut gérer son OMV tout seul, voire même son serveur SAMBA seul à la main, mais c’est plus chronovore. Cette annonce va sans doute rebattre un peu les cartes…
J’ai la chance de disposer de quelques équipements Ubiquiti aussi bien sur le réseau pro (un Switch 10Gb, 3x 1Gb-24 ports PoE, 1 1Gb-48 ports PoE, Routeur ER8Pro SFP) et perso (ER6p, EdgeSwitch 8-150)
Les switchs sont Layer2, pour moins cher que Cisco, font le job, tiennent la charge, sont suivis, évoluent en fonctionnalités soft. Les routeurs tournent sous Linux, en Debian pour Mips. Moult fonctionnalités sont “offloaded” et tiennent remarquablement la charge même en gigabit. On peut jongler avec les Vlans, ça fonctionne très bien.
Le
05/11/2019 à
15h
12
David_L a dit:
Sur la photo du RPS, c’est le premier élément du rack ;)Tu veux pas plutôt le mettre dans un routeur ton ONT ?
J’ai un Ubiquiti EdgeRouter ER6p, et j’attends impatiemment demain pour essayer dessus un Sercomm FGS202 entre-temps provisionné, en scrutant la console.
Le
30/10/2019 à
08h
52
Question, fondamentale, les ports SFP+ sont ils compatibles avec le SFP GPON ONT Sercomm FGS202 des LB4 d’Orange ?
Pouvoir coller un de ces modules SFT ONT en direct sur un équipement Ubiquiti, voilà bien une fonctionnalité utile.
Une progressive webapp qui permettra de se loguer et de partager les articles facilement vers @Voice_Aloud sur Android, et ainsi me faire lire les articles pendant mes longues heures de conduite ??? Chic alors !!!
77 commentaires
WAX610(Y) : Netgear passe au Wi-Fi 6 et au 2,5 Gb/s pour ses points d’accès Insight
05/08/2020
Le 06/08/2020 à 08h 22
Chic, ils ont donné mon nom à un produit !
Mais mais !? Je n’ai rien reçu en compensation ?
Pourvu que je ne me reçoive pas une lettre d’huissier me demandant de renoncer à mon nickname séculaire…
QSW-1105-5T : le switch 5x 2,5 Gb/s de QNAP en précommande, dès 120 euros
05/08/2020
Le 06/08/2020 à 08h 00
Synology DS1819+ (16Go) et DX517 - E10M20-T1 10GbE+ SSD (1To Samsung 860 EVO)
On m’a demandé un test de vitesse de transfert hier.
Sur une grappe de 5 disques récents et de bonne facture, en SHR+ext4, transfert sur lien 10GbE de point à point, copie vers un dossier tmpfs sous Linux Gentoo, j’ai flashé un 902,6Mo/s relativement constant sur plus de 80 secondes.
Donc, oui, effectivement, le simple GbE bride les transferts si on utilise des grappes permettant la lecture de segments en parallèle. Ce bridage à 120Mo/s intervient très vite dès l’utilisation de certains disques récents, mais en grappes avec assez de RAM, comme on le voit, le débit monte relativement haut.
Pour tous les professionnels qui transfèrent des rushes, des photos de grandes tailles, ou de gros corpus de données, ce temps gagné est rentable.
Le 05/08/2020 à 14h 04
J’ai une interface 10GbE sur mon PC, sur mon NAS aussi. Vu que j’ai changé de NAS, pour le même en mieux, toujours en 10GbE, il m’a semblé logique de prendre un Switch 10G.
Le Mikrotik 4 ports SFP+, avec les convertisseurs SFP+ vers 10G-baseT, font le Switch 10Gb à pas trop cher.
Donc non, pour autant que je sache, je ne m’emmêle pas les pinceaux.
Le 05/08/2020 à 11h 51
Je viens de procéder à un test. Le transfert depuis un Synology 1819+, grappe SHR de 5 disques, via un lien point à point avec ma station, sous noyau Linux 5.7.9 Gentoo compilé maison, Jumbo Frames 9000 activés.
Un fichier de 74Go a été transféré en 82 secondes, soit 900Mo/s. Pour arriver à ce score, j’ai copié le fichier en local dans un dossier tmpfs de 80Go en RAM.
J’attends mon switch Mikrotik - CRS305-1G-4S+in aujourd’hui.
J’ai un peu hâte de basculer tout en 10GbE. Ça commence vraiment.
Tiger Lake : Intel devrait annoncer ses nouveaux processeurs mobiles le 2 septembre
17/07/2020
Le 21/07/2020 à 09h 27
J‘arrête le popcorn, j’ai pris du poids…
Bon, vive la concurrence, elle stimule l‘innovation.
Je viens d’y réfléchir, et depuis un 6700K que j‘ai mis dans un noeud de cluster de virtualisation, je n’ai plus acheté que des AMD Ryzen/TR depuis.
J‘en suis à 7 sur ces 2 dernières années, Zen 1, Zen+, Zen 2, Zen 2 refresh, TR Zen+ … Ça commence à faire, et ça fonctionne tout de même super bien…
Je fais partie de ces gens qui attendent impatiemment les Thinkpads X ou T en Ryzen 4000 U. ça arrive. Je n’aurai pas long à attendre je pense.
Loin de la guéguerre, autant j‘ai été ravi de l’arrivée, il y a un moment, de l‘architecture Core, autant je dois reconnaître que les patchs de microcode processeur Intel lié à Spectre/Meltdown/etc, et les patchs de mitigation du noyau Linux dans ce sens, diminuent à mon sens drastiquement les performances en multithread. La performance est là en monothread, comme toujours, mais en multihtread ça commence à devenir compliqué.
NAS QuTS Hero desktop, Ryzen Embedded et Wi-Fi 6 chez QNAP
13/07/2020
Le 13/07/2020 à 09h 28
La concurrence innove tant, que le jour où un équivalent de SHR sera disponible hors Synology, ils risquent d‘avoir mal.
Vraiment, c’est la seule chose qui m‘arrête.
Proxmox annonce son Backup Server, accessible en bêta
10/07/2020
Le 12/07/2020 à 23h 56
C‘est installé, en pve no d’inscription, sur mon infra de test. Voilà qui va rendre plus simple la gestion d‘une politique de sauvegarde.
Le 12/07/2020 à 09h 17
J‘essaie ça tout à l’heure sur mon infra de test.
Avec son Ryzen 9 3900XT, AMD continue de mettre la pâtée à Intel
07/07/2020
Le 11/07/2020 à 10h 44
J‘installe en ce moment un 3900XT sur sa nouvelle carte mère X570, en WC maison Swiftech. Je ferai un retour de mon script de bench progressif de mono à maxi-multi-thread, pour comparer ça à un 3900X sur X470 Taichi Ultimate. Je viens de finir le retrait de l’ancienne tuyauterie, la vidange des radiateurs à l‘eau distillée, le nettoyage du réservoir à l’acide propanoïque, puis rinçage.
Oui, j‘ai craqué. Mais je n’ai qu‘une vie, et l’ancienne cm avec son 3900X va bien m‘arranger la vie au bureau…
Le 08/07/2020 à 21h 57
J‘ai un cluster Proxmox de production en TR 2950X 16C/32T, 128Go ECC), à 3 noeuds, pool disque en Ceph sur une boucle 10Gb, stockage lent en iSCSI.
J’en suis extrêmement satisfait. Euphémisme.
Je regrette juste d‘avoir été forcé de le prendre en Zen+ parce que je ne pouvais plus attendre.
Environnement et numérique : le CNNum va plus loin que le Sénat, évoquant la fin des forfaits illimités… sur le fixe
10/07/2020
Le 10/07/2020 à 11h 05
Mettre fin aux forfaits sans quota… Si on a du mal à apprécier l’impact sur l’écosystème, comparativement à de vraies mesures drastiques, comme la vraie diminution des consommations de carburants fossiles carbonés, on entrevoit aisément à qui profiterait le crime.
Si les datacentres ne sont pas chez nous, ils seront ailleurs.
Cette mesure correspond à une perte de souveraineté numérique.
Une régression.
Consternant.
J’aurais ri, un premier avril, mais je viens encore de vérifier, et on est en juillet…
Autorité de la concurrence en 2019 : 316 décisions et avis, 632 millions d’euros de sanctions
10/07/2020
Le 10/07/2020 à 10h 46
Tesla : l’« autonomie de niveau 5 cette année », selon Elon Musk
10/07/2020
Le 10/07/2020 à 10h 26
J’ai eu la chance d’effectuer un trajet, relativement long, en Tesla 3 full option, comme passager mais aussi au volant et ce qui fonctionne d’aide à la conduite constitue d’ores et déjà une révolution.
Personnellement, je ne m’en moque pas, et je mesure la peur viscérale qui noue le ventre des constructeurs séculaires.
Les NAS Synology DS420+ et 720 + débarquent chez les revendeurs, dès 462 euros
22/06/2020
Le 23/06/2020 à 05h 48
Je conviens sur le manque du 10 Gb. L‘essayer c’est l‘adopter. Cependant, les pertes de parts de marché les contraindront à l’évolution, un jour.
Core i7-9700T : 8 cœurs et jusqu’à 4,3 GHz dans un TDP de 35 watts, ça donne quoi ?
27/05/2020
Le 03/06/2020 à 09h 48
Le troll conduit indubitablement à des débats stériles, cependant, force est de constater que deux sociétés se déchirent. Pour ma part, j‘ai sorti le popcorn pour assister au spectable, parce que la lutte est épique, et je vous expose quelques instants mon expérience en processeurs T, S, etc.
J’ai la chance de disposer d’un cluster de virtualisation à 3 nœuds fanless, dans mon séjour. Si je tends le bras gauche, j’évalue facilement s’il a chaud ou si tout va bien. Il est à l’image, en beaucoup moins puissant, de celui que j’ai au travail. La fiabilité remarquable de celui du travail est cachée par la joie non dissimulée d’en avoir un sur lequel jouer chez moi. A bien des égards, c’était le but.
J’en viens aux T, K, etc, dans un exposé qui parle de CPU sous contrainte thermique.
Deux des 3 nœuds sont en Intel, le dernier étant en AMD. Les boitiers sont des modèles Fanless disponibles depuis longtemps, plutôt orienté HTPC, mais remarquablement adaptés à mon usage.
Le plus ancien nœud, celui par lequel tout à commencé, est un Intel 4770S. Les S sont en dessous des T en terme de consommation. Il se trouve dans un boitier Stracom FC5, avec une alimentation ZF240 Streacom également. Le boitier permet de dissiper 65W, et le processeur se maintien presque dans l‘enveloppe… Tout est une question d’équilibre entre le besoin de dissipation et le besoin de puissance. J‘ai fait tourner un système Linux Gentoo en desktop sur ce nœud avant de lui ajouter des petits copains et former un cluster. Les compilations de grande envergure, de celles qui font juste augmenter le débit de la pompe ou la vitesse du ventirad, provoquaient un throttle non négligeable, avec la désagréable impression de faire souffrir l’électronique. Sa vie dans le cluster est beaucoup plus calme.
Le second nœud est un Intel 6700K stock, délidé, sérieusement doté en pâte thermique de la meilleure facture, dans un boitier HDPlex H5 cette fois. Ici, la dissipation atteint les 95W sur le papier, mais, encore, tout est une question de fraîcheur relative du système de dissipation au moment où on a besoin de puissance de traitement. Le H5 dispose de 8 caloducts, contre 4, de mémoire, pour le FC5. Ça dissipe tout de même beaucoup mieux… Bon, ce n‘était pas nécessairement la peine de lui mettre un plus gros processeur, hein, mais voilà, l’homme est faible devant la possibilité de placer un truc un peu plus rapide et moderne. Oui, je sais, c‘est mal.
Les deux nœuds Intel, même le 4770S pourtant plus frugal mais souffrant un peu de la chaleur dans son boitier dissipant un peu moins que préférable, fonctionnent de fait extrêmement bien tel que, aux tensions et fréquence stock. Par souci de fiabilité, j’ai cependant ajouté un script qui adapte 5 fois par seconde la fréquence maximale attendue à la température remontée par la sonde /sys/devices/platform/coretemp.0/hwmon/hwmon2/temp1_input , que j‘ai réglé sur 65°C. Avec ce script, plus aucun freeze n’intervient en cas de grande chaleur.
Les 3 nœuds sont empilés, sous mon imprimante laser.
Le 3ème noeud est un AMD Ryzen 3700X, venu remplacer un 1700X qui a eu un peu trop chaud. Encore dans un boitier HDPlex H5. Ici, pas de script de régulation en fonction de la température, pour une raison simple, parce que le processeur se limite seul à environ 70°C. L‘architecture de /sys/device/plateform changeant beaucoup chez Intel, le temps m’a manqué pour refaire le script de régulation de la fréquence en fonction de la témpérature, mais je vais m‘y coller un de ces jours.
J’ai monté ce cluster avec les pièces disponibles à un instant t, avec pour contrainte mes inspirations du moment, mon insatiable envie de voir si ça marche. Le 4770S est en 32Go DDR3, le 6700K en 32Go DDR4 3200, le R7 3700X en 64Go DDR4 2133 (plus haut, il a chaud).
Le plus ancien noeud, le 4770S, date de 2014. Il est enfermé dans une enveloppe de dissipation de 65W, avec son script qui le cape à 65°C, et il juste fonctionne, et plutôt bien. Je sais incidemment que les modèles de processeurs sont éventuellement inadaptés, mais il était hors de question, ni de me passer du cluster, ni de le refroidir activement.
A cet instant, avec une charge faible, le cluster dispose des températures et fréquence suivantes:
4770S: 3,1GHz, 43°c
3700X: 2.2GHz, 55°c
6700K: 4.1HGz 35°c
Si j‘envoie toutes les 8 VMs sur le vénérable 4770S, le duo freq/T se pose à 2.2GHz/55°c. Le script de régulation n’intervient donc pas. La Charge est à 5.
Si j‘envoie toutes les VMs (8) sur le 6700K, il reste en 4,2GHz, 55°c.
Si je fais de même avec le 3700X, il monte à 63°c et 2.3GHz. Le governor réglé en ondemand fait grimper les fréquences en fonction des besoins. Charge à 0,74, avec les 8 VMs.
Si j’envoie toutes les VMs (8) sur le 6700K, il reste en 4,2GHz, 55°c, charge à 2,3.
Ces valeurs sont non significatives, juste indicatives. Le cluster est loin de tourner en overprovisionning autrement que quand je mets toutes les VM sur un nœud pour mettre à jour les autres. Ça tourne sous proxmox v6.2, mis à jour depuis la v5, en ceph sur SSD pour l‘espace dédié aux VMs.
J’avais pensé prendre un 4770T en son temps pour ma première machine fanless, mais j‘ai pensé qu’un 4770S serait moins contraint par la capacité de dissipation incertaine.
Pourquoi ce pénible et trop long exposé ?
Tout est une question de contrainte.
Le nombre maximal de FPS peut être une contrainte.
Le nombre maximal de Watts peut en être une également.
Tout comme la fiabilité maximale, ou le prix.
Pour moi, c‘était tout d’abord le silence, et la fiabilité. 6 ans après, le contrat est dûment rempli.
Je conviens que le marché de ce type puisse sembler un marché de niche. Je dis bien "puisse sembler". Parce que quand on passe devant son agence immobilière, ou que l‘on passe dans un bureau openspace, les machines qui tournent H24 n’ont pas toutes besoin de 24 fils d’exécution ou de la fréquence maximale. Ça fait du volume, en fait. Et, même en 14nm, ça le fait bien.
Intel se paie Rivet Networks et sa marque « Killer »
22/05/2020
Le 23/05/2020 à 07h 45
Intel rachète Killer (Rivet)…
NVIDIA rachète Mellanox…
Le rachat de Mellanox est clairvoyant, celui de Killer est pathétique.
Voilà qui augure mal pour Intel
Cartes SD et microSD : perdus dans la jungle des sigles ? On vous explique tout
22/05/2020
Le 23/05/2020 à 07h 38
Ma qué bordel !!
Merci pour cet article fouillé, qui part de la norme pour éclairer ce sujet devenu tentaculaire avec les années.
NVIDIA officialise sa GeForce GTX 1650 à base de GDDR6
06/04/2020
Le 09/04/2020 à 14h 40
Encoder en h265 met une sacrée claque à tout CPU. C’est la raison pour laquelle je suis passé un jour à Pascal. J’ai eu besoin d’encoder un jour, et je me suis pris une échelle de temps de calcul qui m’a démontré l’inutilité de l’approche. Donc, j’ai pris une 980ti d’alors.
Backblaze analyse les pannes de 122 658 disques durs, Seagate se fait « remarquer »
13/02/2020
Le 16/02/2020 à 10h 36
Hmmm,
Je n’ai que des disques Seagate, Ironwolf, testés un par un, avec 3 redondances de 1 et 1 disque de hot spare.
En 8 et 14To.
Toshiba trop petits en capacité.
HGST introuvables.
Les processeurs AMD gagnent des parts de marché dans de nombreux secteurs
07/02/2020
Le 10/02/2020 à 11h 55
Je verse dans la conversation ce simple et magnifique script Bash pour tester la scalabilité de la bande passante mémoire, qui, pour rapides qu’ils soient, sont encore trop souvent limités par la bande passante mémoire.
https://framagit.org/Wax/zenbench/blob/master/zenbench.sh
Quel NAS pour sauvegarder vos données ? Voici notre sélection
29/01/2020
Le 01/02/2020 à 12h 25
/ma life/
J’ai commencé par une station megatower avec un paquet de disques, sous Linux. Puis je suis passé à du fait maison dédié, avec un vieux boitier, une vieille CM, un vieux proc, un peu de RAM et une Debian, pour faire du samba/NFS/whatever.
Puis, j’ai pris un boîtier bitfenix dédié, plus silencieux, avec une carte mère fanless Atom. J’ai essayé OMV, FeeeNAS, refait du raid mdadm maison sous Debian, puis j’ai essayé un coup XPenology, sur une clé USB.
Et là, SHR. La claque.
SHR, c’est du LVM+MD et puis c’est tout, mais vraiment pas mal foutu. La technologie, c’est du kernel Linux, c’est ancien, éprouvé.
Du coup, je suis passé sur un Synology 1817+, avec de plus en plus de disques de 8To lors des soldes.
Pour tout dire, j’ai pris goût à me défaire des Cloudz GAFA. Ma station est plus légère, plus silencieuse, sans disques durs.
Je n’ai rien contre le faire moi même, mais là, on parle de stockage, de sauvegardes. Quand on a besoin de sa sauvegarde, on en a besoin tout de suite, on est pas là pour rattraper une bidouille sur le NAS maison. Autre avantage, dans son boîtier, un disque sature à 35°c durant un cycle de test badblocks -swn destructif. Dit autrement, la ventilation est juste efficace.
J’apprécie de changer mes disques à chaud pour augmenter la taille des volumes (vas-y, fais le à la main sans SHR sans un espace disque temporaire au moins équivalent, et en plus, sans jamais couper le service).
J’apprécie les mises à jour automatiques du système.
Tout ce temps que je ne dédie pas à gérer mon NAS, je le dédie à autre chose.
Cette année, j’ai étendu le nombre de baies à 13 avec une unité DX517. Et je passe tous les disques en 14To. Avec un seul NAS. Sans couper aucun service. Vas-y sans SHR. Essaies.
Le seul truc que je regrette, c’est qu’il n’y ait qu’un seul port PCIe sur le 1817+, et que du coup, avec une carte SSD destinée à diminuer la charge des disques sur une BDD de grosse taille à fort trafic, je n’ai pas de 10Gb. Du coup, je fais du bonding de Gb, et ça suffit. Pour l’instant.
Je sais bien, qu’on peut faire mieux, tout seul, en taille, en débit, en prix. Ok. Mais c’est mon temps et mes données. J’ai goûté ce luxe de confier mes données à un système adaptable qui juste marche.
J’ai eu cette chance, et je vous la souhaite, à tous.
Intel pourrait annoncer un Core i9-10990XE à 22 cœurs… et alors ?
14/01/2020
Le 17/01/2020 à 10h 00
Avec ou sans apitoiement, mauvaise fois ni dénigrement, je vous invite à lire ce compte rendu de phoronix https://www.phoronix.com/scan.php?page=article&item=spectre-meltdown-2&num=1 où est chiffrée la perte de performance des anomalies d’architecture des processeurs Intel, fruit d’années d’immobilisme, d’économies de R&D, entre avec et sans les mitigations des failles.
-25%, tout de même, ça pique.
Je ne pense raisonnablement pas que 380W soit même justifiable.
J’ai beaucoup apprécié mon vieux i7 990X, qui a fait preuve d’une longévité colossale (et pour tout dire il tourne encore dans un de mes hyperviseurs, en orchestrateur non dédié à la performance), mais les mitigations obligent le flush des caches à chaque changement de contexte, d’où l’écroulement des performances…
Intel souffre, mais a su rebondir à l’impasse du pentium 4, par l’architecture Core. La pression de sélection est énorme, et la concurrence sérieuse, pour une fois.
QTScloud est presque là : transformez un PC en NAS QNAP dès 7 dollars par mois
13/01/2020
Le 14/01/2020 à 06h 26
Le coût comparé est faible par rapport aux solutions constructeurs de 5 disques et plus, pour des processeurs enfin décents, comme de simples R7 2700 à pas bien cher, sur des cartes mères d’occase, avec des cartes multi SATA3 comme celles ci: https://www.amazon.fr/dp/B07RMHH43W .
On peut gérer son OMV tout seul, voire même son serveur SAMBA seul à la main, mais c’est plus chronovore.
Cette annonce va sans doute rebattre un peu les cartes…
Ubiquiti dévoile ses switchs UniFi « Gen 2 », certains avec PoE++(802.3bt)
30/10/2019
Le 05/11/2019 à 15h 21
J’ai la chance de disposer de quelques équipements Ubiquiti aussi bien sur le réseau pro (un Switch 10Gb, 3x 1Gb-24 ports PoE, 1 1Gb-48 ports PoE, Routeur ER8Pro SFP) et perso (ER6p, EdgeSwitch 8-150)
Les switchs sont Layer2, pour moins cher que Cisco, font le job, tiennent la charge, sont suivis, évoluent en fonctionnalités soft.
Les routeurs tournent sous Linux, en Debian pour Mips. Moult fonctionnalités sont “offloaded” et tiennent remarquablement la charge même en gigabit. On peut jongler avec les Vlans, ça fonctionne très bien.
Le 05/11/2019 à 15h 12
J’ai un Ubiquiti EdgeRouter ER6p, et j’attends impatiemment demain pour essayer dessus un Sercomm FGS202 entre-temps provisionné, en scrutant la console.
Le 30/10/2019 à 08h 52
Question, fondamentale, les ports SFP+ sont ils compatibles avec le SFP GPON ONT Sercomm FGS202 des LB4 d’Orange ?
Pouvoir coller un de ces modules SFT ONT en direct sur un équipement Ubiquiti, voilà bien une fonctionnalité utile.
Concours des 15 ans : il vous reste jusqu’à demain soir pour participer et tenter votre chance
13/07/2018
Le 13/07/2018 à 22h 41
Une progressive webapp qui permettra de se loguer et de partager les articles facilement vers @Voice_Aloud sur Android, et ainsi me faire lire les articles pendant mes longues heures de conduite ??? Chic alors !!!