Avec quels logiciels arrives-tu à ce résultat (backup de chaque PC)?J’ai 2 NAS mais pas de backup à froid ni vers du cloud, faudrait que j’étudie la question pour avoir un backup hors site.
Tu veux un serveur qui centralise les sauvegarde ou juste quelque chose de plus simple ?
Je pense que le plus simple ca reste duplicati qui permet de pousser aussi sur des offres cloud comme dropbox, S3, Google drive.
mathv a dit:
Bonjour,Merci pour ce super article ! je suis actuellement à la recherche d’info pour remplacer mon DS214+.je suis tombé également sur ce monsieur :https://blog.briancmoses.com/2019/03/diy-nas-2019-edition.htmlon est a 660 $ sans les disques+1, une carte dédiée “correcte” (avec memoire tampom) tourne autour de 250 - 300 (de mémoire)
Son dernier DIY 2019, ne le prends pas comme exemple. Préfère ceux de 2017
Le
13/03/2019 à
10h
41
David_L a dit:
Comme dit dans l’article, on a choisi une alim volontairement surdimensionnée, parce qu’elle ne servira pas qu’à ça au labo ;)PS : il ne faut pas hésiter à utiliser les balises de lien pour éviter les pavés illisibles
Je le refais, car merdouille sur mon téléphone lors de ma la rédaction et de l’édition de mon message.
Question sur les stockage, tu vas traité plus tard pour ton choix de SSD ou de disque dur ?
Juste un point concernant ton alimentation utilisé dans l’article. Une alimentation de 250W est amplement suffisant. Dans mon boitier IW-MS04, j’ai une alimentation de 265W pour 4 disques durs, 1 SSD, un Xeon E3-1220L v3, 4gb ECC, une carte dual 10gb (sfp+) Dés que je peux, je mesure sa consommation.
Le
12/03/2019 à
19h
08
David_L a dit:
Non, mais ce n’est pas spécialement nouveau sur ces processeurs (en pre-14⁄22 nm ça doit être différent), pour une machine sans GPU tiers.Après rien n’empêche d’utiliser du HDD/Boîtier avec des baies plus classique comme dit dans l’article, mais ça manquait de défi
Juste un point concernant ton alimentation utilisé dans l’article. Une alimentation de 250W est amplement suffisant. Dans mon boitier IW-MS04, j’ai une alimentation de 265W pour 4 disques durs, 1 SSD, un Xeon E3-1220L v3, 4gb ECC, une carte dual 10gb (sfp+) Dés que je peux, je mesure sa consommation.
FreeNas XigmaNAS NexentaStor community edition (gratuit jusqu’a 10 To) Open Media Vault Rockstor EasyNAS (non testé en ce qui me concerne) unRaid (payant) open-e (4To de gratuit mais on peut gagner 16To) Non recommandé : OpenFiler car plus mis à jour
Le
12/03/2019 à
18h
11
Je ne connaissais pas ce boîtier. Il est bien pencher ce silverstone pour ceux qui veulent un nas avec uniquement des unités 2.5 pouces.
Le seul soucis avec le 2.5 pouces en dehors des 2 références de western digital red. C’est soit du ssd ou alors du disques dur orienté serveur en 7200 ou 10000 ou 150000 trm en sas ou sata.
A titre personnel, je préfère du bon gros 3.5 pouces en 5400 trm pour mon utilisation à domicile. Ça débite suffisamment avec le nas (oui, j’en ai plusieurs) équipés en 10gb (Chelsio T3 dual sfp+).
Tu ne m’apprends rien. Juste que ça donne une idée du débit théorique et de la charge cpu. Comme dans les commentaires, beaucoup pense que le soc utilisé est à l’ouest question débit.
Concernant le débit avec samba, c’est dans les 80 à 100 mb/s. Qui pour moi sur un raid 10 avec ce type de cpu est parfaitement convenable
Le
06/03/2019 à
11h
42
Je viens de lancer un iperf sur mon Helios4. iperf bouffe entre 25 et 30% des ressources CPU et voici le débit moyen observé sur 10 minutes.
Client connecting to 192.168.1.79, TCP port 5001
TCP window size: 85.0 KByte (default)
[ 3] local 192.168.1.252 port 52710 connected with 192.168.1.79 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0-600.0 sec 65.7 GBytes 941 Mbits/sec
Le
05/03/2019 à
16h
57
tazvld a dit:
Mais à coté d’un NAS synology , ça vaut quoi (niveau bruit)?Tiens, au passage, je me pose la question : vu que l’on à rien à faire ici de la disposition des disques (pas de raque démontable, pas de composant à refroidir derrière) vu qu’il ne sont pas prévu pour être démontable, pourquoi ne pas les avoir placé “verticalement”. Ainsi, passivement, l’air va déjà pouvoir créer un flux de bas en haut, renouvelant celui à l’intérieur du boîtier et refroidir les disques durs. On retrouve un peu ce design dans le cendrier du mac pro (bon avec un gros ventirad au centre).En effet, ici, le disque dur du haut prend directement la chaleur des disques en dessous de lui, et les seuls passages pour l’air se fait dans le sens horizontal et l’air et totalement bloqué en hautSur ce boîtier la modification serait assez minime: tu fais tourner la carte mère à 90° pour que les ports soient orienté sur l’un des coté et non à “l’arrière”. tu ajoutes des pieds à “l’arrière” pour avoir de la hauteur pour que l’air puisse passer Tu poses enfin le boîtier sur “l’arrière” (qui devient du coup la base).
Je ne peux pas te le dire, je n’ai pas de Synology mais que du home made (3 nas en tout).
Pas idiot ta remarque sur l’emplacement des disques dur dans le boitier en acrylique et la température. Car il faut aussi rajouter la température du soc qui est à 56°C chez moi. Concernant la température de mes 4 disques dur en fonctionnement (grosse copie de fichier en scp) voici les valeurs : /dev/sda: WDC WD20EARS-22MVWB0: 51°C (en bas dans le boitier) /dev/sdb: WDC WD20EARS-22MVWB0: 49°C /dev/sdc: WDC WD20EARS-22MVWB0: 53°C /dev/sdd: WDC WD20EARS-22MVWB0: 52°C (en haut dans le boitier) Le CPU est à 56°C et mon bureau avec toute les machines d’allumé à 23°C. Et les ventilateurs du Helios4 sont à l’arrêt. La consommation lors des copies est de 29w soit 0.19A. Le load average est de 1.2 avec deux session SSH, une copy scp, 2 images sous snapd. La ram n’est utilisé que à 90 Mo sur les 2 Go de disponible.
Bon, faut que je colle une sonde pour les débit réseaux sachant que j’ai rajouté une interface 1gbe en usb pour du lagg.
Pour ce qui est du changement des disques durs, c’est chiant car il faut ouvrir une partie du boitier. Mais ca ce fait très bien car au final on ne change que rarement de disques durs.
Et le mac pro, que dire, c’est Apple et souvent bien penser que l’on aime ou pas la marque. ;) Pour le Helios4, on doit pouvoir copié l’organisation du Mac Pro mais en version mécano. Si j’ai le temps, je ferais un essai :)
Arona a dit:
Que le SOC le gére nativement c’est bien, qu’il soit capable de tenir la charge sur le débit max théorique en est une autre! Je leur souhaite d’y arriver mais voir des annonces à coup de 2x10Gbe les enfants!!! Woohoo!!! Puis le tests qui montre qu’on tient pas plus de 2.5Gb/s… autant mettre des ports Multi-Gig dans ce cas…
J’ai du mal me faire compredre sur la limitation de débit :/ Des disques durs tournant à 5400 trm même 7200 trm en raid ne peuvent pas en lecture comme en écriture saturer une interface 10 gb. Pour rappelle, 1gbs ca fait en théorie 125 mo/s et 10 gbs ca fait 1250 mo/s En dehors de SSD sous nmve, ca va être dur d’atteindre la limite théorique en 10 gbe. Alors que mes vieux WD Green en 5200 trm en raid 10 pourront plus facilement dépoté entre 1 et 2.5 gbs
Le
05/03/2019 à
11h
28
tazvld a dit:
Bon, c’est vrai que la bête techniquement peut être sympathique. la carte semble pas mal pour faire du nas basique (partage de fichier, voir petit serveur). Cependant, niveau design du boîtier, des disques durs et ventilateur directement vissés sur le boîtier en plastique, ça doit servir de caisse de résonance tout ça.
Pour l’avoir juste a coté moi, je peux t’affirmer que non
C’est un cpu basé sur l’architecture mips et essentiellement utilisé pour le matériel réseaux. A l’époque, j’avais été tenté par ce projet, mais il faisait trop bidouille face à l’Helios4
2x10Gbe? Ils ont intérêt à dimensionner le CPU correctement!Quand on voit les Alpine utilisés chez Syno et Qnap qui tiennent pas le 10Gbe…
L’actuel Marvell Armada 388 utilisé permet la gestion de 3 ports 1gbs et 1 port 10 gbs. Ne pas oublier le port mini PCIe 4x (gen 2) qui permet de tenir un 10 gbs supplémentaire. Il gère aussi l’accélération cryptographique tout comme XOR DMA utilisé pour les raids à parité comme le raid 5 ou 6.
Le soc Marvell Armada 388 est peut être pas un monstre de puissance brut. Mais il a pas mal de fonctionnalité intéressante. On le trouve dans des NAS 2 voir 4 baies, des petits routeurs ou switchs. Et les performances réseaux tiennent relativement la route. Ce qui peut faire baisser les performances, c’est une mémoire limité. Dans les NAS du commerce, on le trouve généralement accompagné de 512 Mo voir tres rarement 1 go de ram. La dans le Helios4, c’est 2 Go en ECC ! Les disques durs ont aussi un impact non négligeable dans les performances réseaux tout comme le nombre de service tournant en fond.
Moi je reste confiante pour le dual 10 Gbe même si je sais que dans la pratique on ira pas forcément au dela de 2.5 Gbe du à la limitation des disques durs.
Note : pour information je ne défend pas le soc mais la méconnaissance du produit. On est que trop dans la logique du monde PC x86 ;)
Le
05/03/2019 à
08h
53
Ayant acheté le Helios4 lors de la phase 2, j’en suis très contente. Mais il faut pas mal bidouiller pour par exemple la gestion de la température et des ventilateurs.
Question performance samba, je suis en raid10 avec de vieux disques dur de 2 to western digital green, c’est entre 80 et 105 mo/s.
En copy scp, car j’utilise énormément ce système entre mes machines. Le dual CPU ARM ce prend une bonne charge dans la tronche. Le load average est en moyenne à 1.15. Le CPU ne tient pas as la route si on le stress trop dans les lectures lectures et écritures.
Sinon, je dois avouer que c’est une solution très intéressante avec ses 4 ports sata.
Kobol, travaille sur une version avec un double port 10 gbe
Hâte de voir Apple annoncer qu’il met tout en place pour passer à l’USB 4.0 sur l’ensemble de ses gammes (mobiles ou pas)
Rhooo Moi aussi je veux voir le service marketing de chez Apple faire des pirouettes tout comme celui de chez Intel jubilé en accelerant l’internet, heu non l’usb.
La mémoire ECC est bien supportée (voir la fiche technique)
Malheureusement oui je suis je n’arrive pas a acceder au site de chez asrockrack
Le
28/02/2019 à
09h
19
En espérant que Asrock intègre dans son uefi le support de la mémoires ecc. Sans ecc, l’intérêt de cette carte dite serveur diminue en ce qui me concerne.
Parce qu’ici, on parle d’Ethernet :) Infiniband est un autre protocol qui est en train de disparaître grâce à l’émergence des réseaux rapides Ethernet.
Je ne suis pas sur pour l’infiniband va disparaitre. Car il est urilisé dans certain super calculateur. Et on est sur la dernière norme à 400gbs voir 600gbs si je ne me trompe pas.
Franchement, je vois pas trop ce qu’on pourrait voir de fondamentalement nouveau au niveau matériel…Pour moi, QNAP et Synology segmentent très artificiellement leurs gammes car ils sont un peu coincés… Leurs nouveautés ne sont QUE logicielles.Mais c’est partout pareil au niveau du stockage pro ou non. Dans le monde pro, une fois qu’on a laché qq billets de 10K pour un SAN double-tete + controleur RAID matériel + qq bricoles, la difference entre ce modele et le modele de la gamme supérieur tient en un CPU un peu meilleur, un peu plus de RAM et surtout des fonctionnalités logicielles.Mais comme QNAP et Synology integrent toutes les fonctionnalités logicielles sur l’ensemble de la gamme (a qq exceptions près) donc ils sont obligés de segmenter sur des trucs à la con… C’est enervant mais c’est du bon sens commercial et marketing. Ils ont pas trop le choix…Et j’ai du mal a voir en quoi un nouvel acteur pourrait défoncer cet etat de fait pour l’instant. Ou alors avec un changement dans les usages ?
Tu payes un support et aussi une responsabilité à la charge du constructeur ;)
Moi aucun soucis pour lâcher les 10K si le besoin s’en fait ressentir. Sur certains SAN tu as la gestion des priorités sur les data. De la vm à la sauvegarde et ce parfois en dynamique. je fais impasse sur le 40gbs ou plus ;)
Le
19/02/2019 à
11h
33
Ps : au vu de certains commentaires, il faut relativiser la gamme de produit avec la cible visée. Un particulier n’a pas les même besoin que les tpe ou pme ou un indépendant. Et ses dernière en ont rien à faire de certaines fonctions comme la virtualisation ou des io de malade car c’est juste le point de stockage des factures et de la sauvegarde de l’outil de facturation par example. (les monteurs vidéos sont un cas particulier)
Concernant la conversion de fichier vidéo, ce n’est pas la tâche de base d’un nas. Un n’as c’est juste un stockage de fichier accessible via le réseau. Le reste des fonctions ne sont que trop souvent des plus-value commerciales pour attirer les utilisateurs non professionnels sur ce type de produit.
Concernant le zfs via freenas, la on est sur une utilisation en dehors des produits commerciaux. Mais il faut une puissance de calcul comme une bonne quantité de Ram pour profiter de cette solution dans de bonne conditions.
A titre personnel, je n’utilise plus freenas qui est devenu un véritable gouffre car je l’utilise plus en SAN via le iscsi que en nas via nfs ou samba. Je suis repasser en solution from scratch sous debian, carte sfp+ 10gb chelsio, ram ecc, xeon basse consommation et carte mère serveur.
Bon derrière il y a des serveurs de virtualisation et c’est entre l’utilisation perso et pro.
Le
19/02/2019 à
11h
15
Bon petit article.
Trop de personne pense que un petit cpu est suffisant pour un NAS. Alors que c’est faux si on a utilisation agressive comme du montage vidéo ou un backup journalier de serveurs ou postes. (la virtualisation est s’ouvrant assez cool sur les io avec ce type de NAS). Et la on est sur des solutions dédiés pme pas un hebergeur 😉 Je vois la comparaison arriver rapidement. Le raid logiciel, ça bouffe des ressources cpu. Ce qu’il manque souvent des les cpu x86 c’est une unité de calcul spécifique à la gestion des parités sur les raid 5 ou 6 par example. Pour le côté cryptage, pour l’instant je n’en ai jamais vu en production ou j’ai travaillé.
Et pour etandre le sujet, il ne faut pas oublier le monde mips et arm que l’on trouve dans pas mal de matos pro et grand public. Si on prend le soc arm Armada 388. De base il gère un connecteur 10gb et 3 de 1gb ainsi qu’une unité cryptographique comme 4 ports sata. Et on le retrouve dans des nas premier prix qui font que le soc suffoque avec les 512 mo de Ram.
C’est ce que l’on appelle du Virtual Desktop Infrastructure ou VDI.
Chez un de mes anciens employeurs. Un collègue travaillait sur cette solution pour un client affin de déporter les stations de travail sous AutoCAD sur des serveurs.
Il y a 7 ans, seul les quadro de Nvidia étaient supporté et performantes.
Ça fait Toujour étrange de voir le nom de son ancien patron et de la société dans laquelle j’ai travaillé.
J’attendais l’annonce officiel, on ne sait jamais avec les bruits de couloir.
J’espère que Monsieur Thébaud arrivera à vendre. Oui monsieur, car même si j’ai du mal avec certaines choses, il a investi, créé des emplois, pris des risques.
Juste un petit complément, contrôler que le boitier adaptateur soit UASP. De nos jours c’est la norme mais on ne sait jamais avec un fabriquant qui veut tirer les prix vers le bas.
Toutes manifestations n subventionnées doit avoir un prix égal ou inférieur au prix de vente officiel.
Pour le Hellfest, les années précédentes les revante de billets étaient possible avec changement du nom via la plate-forme de revente lié au prestataire de la vente des billets officiels.
Petit point sur le Delaware. C’est un état eyant un nombre important de siège de société. Car c’est un Paradis fiscal bien connu des gafa avec des sociétés au format llc.
Vous le sentez le mec qui va passer deux mois noyé dans les hyperviseurs ? " />
T’inquiète, je connais que trop bien pour le faire au taf :)
Je ne sais pas quels sont tes compétences sur le sujet, mais effectivement tu peu y passer plus de deux mois. Ma petite astuce reste de virtualiser les hyperviseurs via vmWare Workstation pro. Pour le monde esxi ou vsphere aucun soucis, c’est géré nativement. Pour les autres faut juste éditer non_de_la_vm..vmx et ajouter ses lignes :
hypervisor.cpuid.v0 = “FALSE”mce.enable = “TRUE”vhu.enable = “TRUE” Hyper-V peut être virtualisé sans soucis dans l’hyper-v de windows 10.
David_L a écrit :
Pour Sunbow, comme dit dans l’article sur le montage du serveur 1U, c’était plus un choix par défaut pour avoir une solution intégrée à la carte mère (et pouvoir utiliser l’espace restant du boîtier) qu’un vrai choix de cœur, même si sur le fond les performances restent correctes.
Moi j’en suis contente de ses SSD pour le rapport prix performance. Tres bien pour des projets personnels
Le
26/11/2018 à
17h
09
@David, pour KVM, si tu as le temps de faire mumuse avec oVirt de RedHat. Tu seras agréablement surpris.
On est plus proche de vsphere et surtout évolutif vers Open Stack.
Pour le monde Xen, il y a une alternative française pas mal : XMP ng. Fork intéressant.
En tout cas, bon petit article de présentation de vSphere ainsi que l’utilisation d’un SSD chinois Sunbow que j’utilise aussi sur quelques serveurs personnels.
@David je te rajoute quelques informations sur le coté serveur :
Pour les serveurs à base d’EPYC il y a des solutions à base d’IPMI comme chez Dell ou supermicro qui vend des cartes mère seule. Mais on est tres loins de l’ITX.
Concernant Ryzen, il existe aussi des cartes avec de l’IPMI qui ne sont pas en ITX et qui coute un bras.
Par contre, le format 1U n’est pas réputé pour son silence même en data center ;)
Oui le 10 gbe pour du particulier lambda c’est pour l’instant sans intérêt.
Mais dans quelques années allez savoir.
Puis bon, faire passer du grade 3s ou du cat 6a voir 7 n’est pas idiot sur le long terme. C’est casse pied de refaire le câblage d’un appartement ou une maison.
Puis bon, si en plus au niveau tarifaire l’impact n’est pas visible. Pourquoi ce privé 😉
Moi je me pose plus la question de savoir si on utilisera chez nous des câbles optique ou ethernet ou des protocoles sans fils.
Les gens ont la tv, le chromcast, les tablettes, smartphones et ordi portables majoritairement connecté en Wi-Fi.
Je fais impasse des réseaux zigbee pour la domotique.
On verra bien ce que le futur nous réserve
Le
25/10/2018 à
21h
41
RedWave a écrit :
En plus de générer un overhead pas possible à cause du protocole, non? Genre, 10% du CPU est utilisé pour l’acheminement des paquets au bout d’un moment. C’est pire en USB (genre jusqu’à 35% d’un Core i7 pour du 3.1 Gen2) alors que le ThunderBolt est super soft pour du 40Gbs. Mais on n’est pas sur les mêmes demandes.
Je n’utilise pas l’USB 3.1 gen2 ni le ThunderBolt , je ne peux pas te le dire ;)Au taf comme chez moi c’est du SFP+ fibre ou direct attach car on à le matos. Sinon, on a un truc super génial pour les gros débit sur cuivre, l’InfiniBand. En production on peut faire plus de 100 Gbit/s.Pour faire mumuse chez soit, on trouve du matériel réformé en 20 ou 40 Gbit/s vraiment pas chère. Et c’est en partie le but de cette techno : performance et faible cout. Peut être que un jour ca arrivera au niveau de la bo de Mr tout le monde.
Le
25/10/2018 à
18h
09
Il aurait fallu évoquer une autre norme du rj45 : grade 3 et 3s.
La norme basé sur le grade permet de faire transiter les signaux tnt et satellites à l’intérieur d’un câble rj45.
De z mémoire, un câble grade 3s peut tenir un peu plus de 2000 mhz.
Et pour finir de chipoter, attention à la consommation électrique du 10 gbe. Ça chauffe et consomme pas mal par rapport à du sfp+ via fibre optique ou câble direct attach.
Pour la partie en italique, c’est pour le matériel du 21e siècle (pour simplifier), car dans les années 80 par exemple, les ordinateurs (pas micro ni mini) qui étaient gros et occupaient une partie d’une salle avaient vraiment besoin d’une climatisation importante, vu les dégagements de chaleur, et c’était plutôt 18 degrés que 22, et c’est plutôt un peu frais pour les humains. J’étais petit mais j’en avais vu une.
Il me semble que si on garde une température un peu fraîche dans les DC, ce n’est pas que pour les humains car entre climatiser à 18 et à 23 (ça irait bien pour les humains) ça fait une belle différence de consommation.
On est plus dans les années 80 fort heureusement :)
Une salle plus fraiche peut avoir un intérêt si le volume est important et pas trop chargé de machine.
Car en cas de défaut sur la climatisation qui est redondée. On peut compter sur l’inertie avant qu’une température critique arrive.
Pour ce que j’expliquais plus haut, certains data centers offrent différent niveau de température.
“D’autres solutions peuvent être utilisées comme du KVM sur IP à partir d’une soixantaine d’euros, ”
Il me semble que ce produit n’est pas un KVM sur IP ? Plutôt un système de prolongateur “over Cat5e/6/7”. Et dans tous les cas, il ne s’agit que du module RX, manque(nt) le ou les modules TX.
Vous connaissez des solutions KVM sur IP pas trop chères ?
Il existe le RS232 (comme RS232 over ethernet) qui fonctionne très bien. Ca peut paraître old school, mais c’est fiable efficace. Par contre, uniquement sur du matos professionnel.
Un début de réponse avec les instruction vPRO de certains CPU Intel.
Sinon, s’orienter sur du KVP par IP d’occasion. Mais pour gérer la partie electrique faudra une alimentation contrôlable a distance.
David_L a écrit :
Oui l’A20 est pas mal, notamment pour le stockage intégré (après chacun a ses préférence entre de l’amovible ou pas). Pour Hélios 4 je regarde, j’attends de voir ce que ça donne.
Surtout au niveau de la couche logicielle (OpenMediaVault / Syncloud sur base Armbian) où les NAS classiques apportent quand même pas mal de facilités au quotidien.
gouland a écrit :
L’Hélios 4, justement, m’intéresse en raison de l’absence de partie logicielle. C’est vrai que les solutions proprio sont sympa mais le sujet principal est la protection des données. L’avantage à utiliser une Debian ou dérivée, c’est que en cas de crash d’un disque sur 4 ou fin de vie de la carte mère, il est toujours possible de brancher les disques sur 4 ports SATA et retrouver ses données. Ce n’est pas forcément le cas avec des formats de disques des constructeurs de NAS spécialisés. Autre chose : si je n’utilise pas le logiciel NAS, je n’ai aucun intérêt à le payer lors de l’achat du NAS !
J’ai commandé un Helios 4 pour le coté amusement mais aussi pour ses choix techniques avec les 2gb de ram ECC et 4 ports SATA.
Son problème, c’est que le SOC ARM peut gérer 3 RJ45 giga mais n’en a que un physique.
Ce soc ARM ce retrouve dans beaucoup de NAS 2 et 4 baies premier prix.
Sinon, on peut modifier certains NAS commerciaux tres facilement.
YouTube YouTubeEt petit aparté pour le Rasberry 3. Son port rj45 giga est limité car connecter sur un hub USB dont il doit partagé la bande passante avec les ports USB ou peuvent être branché des disques dur. Donc, le débit ce retrouve au minimum divisé par deux.
Le
04/10/2018 à
16h
51
C’est peut être que je suis trop une geek et que mes amis aussi. Mais beaucoup d’entre nous avons des homes labs en plus du matériel serveur de récupération.
Pour revenir sur le sujet de climatisation. C’est un point de consommation électrique non négligeable suivant les régions ou ce trouve le data center ou salle serveur.
Généralement on est dans ses valeurs de températures : 18 à 22°C. Mais ce choix n’est aucunement lié aux équipements, mais juste pour que les humais survivent. Une température de 40 voir 60°C n’est pas un problème pour le matériel. Certaines sociétés gères le changement pour des interventions humaine.
Les rendements énergétiques sont actuellement important et la virtualisation permet de densifier et par extension de faire des économies.
Je ne parles même pas de l’urbanisation des salles qui pas évolué avec la création de flux d’air et de ne plus faire passer de câbles (électriques, réseaux cuivre et optique) dans le faux plancher.
Certes un particulier n’a pas ce type de préoccupation. Mais un geek qui veut ce former à l’administration serveur (systèmes, réseaux et matériel) récupère du matériel pro voir achète du neuf.
Les cartes de développement sont trop éloignées de la réalité professionnel. Les Raspberry Pi et autres cartes de développement sont bien pour la bidouille et des petits projet. Mais le fait que tout n’existe par pour ARM mais pour x86-64, on peut vite ce les mettre de coté.
Pour l’utilisation propre d’un Raspberry Pi dans une installation aux normes, devrait être mis dans un boitier fixé sur un rail de l’installation électrique avec baie de brassage et son DTI (norme NF C 15-100). Ou dans une petit baie de brassage de 10 pouces voir une 19 pouces.
D’ailleurs, il existe des serveurs 1U a très faibles profondeur pour être intégrer dans ce type de baie (19 pouces).
Le
04/10/2018 à
14h
43
darkbeast a écrit :
Et conseil pour ceux qui n’ont jamais raqué de baie de disque, mettez les alims et disques après avoir mis la baie sur ses rails, votre dos vous remerciera :)
Pareil pour le cas d’un blade, virer tout. Un chassis vide c’est plus de 40kg.
gouland a écrit :
Pour un particulier, il ne faut pas perdre de vue le problème de la consommation électrique qui est rarement souvent optimisée pour ces éléments rackables " /> , d’autant que le besoin de performance pure est souvent bien moindre.
Je ne comprend pas ta logique, mais pas du tout.
Car justement on recherche des rendements optimisés. Car l’électricités, la climatisation sont des dépenses qui sont énorme. Bon l’habitude de travailler dans les data centers.
Par chez moi, on ce chambre à niveau d’indice de rendement énergétique.
Le point pour un particulier en dehors de la puissance et de la consommation électrique reste le bruit.
Problème de peering ? Ou alors c’est le matos qui gère mal l’ipv6 (ce qui serait plus embêtant) …
Il y a encore des bugs ou des instabilités dans certains routeurs. Mais ça temps à disparaître.
Malheureusement, l IPv6 date de 1996, mais son implantation n’est que récente.
Il y a aussi des soucis sur certains des anciens matériels mis à jour pour l IP v6 avec une mémoire qui peut saturer en cas d IDS/IPS vu que les paquets sont plus gros.
Il y a aussi que tout le monde n’a pas des routeurs BGP IPv4 IPv6 du fait qu’il n’ont pas de plage d IPv6 ou que l’un ou leurs opérateurs de transit n’est pas encore tip top sur ce protocole.
Un 6 cœurs avec le support de la mémoire ECC seront un bon choix rapports prix pour la mise à jour de mes 2 freenas qui servent poir mon stockage et mon lab (virtualisation stockage, VM et jails)
Mais j’attends d’en savoir plus sur le support de la RAM ECC.
Le staff de beaucoup de compétions sont des bénévoles !
Et comme je te l’ai dit, le planning d’un tournoi ne permet pas de prendre 15 minutes le temps de goster une machine . Je ne te parle même pas des merdes sur le réseaux que cela provoquerait, car en général on pousse en multicast les images.
Et dans le cas de ce hacks, le ghost ne pourra rien faire.
De l’extérieur ca parait simple, quant tu es dans l’organisation cela est moins simple. Souvant des joueurs stressés, pas forcément tres agréables, des admins tournois aussi stressé par le maintient du planning, sans parler de la gestion de la scène qui en rajoute.
Pour avoir vécu ca durant un certains temps, moi j’aurais aimer faire plus, mais les contrainte font que parfois tu fais comme partout en informatique : au plus urgent et des rustines.
Dans mon service informatique dans mon taf, la plus part de mes collègues ne tiendraient pas sur ce genre d’événement. Méconnaissance des jeux pour la plus part, je ne parle même pas du jargon, un lag deviens un spike à SC2, tu rajoute les contrainte événementiel qui corepond au parck PC d’une entreprise réalisé dans la pratique sur quelques jours de préparation en amont (expérience indispensable), etc.
Pour les jeux sans LAN, je suis d’accord, mais quel intérêt de faire une compétions sur Tux Racer ou BlobbyVoley ? Les joueurs s’intéressent aux derniers titres comme le publique (voir encore plus).
Que faire quand des éditeurs te sortent un nouvelles version de ton jeux tout les ans ? Pas grand choses, les orga sont dépandant.
Quand tu t’appelle Valve ou Riot, c’est facile tu ne gère qu’un jeux et c’est ton jeux car développé par ta boite.
Sur des LAN ou autres événement com^portent plusieurs jeux, tu n’as pas de choix que de te plier au contraintes des joueurs (ce qu’ils jouent) et du publique pour remplir un événement.
Concernant le matériel, tu semble tres idélique !
La réalité fait qu’il faut laisser une chance a chacun. Tu n’impose pas une marque de chaussure pour le 100 metres ? Ca va crier.
Après il faut relativiser, la triche il y en a et aura toujours. Mais cela reste minoritaire dans la pratique.
De toute facon, plus tu ressert l’étau plus ca sera compliqué à détecter. Cet article le montre tres bien.
Le
27/11/2014 à
10h
33
oui
Le
26/11/2014 à
19h
41
Je reviens sur le hack, je le trouve très bien fait et ingénieux d’utiliser la plateforme Steam.
163 commentaires
Boîtier SilverStone CS01-HS : la base de notre premier NAS maison
12/03/2019
Le 14/03/2019 à 15h 16
Tu veux un serveur qui centralise les sauvegarde ou juste quelque chose de plus simple ?
En simple, tu pousses tes sauvegardes via un agent installé sur tes PC comme duplicati ou Veeam Agent pour Microsoft Windows FREE, etc.
Je pense que le plus simple ca reste duplicati qui permet de pousser aussi sur des offres cloud comme dropbox, S3, Google drive.
Son dernier DIY 2019, ne le prends pas comme exemple. Préfère ceux de 2017
Le 13/03/2019 à 10h 41
Je le refais, car merdouille sur mon téléphone lors de ma la rédaction et de l’édition de mon message.
Question sur les stockage, tu vas traité plus tard pour ton choix de SSD ou de disque dur ?
Ne t’inquiète pas pour ca ;)
https://tof.cx/image/dd4TC
https://tof.cx/image/ddpQi
https://tof.cx/image/ddQCy
Juste un point concernant ton alimentation utilisé dans l’article. Une alimentation de 250W est amplement suffisant. Dans mon boitier IW-MS04, j’ai une alimentation de 265W pour 4 disques durs, 1 SSD, un Xeon E3-1220L v3, 4gb ECC, une carte dual 10gb (sfp+) Dés que je peux, je mesure sa consommation.
Le 12/03/2019 à 19h 08
Ne t’inquiète pas pour ca ;)
https://tof.cx/image/dd4TC
https://tof.cx/image/ddpQi
https://tof.cx/image/ddQCy
Juste un point concernant ton alimentation utilisé dans l’article. Une alimentation de 250W est amplement suffisant.
Dans mon boitier IW-MS04, j’ai une alimentation de 265W pour 4 disques durs, 1 SSD, un Xeon E3-1220L v3, 4gb ECC, une carte dual 10gb (sfp+)
Dés que je peux, je mesure sa consommation.
Sinon, petite aide pour ceux qui recherche des boitiers 3.5 adapté pour faire un NAS
Chenbro
4 baies : http://www.chenbro.com/en-global/products/TowerServerChassis/Mini_ITX_Server/SR301
In Win
4 baies : https://www.in-win.com/en/ipc-server/ms04/
8 baies : https://www.in-win.com/en/ipc-server/ms08/
Norco
4 baies : http://www.norcotek.com/product/itx-s4/
8 baies : http://www.norcotek.com/product/itx-s8/
SilverStone
5 baies : https://www.silverstonetek.com/product.php?pid=760&area=fr
8 baies : https://www.silverstonetek.com/product.php?pid=452
U-NAS
2 baies : http://www.u-nas.com/xcart/product.php?productid=17611&cat=249&page=1
4 baies : http://www.u-nas.com/xcart/product.php?productid=17638&cat=249&page=1
8 baies : http://www.u-nas.com/xcart/product.php?productid=17639&cat=249&page=1
Pour les OS orienté stockage
FreeNas
XigmaNAS
NexentaStor community edition (gratuit jusqu’a 10 To)
Open Media Vault
Rockstor
EasyNAS (non testé en ce qui me concerne)
unRaid (payant)
open-e (4To de gratuit mais on peut gagner 16To)
Non recommandé : OpenFiler car plus mis à jour
Le 12/03/2019 à 18h 11
Je ne connaissais pas ce boîtier. Il est bien pencher ce silverstone pour ceux qui veulent un nas avec uniquement des unités 2.5 pouces.
Le seul soucis avec le 2.5 pouces en dehors des 2 références de western digital red. C’est soit du ssd ou alors du disques dur orienté serveur en 7200 ou 10000 ou 150000 trm en sas ou sata.
A titre personnel, je préfère du bon gros 3.5 pouces en 5400 trm pour mon utilisation à domicile. Ça débite suffisamment avec le nas (oui, j’en ai plusieurs) équipés en 10gb (Chelsio T3 dual sfp+).
Helios4 : le NAS open source et open hardware de nouveau en vente
05/03/2019
Le 06/03/2019 à 12h 56
Tu ne m’apprends rien.
Juste que ça donne une idée du débit théorique et de la charge cpu. Comme dans les commentaires, beaucoup pense que le soc utilisé est à l’ouest question débit.
Concernant le débit avec samba, c’est dans les 80 à 100 mb/s. Qui pour moi sur un raid 10 avec ce type de cpu est parfaitement convenable
Le 06/03/2019 à 11h 42
Je viens de lancer un iperf sur mon Helios4.
iperf bouffe entre 25 et 30% des ressources CPU et voici le débit moyen observé sur 10 minutes.
Client connecting to 192.168.1.79, TCP port 5001
TCP window size: 85.0 KByte (default)
[ 3] local 192.168.1.252 port 52710 connected with 192.168.1.79 port 5001
[ ID] Interval Transfer Bandwidth
[ 3] 0.0-600.0 sec 65.7 GBytes 941 Mbits/sec
Le 05/03/2019 à 16h 57
Je ne peux pas te le dire, je n’ai pas de Synology mais que du home made (3 nas en tout).
Pas idiot ta remarque sur l’emplacement des disques dur dans le boitier en acrylique et la température. Car il faut aussi rajouter la température du soc qui est à 56°C chez moi.
Concernant la température de mes 4 disques dur en fonctionnement (grosse copie de fichier en scp) voici les valeurs :
/dev/sda: WDC WD20EARS-22MVWB0: 51°C (en bas dans le boitier)
/dev/sdb: WDC WD20EARS-22MVWB0: 49°C
/dev/sdc: WDC WD20EARS-22MVWB0: 53°C
/dev/sdd: WDC WD20EARS-22MVWB0: 52°C (en haut dans le boitier)
Le CPU est à 56°C et mon bureau avec toute les machines d’allumé à 23°C. Et les ventilateurs du Helios4 sont à l’arrêt.
La consommation lors des copies est de 29w soit 0.19A.
Le load average est de 1.2 avec deux session SSH, une copy scp, 2 images sous snapd.
La ram n’est utilisé que à 90 Mo sur les 2 Go de disponible.
Bon, faut que je colle une sonde pour les débit réseaux sachant que j’ai rajouté une interface 1gbe en usb pour du lagg.
Pour ce qui est du changement des disques durs, c’est chiant car il faut ouvrir une partie du boitier. Mais ca ce fait très bien car au final on ne change que rarement de disques durs.
Et le mac pro, que dire, c’est Apple et souvent bien penser que l’on aime ou pas la marque. ;)
Pour le Helios4, on doit pouvoir copié l’organisation du Mac Pro mais en version mécano. Si j’ai le temps, je ferais un essai :)
J’ai du mal me faire compredre sur la limitation de débit :/
Des disques durs tournant à 5400 trm même 7200 trm en raid ne peuvent pas en lecture comme en écriture saturer une interface 10 gb.
Pour rappelle, 1gbs ca fait en théorie 125 mo/s et 10 gbs ca fait 1250 mo/s
En dehors de SSD sous nmve, ca va être dur d’atteindre la limite théorique en 10 gbe. Alors que mes vieux WD Green en 5200 trm en raid 10 pourront plus facilement dépoté entre 1 et 2.5 gbs
Le 05/03/2019 à 11h 28
Pour l’avoir juste a coté moi, je peux t’affirmer que non
C’est un cpu basé sur l’architecture mips et essentiellement utilisé pour le matériel réseaux.
A l’époque, j’avais été tenté par ce projet, mais il faisait trop bidouille face à l’Helios4
Fiche du cpu du GnuBee
https://www.mediatek.com/products/homeNetworking/mt7621n-a
Le 05/03/2019 à 09h 24
L’actuel Marvell Armada 388 utilisé permet la gestion de 3 ports 1gbs et 1 port 10 gbs. Ne pas oublier le port mini PCIe 4x (gen 2) qui permet de tenir un 10 gbs supplémentaire.
Il gère aussi l’accélération cryptographique tout comme XOR DMA utilisé pour les raids à parité comme le raid 5 ou 6.
Le soc Marvell Armada 388 est peut être pas un monstre de puissance brut. Mais il a pas mal de fonctionnalité intéressante. On le trouve dans des NAS 2 voir 4 baies, des petits routeurs ou switchs. Et les performances réseaux tiennent relativement la route.
Ce qui peut faire baisser les performances, c’est une mémoire limité. Dans les NAS du commerce, on le trouve généralement accompagné de 512 Mo voir tres rarement 1 go de ram. La dans le Helios4, c’est 2 Go en ECC !
Les disques durs ont aussi un impact non négligeable dans les performances réseaux tout comme le nombre de service tournant en fond.
Moi je reste confiante pour le dual 10 Gbe même si je sais que dans la pratique on ira pas forcément au dela de 2.5 Gbe du à la limitation des disques durs.
Note : pour information je ne défend pas le soc mais la méconnaissance du produit. On est que trop dans la logique du monde PC x86 ;)
Le 05/03/2019 à 08h 53
Ayant acheté le Helios4 lors de la phase 2, j’en suis très contente. Mais il faut pas mal bidouiller pour par exemple la gestion de la température et des ventilateurs.
Question performance samba, je suis en raid10 avec de vieux disques dur de 2 to western digital green, c’est entre 80 et 105 mo/s.
En copy scp, car j’utilise énormément ce système entre mes machines. Le dual CPU ARM ce prend une bonne charge dans la tronche. Le load average est en moyenne à 1.15. Le CPU ne tient pas as la route si on le stress trop dans les lectures lectures et écritures.
Sinon, je dois avouer que c’est une solution très intéressante avec ses 4 ports sata.
Kobol, travaille sur une version avec un double port 10 gbe
Twitter
L’USB4 à 40 Gb/s dévoilé : Thunderbolt comme base du nouveau standard
04/03/2019
Le 04/03/2019 à 15h 41
Rhooo
Moi aussi je veux voir le service marketing de chez Apple faire des pirouettes tout comme celui de chez Intel jubilé en accelerant l’internet, heu non l’usb.
ASRock Rack X470D4U avec IPMI 2.0 : enfin une carte mère Ryzen administrable à distance !
27/02/2019
Le 28/02/2019 à 11h 48
Malheureusement oui je suis je n’arrive pas a acceder au site de chez asrockrack
Le 28/02/2019 à 09h 19
En espérant que Asrock intègre dans son uefi le support de la mémoires ecc. Sans ecc, l’intérêt de cette carte dite serveur diminue en ce qui me concerne.
QNAP passe ses NAS à 2x 25 Gb/s via des cartes Mellanox à ports SFP28
25/02/2019
Le 26/02/2019 à 16h 42
Je ne suis pas sur pour l’infiniband va disparaitre. Car il est urilisé dans certain super calculateur.
Et on est sur la dernière norme à 400gbs voir 600gbs si je ne me trompe pas.
Disques durs : vers des plateaux MAMR de 2 To, Toshiba proposera un modèle 18 To
26/02/2019
Le 26/02/2019 à 16h 37
Le bon vieux disque dur magnétique est loin d’être mort.
Pour les data center et les données froide ca va être nickel
Atom C ou Pentium D : quelles différences sur les performances d’un NAS ?
19/02/2019
Le 21/02/2019 à 11h 21
Tu payes un support et aussi une responsabilité à la charge du constructeur ;)
Moi aucun soucis pour lâcher les 10K si le besoin s’en fait ressentir.
Sur certains SAN tu as la gestion des priorités sur les data. De la vm à la sauvegarde et ce parfois en dynamique.
je fais impasse sur le 40gbs ou plus ;)
Le 19/02/2019 à 11h 33
Ps : au vu de certains commentaires, il faut relativiser la gamme de produit avec la cible visée.
Un particulier n’a pas les même besoin que les tpe ou pme ou un indépendant. Et ses dernière en ont rien à faire de certaines fonctions comme la virtualisation ou des io de malade car c’est juste le point de stockage des factures et de la sauvegarde de l’outil de facturation par example. (les monteurs vidéos sont un cas particulier)
Concernant la conversion de fichier vidéo, ce n’est pas la tâche de base d’un nas. Un n’as c’est juste un stockage de fichier accessible via le réseau. Le reste des fonctions ne sont que trop souvent des plus-value commerciales pour attirer les utilisateurs non professionnels sur ce type de produit.
Concernant le zfs via freenas, la on est sur une utilisation en dehors des produits commerciaux. Mais il faut une puissance de calcul comme une bonne quantité de Ram pour profiter de cette solution dans de bonne conditions.
A titre personnel, je n’utilise plus freenas qui est devenu un véritable gouffre car je l’utilise plus en SAN via le iscsi que en nas via nfs ou samba.
Je suis repasser en solution from scratch sous debian, carte sfp+ 10gb chelsio, ram ecc, xeon basse consommation et carte mère serveur.
Bon derrière il y a des serveurs de virtualisation et c’est entre l’utilisation perso et pro.
Le 19/02/2019 à 11h 15
Bon petit article.
Trop de personne pense que un petit cpu est suffisant pour un NAS. Alors que c’est faux si on a utilisation agressive comme du montage vidéo ou un backup journalier de serveurs ou postes. (la virtualisation est s’ouvrant assez cool sur les io avec ce type de NAS).
Et la on est sur des solutions dédiés pme pas un hebergeur 😉 Je vois la comparaison arriver rapidement.
Le raid logiciel, ça bouffe des ressources cpu. Ce qu’il manque souvent des les cpu x86 c’est une unité de calcul spécifique à la gestion des parités sur les raid 5 ou 6 par example.
Pour le côté cryptage, pour l’instant je n’en ai jamais vu en production ou j’ai travaillé.
Et pour etandre le sujet, il ne faut pas oublier le monde mips et arm que l’on trouve dans pas mal de matos pro et grand public.
Si on prend le soc arm Armada 388. De base il gère un connecteur 10gb et 3 de 1gb ainsi qu’une unité cryptographique comme 4 ports sata. Et on le retrouve dans des nas premier prix qui font que le soc suffoque avec les 512 mo de Ram.
Pilotes Radeon Pro 19.Q1 : AMD veut aller plus vite, plus fort, plus loin
11/02/2019
Le 12/02/2019 à 09h 46
C’est ce que l’on appelle du Virtual Desktop Infrastructure ou VDI.
Chez un de mes anciens employeurs. Un collègue travaillait sur cette solution pour un client affin de déporter les stations de travail sous AutoCAD sur des serveurs.
Il y a 7 ans, seul les quadro de Nvidia étaient supporté et performantes.
Qobuz prêt à ouvrir son capital, voire changer de mains
14/01/2019
Le 14/01/2019 à 12h 02
Ça fait Toujour étrange de voir le nom de son ancien patron et de la société dans laquelle j’ai travaillé.
J’attendais l’annonce officiel, on ne sait jamais avec les bruits de couloir.
J’espère que Monsieur Thébaud arrivera à vendre. Oui monsieur, car même si j’ai du mal avec certaines choses, il a investi, créé des emplois, pris des risques.
Marre des clés USB lentes et de trop faibles capacités ? Fabriquez la vôtre
28/12/2018
Le 28/12/2018 à 18h 11
Juste un petit complément, contrôler que le boitier adaptateur soit UASP.
De nos jours c’est la norme mais on ne sait jamais avec un fabriquant qui veut tirer les prix vers le bas.
Revente de billets de spectacle : la plateforme Viagogo en échec devant le Conseil constitutionnel
14/12/2018
Le 14/12/2018 à 23h 27
Toutes manifestations n subventionnées doit avoir un prix égal ou inférieur au prix de vente officiel.
Pour le Hellfest, les années précédentes les revante de billets étaient possible avec changement du nom via la plate-forme de revente lié au prestataire de la vente des billets officiels.
Petit point sur le Delaware. C’est un état eyant un nombre important de siège de société. Car c’est un Paradis fiscal bien connu des gafa avec des sociétés au format llc.
Free prépare sa conférence de presse, qui sera diffusée en direct
03/12/2018
Le 03/12/2018 à 13h 43
Le 03/12/2018 à 13h 20
Je me demande ce que cette annonce va annoncer vu que la branche cloud d’Iliad Scaleway est de la partie.
Vont ils nous faire comme Orange à passer le maximum de fonctions des boxes dans le cloud ?
Si c’est ça, bof.
Moi j’attends de free de prendre en compte la domotique pour que je puisse gérer le chauffage, les volets et la cafetière. 😂
C’est un peu un troll la domotique. Mais j’avoue que ça serait une excellente idée pour des geeks.
VMware vSphere Hypervisor 6.x (ESXi): la virtualisation simple et gratuite pour serveur
26/11/2018
Le 26/11/2018 à 18h 58
Le 26/11/2018 à 17h 09
@David, pour KVM, si tu as le temps de faire mumuse avec oVirt de RedHat. Tu seras agréablement surpris.
On est plus proche de vsphere et surtout évolutif vers Open Stack.
Pour le monde Xen, il y a une alternative française pas mal : XMP ng. Fork intéressant.
En tout cas, bon petit article de présentation de vSphere ainsi que l’utilisation d’un SSD chinois Sunbow que j’utilise aussi sur quelques serveurs personnels.
Construisons un premier serveur 1U à base de Core i7-6700K, avec gestion distante (IPMI/iKVM)
20/11/2018
Le 20/11/2018 à 17h 48
@David je te rajoute quelques informations sur le coté serveur :
Pour les serveurs à base d’EPYC il y a des solutions à base d’IPMI comme chez Dell ou supermicro qui vend des cartes mère seule. Mais on est tres loins de l’ITX.
Concernant Ryzen, il existe aussi des cartes avec de l’IPMI qui ne sont pas en ITX et qui coute un bras.
Par contre, le format 1U n’est pas réputé pour son silence même en data center ;)
Plusieurs connexions internet sur un PC ou un réseau, solution hybride (fixe/4G) : c’est déjà possible
05/11/2018
Le 05/11/2018 à 15h 00
10 GbE, Multi-Gig, catégories de câbles : ce qu’il faut savoir sur le réseau à plus d’1 Gb/s
25/10/2018
Le 26/10/2018 à 13h 32
Oui le 10 gbe pour du particulier lambda c’est pour l’instant sans intérêt.
Mais dans quelques années allez savoir.
Puis bon, faire passer du grade 3s ou du cat 6a voir 7 n’est pas idiot sur le long terme. C’est casse pied de refaire le câblage d’un appartement ou une maison.
Puis bon, si en plus au niveau tarifaire l’impact n’est pas visible. Pourquoi ce privé 😉
Moi je me pose plus la question de savoir si on utilisera chez nous des câbles optique ou ethernet ou des protocoles sans fils.
Les gens ont la tv, le chromcast, les tablettes, smartphones et ordi portables majoritairement connecté en Wi-Fi.
Je fais impasse des réseaux zigbee pour la domotique.
On verra bien ce que le futur nous réserve
Le 25/10/2018 à 21h 41
Le 25/10/2018 à 18h 09
Il aurait fallu évoquer une autre norme du rj45 : grade 3 et 3s.
La norme basé sur le grade permet de faire transiter les signaux tnt et satellites à l’intérieur d’un câble rj45.
De z mémoire, un câble grade 3s peut tenir un peu plus de 2000 mhz.
Et pour finir de chipoter, attention à la consommation électrique du 10 gbe. Ça chauffe et consomme pas mal par rapport à du sfp+ via fibre optique ou câble direct attach.
La Chine accusée d’espionnage chez Amazon et Apple via Supermicro, de multiples démentis
05/10/2018
Le 05/10/2018 à 23h 12
La nsa intercepte des colis pour y mettre un firmware maison.
Utilisation de faille zero day par les services de renseignement.
Implémentation de back door.
Malware pour agir sur des centrifugeuse en iran.
Analyse du trafic sur les fibres optiques genre Marseille pour la France.
En somme, rien de bien neuf.
Un serveur, une baie, une lame, un rail, 1U : c’est quoi ?
04/10/2018
Le 05/10/2018 à 16h 41
Un point à la fin du lien ;)
https://www.orange.com/sirius/datacenter/index.html
Je profite pour montrer mon peti home lab avec des racks dans un flight case de musique.
https://tof.cx/image/KP3xh
Le 05/10/2018 à 15h 33
Le 04/10/2018 à 16h 51
C’est peut être que je suis trop une geek et que mes amis aussi. Mais beaucoup d’entre nous avons des homes labs en plus du matériel serveur de récupération.
Pour revenir sur le sujet de climatisation. C’est un point de consommation électrique non négligeable suivant les régions ou ce trouve le data center ou salle serveur.
Généralement on est dans ses valeurs de températures : 18 à 22°C. Mais ce choix n’est aucunement lié aux équipements, mais juste pour que les humais survivent. Une température de 40 voir 60°C n’est pas un problème pour le matériel. Certaines sociétés gères le changement pour des interventions humaine.
Les rendements énergétiques sont actuellement important et la virtualisation permet de densifier et par extension de faire des économies.
Je ne parles même pas de l’urbanisation des salles qui pas évolué avec la création de flux d’air et de ne plus faire passer de câbles (électriques, réseaux cuivre et optique) dans le faux plancher.
Certes un particulier n’a pas ce type de préoccupation. Mais un geek qui veut ce former à l’administration serveur (systèmes, réseaux et matériel) récupère du matériel pro voir achète du neuf.
Les cartes de développement sont trop éloignées de la réalité professionnel. Les Raspberry Pi et autres cartes de développement sont bien pour la bidouille et des petits projet. Mais le fait que tout n’existe par pour ARM mais pour x86-64, on peut vite ce les mettre de coté.
Pour l’utilisation propre d’un Raspberry Pi dans une installation aux normes, devrait être mis dans un boitier fixé sur un rail de l’installation électrique avec baie de brassage et son DTI (norme NF C 15-100). Ou dans une petit baie de brassage de 10 pouces voir une 19 pouces.
D’ailleurs, il existe des serveurs 1U a très faibles profondeur pour être intégrer dans ce type de baie (19 pouces).
Le 04/10/2018 à 14h 43
Orange virtualise ses box, mise sur des assistants et détaille un Orange Bank en retard
20/04/2017
Le 20/04/2017 à 10h 00
Je sens que certain prestataire vont faire la tronche avec la box dans le cloud d’Orange.
Que ce passe t’il en cas de coupure réseaux, perdra ton le serveur DHCP et la configuration wifi ? J’espère que non.
Les serveurs open stack avec Neuton vont caburer
L’utilisation d’IPv6 toujours minoritaire en France, l’Arcep nous détaille ses calculs
12/04/2017
Le 12/04/2017 à 10h 50
Processeurs : Intel continue de faire comme si de rien n’était, et annonce ses Xeon E3-1200 v6
29/03/2017
Le 29/03/2017 à 17h 10
Et sans gluten
[Sondage] Avez-vous ou allez-vous craquer pour un processeur Ryzen d’AMD ?
25/02/2017
Le 25/02/2017 à 12h 27
Un 6 cœurs avec le support de la mémoire ECC seront un bon choix rapports prix pour la mise à jour de mes 2 freenas qui servent poir mon stockage et mon lab (virtualisation stockage, VM et jails)
Mais j’attends d’en savoir plus sur le support de la RAM ECC.
[Sondage] Changeriez-vous de FAI si TF1 n’était plus proposée dans votre offre ?
17/02/2017
Le 17/02/2017 à 14h 51
Il faut déjà regarder la TV et surtout avoir une TV.
FDJ et Webedia vont co-organiser des tournois d’e-sport en France
17/02/2017
Le 17/02/2017 à 14h 50
il te suffira de regarder le site de l’ESWC et de Toornament ;)
Le 17/02/2017 à 14h 44
J’ai l’impression de revoir l’effervescence associative d’il y a 10-15 ans mais cette fois avec de l’argent.
Cela me fait plaisir de voir que certaines personnes qui sont dans le milieux depuis plus 15 ans vont enfin avoir un modèle économique plus pérenne.
Les paris ne devrais plus tarder et la FDJ pourra avoir un monopole sur certains tournois en ligne ou physique.
Windows 10 Mobile : la mise à jour depuis Windows Phone 8.1 disponible pour certains
17/03/2016
Le 17/03/2016 à 20h 33
Snif, pas mon BLU Win HD LTE X150E
Qobuz a enfin trouvé son repreneur, Xandrie (Allbrary)
29/12/2015
Le 29/12/2015 à 22h 09
Je suis salariée de Xandrie et utilisatrice de Qobuz a une époque pour aller chez Google.
On verra si je peux faire passer mon expérience d’utilisatrice
Qobuz : deux repreneurs « en finale », décision le 29 décembre
17/12/2015
Le 17/12/2015 à 11h 32
Tient mon employeur est en lice.
Drôle de l’apprendre comme ça.
Je serais heureuse que ma boite les rachètes. Ca ira bien dans Allbrary.
Windows 10 : le préchargement a commencé, ce qu’il faut savoir pour le lancement
28/07/2015
Le 28/07/2015 à 21h 56
Le dossier $Windows.~BT n’augmente plus : 5.92 Go (version 64 bit de 7 pro)
J’ai une sainte envie de lancer l’installation à la main
Edit, il manque le fichier boot.wim, grrrrrrr
eSport, triche et « hacks » : quand les joueurs professionnels dérapent
26/11/2014
Le 27/11/2014 à 10h 47
Le staff de beaucoup de compétions sont des bénévoles !
Et comme je te l’ai dit, le planning d’un tournoi ne permet pas de prendre 15 minutes le temps de goster une machine . Je ne te parle même pas des merdes sur le réseaux que cela provoquerait, car en général on pousse en multicast les images.
Et dans le cas de ce hacks, le ghost ne pourra rien faire.
De l’extérieur ca parait simple, quant tu es dans l’organisation cela est moins simple. Souvant des joueurs stressés, pas forcément tres agréables, des admins tournois aussi stressé par le maintient du planning, sans parler de la gestion de la scène qui en rajoute.
Pour avoir vécu ca durant un certains temps, moi j’aurais aimer faire plus, mais les contrainte font que parfois tu fais comme partout en informatique : au plus urgent et des rustines.
Dans mon service informatique dans mon taf, la plus part de mes collègues ne tiendraient pas sur ce genre d’événement. Méconnaissance des jeux pour la plus part, je ne parle même pas du jargon, un lag deviens un spike à SC2, tu rajoute les contrainte événementiel qui corepond au parck PC d’une entreprise réalisé dans la pratique sur quelques jours de préparation en amont (expérience indispensable), etc.
Pour les jeux sans LAN, je suis d’accord, mais quel intérêt de faire une compétions sur Tux Racer ou BlobbyVoley ? Les joueurs s’intéressent aux derniers titres comme le publique (voir encore plus).
Que faire quand des éditeurs te sortent un nouvelles version de ton jeux tout les ans ? Pas grand choses, les orga sont dépandant.
Quand tu t’appelle Valve ou Riot, c’est facile tu ne gère qu’un jeux et c’est ton jeux car développé par ta boite.
Sur des LAN ou autres événement com^portent plusieurs jeux, tu n’as pas de choix que de te plier au contraintes des joueurs (ce qu’ils jouent) et du publique pour remplir un événement.
Concernant le matériel, tu semble tres idélique !
La réalité fait qu’il faut laisser une chance a chacun. Tu n’impose pas une marque de chaussure pour le 100 metres ? Ca va crier.
Après il faut relativiser, la triche il y en a et aura toujours. Mais cela reste minoritaire dans la pratique.
De toute facon, plus tu ressert l’étau plus ca sera compliqué à détecter. Cet article le montre tres bien.
Le 27/11/2014 à 10h 33
oui
Le 26/11/2014 à 19h 41
Je reviens sur le hack, je le trouve très bien fait et ingénieux d’utiliser la plateforme Steam.