votre avatar Abonné

patos

est avec nous depuis le 7 novembre 2007 ❤️

2729 commentaires

Le 03/06/2021 à 17h 57

Chui fatigué, désolé ^^



Et non tu ne l’utilise pas autant. Si tu prends un fichier de 5mo dans lequel tu écris quelques kilos, ce serait le bloc complet de 128k qui serait lu, modifié, écrit. Avec la journalisation, tu vas juste dire “mon fichier va de là à là, puis passe ici, puis repasse par là”. Le système de fichiers le gère très bien et ça ne pose aucun souci sur un SSD ^^ (contrairement aux disques durs qui n’aiment pas cette fragmentation).
Si tu modifies plusieurs fichiers pour moins de 128K, tu n’useras qu’un seul bloc dans le second cas, contre plusieurs pour le premier cas.

Le 02/06/2021 à 20h 56


OlivierJ a dit:


Il faudrait faire une petite simulation mais de toutes façons à partir du moment où les écritures ne sont pas linéaires, effectivement les SSD écrivent à coup de ~128 k, et je ne pense pas que les ordonnanceurs qui peuvent regrouper des écritures voisines servent à quelque chose (pas aux performances en tous cas, ce qui est déjà un signe).


Deux cas le font:




  • Matériellement, sur un SSD avec un cache mémoire important, il ne purge pas le cache tant qu’on ne lui demande pas expressément. Dès l’or, l’écriture est en attente en cache SSD de présence d’écriture voisine. Au bout de quelques secondes, elle devient purgée de toutes façons.

  • Logiciellement, sur un système de fichiers à allocation lors de l’écriture, on n’écrit pas l’ancien bloc: on en alloue un nouveau. Du coup, on n’use pas la cellule qui contient la donnée mais une autre. Par ce biais, on peut obtenir des données plus fragmentées, avec des blocs systèmes de fichiers plus petits que les blocs minimaux d’écriture du SSD, sans lui péter son usure pour autant. C’est le cas pour ReFS, et je crois que c’est le cas aussi pour Ext4, et peut être Brtfs. En général, les systèmes de fichiers journalisés sont ainsi.



Les baies de disques à instantanés, comme les Dell SC, fonctionnent comme ça. Ca garanti des performances de fou, mais elle a un processde réallocation qui ressemble à de la défragmentation, mais entre plusieurs type de SSD (sinon on les flingue trèèèès vite), voir des HDDs (stockage moins cher avec cache SSD)

Le 02/06/2021 à 18h 56

Dans un boitier grande tour bequiet avec 7 ventilateurs à bas régime, 3 ventilos sur le ventirad noctua et une rtx 3090, le pc fait moins de bruit qu’un lecteur cd étouffé.
Pourtant le pc a une charge forte (cinema4D, photoshop, …) toute la journée.

Le 02/06/2021 à 16h 19

Les créateurs ont besoin des 24go de ram. Ca place directement la 3080ti pour les riches joueurs ou les développeurs, mais la 3090 restera la reine en création.

Le 01/06/2021 à 14h 00

C’est beau de voir quelqu’un s’époumoner pour rien vis à vis d’un troll complotiste expert du Kamoulox

Le 31/05/2021 à 17h 06

Ben c’est naze.
Ne pas savoir pour un switch, s’il gère le routage, le dhcp relay, le private vlan, le lacp, le 802.1x, la détection de connexion, la priorisation, la compatibilité openflow, etc… c’est extrêmement dommageable et lui hôte tout intérêt. En tout cas dans le monde pro.
Parce qu’arrêter un switch à la vitesse de ses ports, c’est ridicule. Surtout quand celui-ci possède un trafic non bloquant à 50% de la charge maximale.



Gérer 300 clients =/= avoir 300 clients à fond. Les ressources CPU/RAM comptent, ainsi que la capacité au matériel de gérer le beamforming avec 300 blaireaux. Sans compter la gestion temporelle du bouzin pour être synchrone avec tout ce joli monde.

Le 31/05/2021 à 11h 40

Pas d’information sur le management autre que le spécifique Unify, pas d’information sur les technos supportées etc…
Jugeons sur la fiche technique, pas sur le marketing…

Le 31/05/2021 à 11h 46

J’ai l’impression que le tribunal demande juste à yuka de ne pas être juge et parti.



Yuka peut toujours indiquer que le nitrite est mauvais pour la santé mais pas inscrire ça dans une démarche militante.

C’est ça.
Et ça va faire la nique à ceux qui croient que parce que eux jugent que c’est mauvais, tout le monde doit faire pareil.



La FICT a parfaitement raison.

Le 28/05/2021 à 09h 47

Est-ce que quelqu’un chez Logitech peut apporter de la cohérence?
Plus le temps passe et plus les applications sont merdiques, que ce soit Options ou G Hub (et je parle même pas du cas où on mixe les 2).



Il serait peut être temps de faire un travail de fond sur vos logiciels les gars.

Le 25/05/2021 à 13h 29

Non, ce n’est pas ce type de sabotage.
Ce qui s’apparente à un sabotage est en réalité un choix industriel, pas assumé à chaque fois qu’ils se sont fait chopper. “Tant que ça fonctionne, estimez-vous heureux.” devrait être le slogan des offres cuivres.



Orange se fout de la gueule du monde et encaisse. Ils réparent là où ça gueule, ont complètement démotivé leurs équipes à force de faire appel à des sous-traitants qui provoquent plus de problèmes que ce qu’ils n’en résolvent, etc…
Quand on a de bons techniciens et qu’on les écoute, le réseau vit, et chaque client est satisfait. Quand on s’en fout, on a des chiffres: c’est taux moyen de pannes, des délais moyens de réparation



On a que ce qu’on mérite: un réseau cuivre vieillissant et entretenu au moins-disant.
Merci Orange, merci l’État.

Le 24/05/2021 à 08h 43


Pour assurer la qualité de service et éviter de se retrouver à court de stockage sous peu, la société a pris les devants et interdit désormais le plotting sur toutes ses instances SSD, serveurs dédiés, RPN-SAN, ou même Block storage. Elle précise que ses contrats impliquent déjà qu’un usage menant à la destruction d’un composant peut mener à une facturation de ce dernier aux clients.


Je serais bien curieux de voir comment ça se passerait au tribunal.
Est-ce que Scaleway fournit la durée de vie des équipements loués, au moment de l’achat?
Parce qu’en général, les hébergeurs ne le font pas ! Auquel cas, comment le client pouvait-il savoir que cela mènerait à la destruction (ce qui est différent d’une usure prématurée, hein).

Le 22/05/2021 à 20h 41

C’est peut être pas la reconnaissance que tu aurais souhaité par le passé, mais te faire croquer aussi humblement pas Flock, ça en est une belle quand même :)

Le 22/05/2021 à 04h 02

Et si on demandait un remboursement de la RCP pour tous nos produits HS ? Ben oui, on ne peut plus profiter de l’exception copie privée vu qu’il est raide, non?

Le 21/05/2021 à 05h 58

Moins cher, plus fiable, suffisant pour l’OS et surtout dans le cadre de test, tu es sûr que les gens te rendent la machine sans avoir flingué le SSD ^^

Le 20/05/2021 à 18h 49

Au nombre de coeurs, ça ne consomme pas tant que ça.
Et parfois, tu n’as pas le choix de l’OS….




(reply:57272:Idiogène)


Désolé, je ne fais que de la virtualisation et ne compte pas comme ça ;)



De plus en plus, on a des coûts par VM pour les licences.
vSphere, c’est par processeur.
Les bases de données, c’est par rapport à la/les vms.
Etc..
(les applis métiers, c’est triché, c’est de base hors de prix :D )



Franchement, les coûts se simplifient avec le temps, maintenant que le cloud est bien implanté.

Le 20/05/2021 à 17h 05

En gros, tu prends le prix public, et tu enlèves entre 30 et 50%. C’est le prix auquel on les touche (de préférence par 2).
Moi je faisais comme ça pour négocier me serveurs Dell, ça marchait super bien :D

Le 20/05/2021 à 16h 26

Oué le priiiiiiiix siouplé

Le 20/05/2021 à 18h 54

Le problème, c’est le coût de cela en termes de réseau.
Mais oué, tu mets deux grosses baies Compelent à 100K€ chacunes, et tu stockes bien plus que les 30To SSD que tu as dessus (tu peux monter à x10 ou x100 en VDI). Le tout dans la milliseconde, plus ton réseau.



Les montages réseaux, d’un point de vue sécurité, tu peux pas faire ça. Le risque est fou.

Le 19/05/2021 à 23h 41

Roh le mec il nous prends pour des pingouins hihihi

Le 19/05/2021 à 20h 41

Un licenciement économique où y’a qu’un seul départ. C’est étrange quand même hihihi



A tout les coups, c’est simplement une histoire d’orgueil: c’est chiant, ça pique, ça dégoute, mais c’est ainsi… Tu as beaucoup d’autres routes où avancer, surtout ton passif ;)
Rebondis bien, tu trouveras bien quelque-chose qui te portera :)



VPN + Steam Remote Play. Mais tu vas perdre en latence.



Surtout en vGPU, où tu peux parquer les machines qui consomment le moins ensemble.
Sachant que la virtualisation est basée sur le principe du partage temporel, mettre des gens avec 3 écrans 1080p avec un qui a un écran 4K serait tout à fait possible. Et avec les migrations live, la répartition peut vite être efficace.

Le 19/05/2021 à 20h 51


(reply:57207:Idiogène)


Comment crois-tu qu’Intel a une aussi forte marge?
Ils testent, qualifient et ensuite choisissent sous quel nom vendre le produit final.
Ils n’ont pas une usine plus parfaite que les autres…



Je ne vois pas pourquoi AMD ne ferait pas pareil. Ce serait très profitable et contre toute forme de gâchis.

Le 19/05/2021 à 09h 03


(reply:57197:dvr-x)


Donc c’est contractuellement interdit de la mutualiser ;)



Même si, personnellement, je me foutrais que ma fibre FTTO soit assujetti à modulation (qui ne réduit pas le débit mais complexifie l’architecture en ville)

Le 18/05/2021 à 06h 24


(reply:57168:dvr-x)


Ça dépend de la fibre que tu achètes.



Quand tu payes Orange pour qu’ils t’amènent la fibre Entreprise (le niveau au dessus de Pro), c’est du FTTO: ta fibre t’est dédiée, ton débit vers Internet (ou ailleurs) t’est garanti (de 2M à 10G, peut être même plus mais prépare le rein).



Sinon, c’est du FTTH classique, et le débit est capé/mutualisé

Le 18/05/2021 à 09h 10

Est-ce toujours un module 2x2 lignes PCIe, comme le précédent? Histoire de s’en servir sans avoir le droit à la plaie des pilotes propriétaires d’Intel.

Le 17/05/2021 à 15h 42

La news ne parle que du connecteur 20+4 de la carte mère remplacé par un connecteur uniquement 12V, pas des autres connecteurs de l’alimentation.
D’autre part, je ne vois pas les cartes mères être compatible Power Delivery (pour les 100W), et comme dis plus haut, souvent, la carte mère ne se sert que des 12v dans la prise 20+4: elle fait donc déjà le travail de conversion, mais on ne le sait que si on fouille les documentations techniques à fond (quand elles sont fournies)

Le 11/05/2021 à 17h 24

On pourrait faire des économies d’échelle mixtes.
Par exemple, imagine un cluster de virtualisation:




  • Chaque hôte est x86 a un le réseau de management isolé.

  • Chaque machine virtuelle est connectée au réseau de travail par réseau à deux machines ARM spécialisé en pare-feu DPI/IPS, routage, transfert de porcs, nginx et chiffrement SSL.



Ainsi, tu as des machines x86 classiques, dont la sécurité classique est assurée par un équipement réseau ne mangeant pas les ressources de calculs.



Et petit à petit, des fonctions seront déportées vers des puces ARM de cette manière.



On voit déjà ça dans les switchs Dell haut de gamme où tu as un noyau linux qui tourne en parallèle de l’ASIC dédié au réseau (routage et commutation), le configurant et réagissant à la volée. Les Smart-NIC & les Smart-SSD en sont un autre exemple.



Pour moi, l’avenir d’ARM est là: un complément dévoué et économique sur les tâches les moins spécifiques à l’entreprise.



Bref, vive tout le monde, et ensemble, pour qui en a besoin.

Le 11/05/2021 à 09h 48

Tout simplement pire ^^
Les seuls meubles entre lesquels les glisser sont des compresseurs de clim. Ainsi tu ne les entends plus à côté du reste.



Pas assez de ram pour ma part ;) Et les connecteurs de RAM sont SO-DIMM :o



Par contre, c’est vraiment étrange ce double noeud. Deux machines distinctes dans la même carlingue… Ma foi pourquoi pas.

Le 08/05/2021 à 05h 09

Ou de déplacer le serveur à travers la maison avec une rallonge parce que madame a un besoin urgent de changer un truc dans une pièce et qu’on a lancé un truc qui dure des heures / jours
(mais attention aux disques durs qui n’aiment pas du tout ça)

Le 07/05/2021 à 10h 04

Et combien l’ont fait en payant une ou des offres légales et qu’un contenu spécifique n’a pas été trouvé dessus?
Ca, ils se gardent bien de le dire….

Le 06/05/2021 à 11h 42

Il reste plus qu’à savoir si, à travers le temps, les Orbis Pro sont devenus plus stables… Parce que les crashs tous les 6 mois, pfff

Le 06/05/2021 à 11h 41


(reply:56962:Fab’z)


Je te rassure, je la trouve merdique.
Rien que le fait que la carte soit pcie x4 avec un pcie splitter vers 3x pcie x2, je trouve ça à chier ^^



Après, si tu espères que Synology & Qnap soient un peu précurseurs sur ces emplacements, tu rêves… Ils nous ont prouvé qu’ils en étaient incapables. Vive les serveurs fait maison…

Le 06/05/2021 à 05h 45


(reply:56956:Fab’z)


Qnap s’en fout, ils vendent une carte tout en un contenant 2 slots nvme et un port 10g (QM2-2P10G1TA)

Le 06/05/2021 à 09h 04

Je me pose cette question pour 2 raisons :




  • tipiak des films français (y’en a peu)

  • anonymiser mon surf par rapport aux GAFA



Faut voir si c’est efficace contre FLOC.



Après pour tipiak, on peut hésiter avec une Sandbox mais c’est le même prix…

FLoC bosse au niveau de ton navigateur, aucun VPN n’y fera quelque-chose. A toi de bien choisir ton navigateur.
Les GAFA font des empreintes en plus des cookies: les réglages de ton navigateur et ton ordinateur sont mâchés pour faire un numéro d’identification… presque valide. Tu n’es pas personnellement identifiable, mais on est presque sûr que c’est toi :)



Un VPN comme les offres que l’on a permettent de créer de la confiance entre toi et internet. Dès que tu sors vers Internet, t’es baisé par les serveurs auxquels tu te connectes.
Ca sert également à:




  • Outrepasser des paresfeux trop restrictifs, dans une société ou dans un pays.

  • Blinder une connexion sur un vieux wifi pour la rendre localement inécoutable.

  • T’isoler de ton Lan et ainsi limiter les problèmes (et en créer d’autres, coucou l’imprimante Wifi).

  • Te faire passer pour étant dans un autre pays pour certains services.

  • Echapper à un bannissement d’IP public.
    Il y a bien sûr d’autres usages, mais ceux qu’on voit fleurir servent surtout à ça…

Le 05/05/2021 à 05h 54

Je comprend pas du tout ton argument (le rapport entre les histoires de ping de Blade et le Gard sur sa console et son “excellent moniteur” ?) ni où tu veux en venir …

Je t’avais fait un beau pâté mais ma touche F5 s’en est mêlée.. :‘(



Je trouve juste que comparer un cas d’un excellent écran gaming en oubliant que ce n’est pas ce qu’auront la plupart des clients cloud (qui veulent souvent ne pas payer de trop pour jouer, sinon ils achèteraient une vraie configuration, ou jouent sur un pc portable bureautique lambda, …)



Je trouve ça pas mal expliqué: Ecrans & Input lag - https://www.benq.eu/fr-fr/knowledge-center/knowledge/gaming-monitor-input-lag-versus-response-time-whats-the-difference-and-why-should-i-care.html



(ils font leur pub pour leurs écrans, normal quoi)




C’est pourquoi nous vous recommandons d’utiliser le mode PC ou jeu pour vos sessions de gaming. Ils permettent de désactiver la majeure partie du traitement d’image afin que vous puissiez bénéficier du temps de réponse le plus proche possible de celui annoncé par l’écran. Comment l’input lag se mesure-t-il ? Également en millisecondes, mais cela représente un chiffre bien plus élevé que le temps de réponse. Les écrans véritablement performants, comme le BenQ EL2870U, le moniteur 4K HDR EW3270U et l’écran de gaming EX2780Q de 144 Hz avec haut-parleurs enregistrent 9 à 10 ms selon des avis tiers, mais la moyenne se situe autour de 15 ms et 22 ms pour les écrans d’ordinateur et de télé conçus pour le gaming. Vous ne devriez détecter aucun effet négatif avec de tels chiffres en matière d’input lag, et vos jeux vous sembleront très réactifs. Les problèmes de synchronisation commencent à se faire ressentir uniquement lorsque la latence dépasse 40 ms. Au-delà de 50 ms, il devient impossible de jouer. Ne vous moquez pas ! De nombreux écrans et téléviseurs bon marché offrent aujourd’hui des performances encore moins élevées que cela, ce qui entraîne des expériences de gaming absolument catastrophiques.


Le 04/05/2021 à 15h 42

Merci pour la confirmation que ces histoires de “ping qui sera jamais au niveau” n’est qu’un faux argument de comptoir. :)

Tant que tu n’auras pas ton canal dédié vers Blade, avec QoS, le ping sera toujours un argument.
Comparer un excellent matériel en cas de Cloud gaming à un matériel moyen de cas de jeu, par exemple, est plutôt.. limite. Quid du gars qui joue sur console avec un excellent moniteur?



Bref, la question n’est pas simple, et n’est certainement pas tranchable : l’exigeance, le besoin, le coût et la technique sont toutes parties prenantes dans la qualité relative du service.

Le 04/05/2021 à 05h 52

Intéressant, mais comment l’appareil peut réajuster sa trajectoire en cas de perturbation (je pense au vent) ?

Gyroscopes, capteur ToF, accéléromètres 3 dimensions 6 axes (roulis inclus) , caméra classique utilisée pour faire de la compréhension d’environnement, etc…
Toutes ces choses sont déjà maîtrisées dans le quotidien, alors dans le militaire je n’imagine même pas…

Le 04/05/2021 à 05h 47

Aussi ciblée soit-elle, une antenne a toujours une diffusion parasite.
Par exemple, tu la pointe sur un drone dans de grands arbres, le signal peut retourner vers le sol.
Puis y’a des récepteurs GPS qui volent aussi ^^

Le 03/05/2021 à 18h 21

Si, il existe des capteurs qui, une fois calibrés par GPS (au décollage), conservent une précision de moins d’un mètre après plusieurs kilomètres de vol :)
Et lorsqu’on additionne les capteurs, la précision devient folle :)

Le 01/05/2021 à 10h 09

Je confirme, le code FNAC10 fonctionnait hier, pas aujourd’hui.

Le 01/05/2021 à 09h 54

Tes disques ne seraient pas SMR ? ;)

Le 30/04/2021 à 08h 12

Tu peux juste pas sur certains modèles, ou sinon t’es en SATA-I. C’est pas foufou pour la bande passante et la latence :D



J’ai la même en 4e4i, mais elle devient trop juste.
La prochaine solution: le boitier rackable avec SAS expander inclut :duel1:
Après, les flashs, ça ne marche pas sur tous les modèles (vu le même modèle en IBM et DELL, l’un des deux ne se mettait pas à jour…)



Amateur :mdr:
T’aura jamais de problème avec les disques dur sous les 6 disques. Avec les SSDs, sous les 4 disques.

Le 29/04/2021 à 14h 10

Moi j’en ai eu un à cause de ça :D
Autant le serveur avec 16x10To + 2xSSD en cache s’en sortait très bien en Windows Storage Spaces, autant sur celui avec 34x4To + 2xSSD en cache, j’ai été obligé de réduire les colonnes à 11 pour pallier à ces problèmes de saturation. 30 colonnes, le bus ne tirait pas large…. ^_^
(je copiais des TOs à coup de pelle, les perfs étaient importantes ^^; )

Le 29/04/2021 à 10h 40


(reply:56858:Naruto`kun)


L’avantage est en terme de canaux également: utiliser une carte RAID n’utilise que 4 lignes PCIe, et possède la notion des canaux SATA/SAS. L’ordre d’IO ne passe qu’une seule fois dans le bus avant d’atteindre le cache qui l’acquitte.
Lorsque tu fais du simili-RAID, le problème est que tu manges des lignes PCIe pour accéder aux disques, sans prendre en compte les chemins. Les IOs ne sont pas simultanées à cause de l’engorgement.



Avec du simili-RAID6, la perte en CPU est conséquente et la perte en canaux est de HDD-2.
Avec du simili-RAID1, la perte en CPU est risible et la perte en canaux est de HDD/2.



Et en termes de temps de réponse, la carte RAID sera infiniment meilleure à forte charge (Serveurs de bases de données, très gros serveurs de fichiers, etc.).

Le 28/04/2021 à 17h 25


(reply:56841:Naruto`kun)


Exactement. Ton disque dur est mort si tu n’as pas le même contrôleur derrière.
La plupart des cartes RAID pro ne sont pas JBOD et RAID.
Les cartes JBOD sont parfaites pour passer des disques à un Windows Storage Spaces, un Unraid, un FreeNAS, etc…
Les cartes RAID sont parfaites pour les OS, pour les performances, pour la sécurité des écritures (elles ont souvent un contrôleur avec mémoire sauvegardée X heures) etc…
Considérer les cartes RAID comme inutile à cause des systèmes simili-RAID logiciel est une grave erreur d’architecture: L’une, comme l’autre, possède ses cas d’écoles et ses cas où elles seront en retrait.



Le RAID SOFT de cartes de merde (Raid Intel, carte Raid à 20 balles) est en fait un Raid logiciel déployé dans le pilote: passez votre chemin, c’est de la merde en barre.

Le 30/04/2021 à 13h 00

Il faudrait peut être arrêter de faire du vsphere sur du matos pourri. Vmware est un monstre qui justifie largement son prix.

Le 30/04/2021 à 08h 24

Ca fait partie des raisons pour laquelle j’ai pris une Galaxy Tab S7+ avec clavier.



Parce que quand on parle écran, on parle en pouces, point. 2,54 est le coefficient multiplicateur.
Il n’y a plus de marché depuis des années pour le 12”5, cannibalisé par le duo tablette android / pc portable plus grand. Quelques rares modèles subsistent mais sont chers, merci la loi des séries (Dell latitude 7210 par exemple).



Personnellement, je te conseille de t’orienter vers les 13” au delà de 16:9 de ratio d’écran: surface pro, surface book, et d’autres s’y mettent par ci par là mais je n’ai plus les noms des modèles.



N’oublie pas que les 13”3 bordures fines d’aujourd’hui font la même taille que les 12”5 d’hier.

Le 30/04/2021 à 08h 14

En même temps, si tu n’isoles pas le management de ton réseau du reste, tu cherches un peu…
Le management réseau, c’est hors ligne ou derrière un VPN, point. Le cloud web uniquement pour ça est une hérésie…

Le 28/04/2021 à 17h 36

Avec un peu de bonne volonté, on y arrive :D
a un forfait illimité parce que 30/40go par jour chez le client, ça décompte vite…



Après, pour uploader, la 4G c’est cool. Les 4To de photos sont passés plus vite qu’en ADSL :D

Le 27/04/2021 à 20h 28

Ce sont les contrôleurs qui gèrent. De la même manière que tu peux partager un NAS entre plusieurs serveurs, tu peux partager un disque entre deux contrôleurs.
Dans les baies de disques où ce type de disque SAS double canaux est installé, les contrôleurs sont connectés à tous les disques, et ils partagent en mémoire une carte des disques pour les accès concurrents (à travers un lien très haut débit qu’on appelle fabric). Ainsi, les contrôleurs savent où ils peuvent écrire sans faire chier le petit copain.



Dans les baies très haut de gamme (>90K€ les 20To), tu as des contrôleurs actifs actifs qui bossent ainsi ensemble. Gros cumul d’IO par disque, en général les liens sont saturés à tour de bras.
Dans les baies haut de gamme (>30K€ les 10To), tu as des contrôleurs actifs passifs répartis. Chaque volume peut être actif sur un contrôleur ou sur l’autre: petit cumul d’IO par disque
Dans les baies normales (> 10K€ les 10To), tu as des contrôleurs actifs passifs épicétou. Le second contrôleur ne fait rien, il est juste prêt à prendre le relai à chaque instant. Pas de cumul d’IO par disque
Dans les NAS (>2K€ les 10To), tu pleures.



Ce type de disque est réservés aux deux premiers types de baies, ou pour mettre dans un serveur en direct.



ps: les prix que je donnes sont à peut près ceux que j’ai pratiqué y’a 3-4 ans, et non au pif.

Le 27/04/2021 à 10h 34

Ca n’a rien à voir.
Le dual domain, ça permet que le même disque soit connecté à deux contrôleurs SAS pour qu’ils s’en servent simultanément.
Autant dire que dans les baies de disques réseaux / SAS, c’est absolument obligatoire, sinon, pas de fonctionnement double contrôleurs actif actif.



C’est un connecteur qui contient deux chemins, et ces deux chemins sont câblés sur le fond de panier pour aller sur chaque contrôleur indépendamment.
Ainsi, le disque contient 3 “pistes” distinctes : Canal 1, Canal 2, Alimentation.