votre avatar

Ksass`Peuk

est avec nous depuis le 29 mai 2013 ❤️

197 commentaires

Le 08/01/2014 à 13h 39







CaptainDangeax a écrit :



Loin de moi l’idée de vouloir couper les cheveux en 4 mais justement les optimisations se font à coup de % voire de pouillème de pourcent. Alors, 8% c’est juste énorme et c’est aussi ce qui contredit ton “idée reçue fausse”.





8% avec un système posé à l’arrache par dessus. 0 optimisation, juste une redirection brutale des demandes. Les 8% sont largement bouffables par une optimisation du côté de la partie virtualisée (précision : para-virtualisation dans le cas présent).





CaptainDangeax a écrit :



L’équation est simple : communication inter process = chute des performances. C’est juste de l’info industrielle, de l’électronique bien physique si tu préfère. Le process A écrit dans une mémoire partagée, qui ne l’est pas le temps de l’écriture. Puis, il y a changement de contexte pour que le process B puisse lire cette zone mémoire, et ça prend des cycles CPU, donc du temps, avant le le process B ne puisse lire cette mémoire.





Pour ça je vais m’auto-quoter :





Ksass`Peuk a écrit :



De plus dans le cas de Midori, l’ensemble des tâches certifiées s’exécutera en espace kernel, la perte de performance dûe aux IPC sera littéralement détruite.





Et quoter @HarmattantBlow :





HarmattanBlow a écrit :



la communication inter-processus y est plus rapide puisque celle-ci obéit à un dialogue contractualisé par les deux parties et vérifiable qui leur permet de partager des buffers et d’envoyer des messages très rapidement.



Le 08/01/2014 à 13h 09







CaptainDangeax a écrit :



BEnsuite le micro noyau. Sur le papier c’est très bien, plus sécurisé, etc, etc… Sauf que la communication inter processus écroule les performances de cette belle théorie et démontre que ce qui fonctionne le plus rapidement, c’est le noyau monolithique. C’est d’ailleurs le choix du marché, voir le TOP500 des machines les + performantes trusté par Linux, noyau monolithique.





C’est une idée reçue qui est fausse ;) , les travaux sur les kernels L4 portent leurs fruits progressivement. Pour avoir sous les yeux un micro-noyau expérimental qui exécute un Linux (en user-space par dessus), on est à moins de 8% de perte de performance - moyenne - (même si le portage est fait à l’arrache).

Evidemment, ça ne marche pas dans tous les cas, puisque les optimisations sont écrites en fonction de ce sur quoi tournent les programmes. Si on a passé 10 ans à optimiser pour un modèle particulier, il n’y aucune chance que sur un autre modèle ce soit plus rapide, il faut optimiser pour le nouveau modèle.

De plus dans le cas de Midori, l’ensemble des tâches certifiées s’exécutera en espace kernel, la perte de performance dûe aux IPC sera littéralement détruite.

Par ailleurs, les choix du marché ne sont pas forcément les plus pertinents, ils sont là où le plus d’argent a été investit dans le passé alors qu’on avait qu’une estimation partielle de ce qui était possible.


Le 08/01/2014 à 08h 07







sr17 a écrit :



-Une des optimisation très utilisée avec le C++ consiste à écrire des gestionnaires de mémoire spécialisés pour chaque tâche critique. Malheureusement, aucun “garbage collector” généraliste, aussi bon soit t’il ne peut rivaliser avec de telles stratégies spécifiques.





Apparemment, la gestion de la mémoire à travers le langage n’est pas un GC à proprement parler mais est plus proche de la RAII telle qu’on l’applique en C++, donc de ce côté, il reste à savoir si le compilo est plus friand de unique_ptr (victory) ou shared_ptr (fail).


Le 07/01/2014 à 15h 48

Hum … Donc si j’ai bien compris la politique associée au langage concernant la mémoire, grosso modo on a un langage qui accepte l’allocation dynamique, on va recevoir les accès à ces zones par des références (au sens C++, pas des pointeur quoi), qui sont modifiables mais uniquement par affectation d’une référence valide (pas d’arithmétique des pointeurs, c’est pas pour me déplaire).



Sur un langage full-GC (même si j’aime pas les GC), je trouve ça ok effectivement.



Cela dit si on a du très bas niveau, on veut avoir une déalloc parfaitement déterministe. C’est quoi derrière ? Du comptage de référence ? Ce serait quand même plus correct d’être plus précis niveau responsabilité si on veut très efficace, non ? (comprendre shared_ptr/unique_ptr en C++11).



Grosse interrogation pour ma part également : quid des modèles mémoire faibles ? C’est oblitéré par des barrières fortes où l’on a toujours le choix de rester borderline ? Parce que dans ce contexte, faire de la certification même avec juste de l’allocation statique c’est déjà mission impossible alors avec du dynamisme … Waow !

Le 07/01/2014 à 13h 19







HarmattanBlow a écrit :



Il faut entendre “vérifiable” de façon contextuelle.

[…]

Le C++ ne peut pas être vérifié à cause de des pointeurs pseudonymes, de l’asm et peut-être d’une ou deux autres choses.





Mince, ma vie est un mensonge.


Le 07/01/2014 à 09h 38







HarmattanBlow a écrit :



Pas avec Midori. Ou alors avec du C++ modifié ou emballé dans une VM. Mais par définition Midori ne peut exécuter que du code vérifiable, ce qui n’est pas le cas du C++.





Dans un monde (vraiment) multi-threadé, il n’y a pas grand chose de vérifiable actuellement. En l’occurrence, cela ne dépend de toute façon pas vraiment du langage utilisé, mais de la modélisation. Outre ce fait, on est jamais à l’abri d’une spec fausse. Il faut également que le compilateur soit vérifié (y compris les optimisations) pour garantir que l’ensemble marche.

(Par ailleurs, un code utilisant des pointeurs intelligents simples - comprendre : pas de GC en thread séparé, ni différé dans le temps - est très efficace en terme de gestion mémoire et pas plus compliqué).

Tout ce que j’espère de ce langage c’est qu’il ne sera pas full-proprio.


Le 13/12/2013 à 09h 19







polytan a écrit :



Quel est la différence avec Java ?





Pas de machine virtuelle Java. Donc si tu veux optimiser ton code de façon à consommer le moins de RAM possible et avoir le strict minimum de calcul (et donc une plus faible consommation pour ton appli de manière générale), tu peux.


Le 12/12/2013 à 13h 30

Je vais pas citer tout le monde mais la création de littéralement tous les objets dans Qt repose sur l’utilisation des pointeurs nus, de l’opérateur new et du concept d’objets parents/enfants.

Concrètement, cette partie du framework est, comparativement à l’exploitation des capsules RAII et de la pile en C++ “moderne”, très moche.



@malock : le C++ est mon langage préféré, mais pas tel qu’on l’utilise dans Qt.

@jedifox : je parle d’une sous-utilisation de la RAII dans Qt alors qu’on sait maintenant que c’est le coeur de C++.

@seblamb : le supporter c’est bien, l’utiliser c’est mieux.

Le 12/12/2013 à 12h 49

Intéressant ! Juste dommage que ce soit du C++ old-school pas très joli <img data-src=" /> . Le problème des gros projets c’est que quand ils deviennent le top, ils ne sont plus compatibles avec les concepts récents.

Le 27/10/2013 à 19h 20







frikakwa a écrit :



Pauvre machine vouée à ne plus marcher, un peu à la manière d’un BB: l’aspect négatif qui entoure HTC ne va pas les servir positivement!



INdirectement je reste persuadé que la loose des Desire, One S et consors n’alimente pas non plus la confiance en la marque!



Tout geek qui se respecte déconseille maintenant HTC au grand public!





Merci pour la bonne tranche de rigolade !

On propose quoi à la place du One qui est à mon avis un des meilleurs smartphones du marché ? Un Samsung avec l’interface TouchRam ? Ou alors un Nexus parce que Google sont de gentils bisounours qui veulent que le bonheur des gens et l’harmonie informatique. Ou alors un Appeul, cher pour le matos à l’intérieur ?

Ce ne sont que des trolls, et pourtant, ils sont tous très proches de la vérité, tous les modèles ont leurs failles et c’est pas demain que ça va changer.


Le 09/10/2013 à 09h 08

Il a raison, d’ailleurs c’est bien connu Linux est ultra sécurisé … (c’est un linux-user qui parle, et - oui - c’est de l’ironie).



Vous serez plus heureux avec Gmail, Chrome et Android, plus que vous ne pouvez l’imaginer



Je trouve ça terrifiant. Google met ses tentacules partout, plus que trouver ça pratique, je trouve complètement aberrant que les paramètres soient synchronisés dans le cloud par défaut, et que ce soit un énorme bordel pour arriver à le désactiver (je suis même pas sûr de l’avoir désactivé complètement).



Ah non, j’oubliais, Google sont de gentils bisounours qui veulent rendre le monde meilleur afin que tous les humains vivent en harmonie sur un internet parfait avec pour seul optique le bonheur des gens <img data-src=" />

Le 02/10/2013 à 12h 07

Je trouve ce genre de conventions plus terrifiantes qu’autre chose “faites la guerre et entre-tuez vous mais faites ça comme des gens civilisés”.

Le 26/09/2013 à 06h 45

Je dis oui à ce sous-titre ! <img data-src=" />



Et on nous dit que les caisses sont vides … Sans rire on a toujours de l’argent à dépenser pour des conneries. En même si c’est inutile c’est indispensable ^^

Le 25/09/2013 à 13h 08







jb18v a écrit :



http://9gag.com/gag/2078832 <img data-src=" />





C’est malin, maintenant j’ai We Won’t Get Fooled Again dans la tête … ça va être pratique pour bosser …


Le 25/09/2013 à 12h 24

@jaguar_fr : Franchement, difficile d’évaluer vraiment. Pour l’utilisateur, je trouve que la gestion des cartes est globalement plus facile chez AMD que chez NVidia (pour le panneau de contrôle). Pour ce qui est des systèmes mobiles, que ce soit chez l’un ou chez l’autre, tu pries à chaque mise-à-jour du kernel ou de ton driver. Le pilote libre NVidia plante (de mémoire) moins souvent que le proprio, chez AMD c’est l’inverse (en mobile toujours).

Le 24/09/2013 à 07h 55







Eagle1 a écrit :



et moi je jou toujours à des jeux d’il y a 10 ans, comme beaucoup d’autres.





Morrowind + MOSG &lt;3


Le 20/09/2013 à 16h 08







Damien L a écrit :



En même temps Apple c’est du consommable…





Alors que les autres marques, non <img data-src=" />


Le 17/09/2013 à 07h 08

Autant, je peux comprendre l’engouement autour du jeu, après tout, il a l’air effectivement très bon, niveau jouabilité, scénar assez sympa, etc … C’est pas mon style de jeu mais soit.

Autant, pour le coup quand je vois certain sites mettre que les graphismes sont somptueux … Euh, bon ok c’est beau mais ça casse pas des briques non plus hein.

Nan par contre faut juste arrêter de filer ce jeu à des gosses (je parle pas de 15-16 ans … la si la personne est matûre ça gêne en rien) mais 10-11 ans … Faut arrêter.

Le 11/09/2013 à 08h 23



On devrait ainsi trouver l’iPhone 5c pour 99 euros avec un engagement sur deux ans. (…) . Seulement voilà : même si le 5c ne vaut que 99 euros au début, les deux ans d’engagement rembourseront largement la différence, …



Hum, je trouve que vous vous avancez un peu beaucoup sur ce terrain étant donné qu’on n’a pour l’instant absolument aucune idée des forfaits qui seront proposés avec l’appareil. On se doute que ça remboursera l’appareil mais le “largement” est de trop. Concrètement, on m’avait dis ça quand j’ai acheté mon iPhone 4 subventionné chez Bouygues. Après calcul, ça ne m’a rien coûté de plus que si je l’avais acheté plein tarif, mais ça m’a évité de payer one-shot 600€ …

Donc à ce niveau wait&see.

Le 04/09/2013 à 09h 07







darkbeast a écrit :



Ces radars servent juste à amasser du blé de la part de monsieur tout le monde qui aura plus de chance de faire 1 ou 2 excès de vitesses à 45 km/h au dessus de la limite autorisé que de toper un un gros chauffard à plus de 4050 au dessus de la limitation.





Le mec qui est à plus de 4050 a largement plus de chance de se faire toper par des radars de tronçons que le type qui fait malencontreusement une pointe à +56 … Concrètement je trouve le principe de radars de tronçons largement moins cons que ceux actuels …


Le 29/08/2013 à 17h 11

Ah nan mais il y a pas à dire, réussir à sortir un truc pareil en gardant un air sérieux et confiant … il a du cran l’gars.

Le 29/08/2013 à 11h 40







MaK a écrit :



Une des raisons qui, selon moi, fait que iOS et bien moins infecté qu’Android c’est tout simplement le fait que toutes les applications iOS utilisent le framework fourni par Apple!

De ce fait pleins d’interactions sont juste impossible à coder sur iOS. Apple vous permet juste de faire un nombre limité de chose avec votre application.



Par exemple une application en fond de tache ne peut pas demander de ressource. C’est impossible. De ce fait ca limite de nombre de framework custom qui permettent des abus.





Si un framework de haut niveau peut faire des choses non-autorisées ou risquées, ce n’est pas le framework qui est en cause, c’est le système qui lui permet des opérations qu’il ne devrait pas pouvoir effectuer.





metaphore54 a écrit :



C’est là qui est le problème est-ce l’OS qui doit palier la carence de l’utilisateur ou c’est à l’utilisateur de s’adapter à l’OS ?



Pour moi aujourd’hui c’est l’OS qui doit s’adapter à l’utilisateur.





Ça a toujours été à l’OS d’être fiable, le principe c’est de faire des traitements automatiques, si on demande à l’utilisateur de prendre en compte tout un tas de sources de problème avant de faire quelque chose, c’est plus vraiment automatique.



Mais là on dérive un peu de ce que j’entends par robuste. Pour moi la robustesse pour un OS serait de garantir “ok, pour tout ce que tu me demandes, soit je le fais sans faire de boulettes et sans casser quoi que ce soit, soit je te réponds ‘non, c’est invalide : raison’ “.



Après il en va de définir la responsabilité de chacun : les systèmes très bas niveaux, je veux juste qu’ils gardent la mémoire cohérente, empêchent les accès non-voulus à la RAM, etc … Une bibliothèque, je veux qu’elle transmette les ordres à la couche d’en dessous en les combinant pour faire des choses plus complexes et sans créer de plantage. Mais cette couche d’en dessous ne peut en aucun cas être tenue responsable des conneries que pourrait faire la bibliothèque, c’est pas son rôle.



En revanche, si en passant par la bibliothèque on peut accéder à des choses qui ne nous appartiennent pas (en RAM par exmple), alors là, effectivement, le module inférieur est trop permissif.



Le problème actuellement c’est qu’on se trimballe des architectures immenses qui sont tout sauf modulaires (même Linux c’est une vaste blague à ce niveau). Evidemment, quand on a un programme monstrueux de plusieurs millions de lignes et qu’on a du mal à dire qui est responsable de quoi, garantir que le système est fiable c’est pas pour demain.


Le 29/08/2013 à 10h 55







ptit6sky a écrit :



Le système est robuste





Selon la définition que l’on choisit de “robuste” aucun système actuel ne peut être considéré comme tel. Et les systèmes dont on peut dire qu’ils sont (ou seront, en fin de création) robustes les gens n’en voudront pas car cela leur demandera de changer leurs habitudes (que ce soit pour les utilisateurs ou les créateurs de softs).


Le 29/08/2013 à 08h 45







teddyalbina a écrit :



Le code de Windows n’est pas publique ça ne veut pas dire que des tiers n’y ont pas accès. Il est assez diffusé au sein des structures étatique et des entreprises dites sensible qui veulent ou doivent faire de l’audit.





Je n’ai pas dit le contraire. Je dis simplement que le (relatif) secret de ce code, ainsi que son caractère fermé (au même titre qu’iOS), n’ont aucun impact sur sa sûreté, comme le laissaient entendre certains commentaires.


Le 29/08/2013 à 08h 36







Maxim Killigan a écrit :



Tu coupes le moyen de diffusion d’un problème, ça résout le problème, hein.



Tu ne veux pas te choper le SIDA et tu n’as pas de capote ? Ben tu baises pas.





Ça t’ennuie si je pige absolument rien à ce que tu racontes ? <img data-src=" /> .

Ce que je veux dire c’est que rien ne reste secret. Si c’est une clé, tu as juste à la changer suffisamment souvent. Si c’est un algo, il faut tu trouves un algo suffisamment robuste pour remplacer l’ancien, c’est moins facile.

Pour un OS, on peut faire le parallèle, si ta construction est connue et robuste par conception, elle est difficile à attaquer (et corriger les erreurs de programmation, ça se fait). Si ta conception est faible par nature et secrète, quelqu’un finira par trouver comme la traverser même sans savoir précisément comment ça fonctionne derrière.

Obscurcir un système, c’est perrave, ça marche pas (c’est la vie).


Le 29/08/2013 à 08h 21







DUNplus a écrit :



Windows est loin d’être fermer par rapport a un ibidule.



Bon, il est loin d’être ouvert aussi.





Peu importe, un système gardé secret n’a jamais été une sécurité efficace et ne le sera jamais.

Typiquement, en crypto les algos sont connus et simples, c’est les clés qui les rendent solides. Pour tout le reste, ça marche pareil.


Le 27/08/2013 à 13h 00

Ah on va enfin avoir un Win 8 complet ? Je vais attendre les retours mais ça sent déjà moins le pâté, peut être enfin moderniser ma machine.

Le 21/08/2013 à 08h 04

Le comité il a dit “femtocellules” !

Le 21/08/2013 à 06h 36

C’est bon … le football c’est assexué de toute façon <img data-src=" />

Le 09/08/2013 à 07h 40

Boh, la traduction du desimlockage n’est pas si horrible, le reste par contre je dois admettre …

Cela dit on reste vachement loin de l’infonuagique <img data-src=" /> .

Le 07/08/2013 à 13h 15







lol.2.dol a écrit :



“Vont il former les professeur dabord ?

Moi je me souvient que quand j’etait a college, mon prof de techno ne connaissé pas firefox, et utilisé encor des disquette ^^‘”

Si c’est un troll, respect! C’est fin, c’est beau!





Cela dit, il y a malheureusement du vrai là dedans …





Konrad a écrit :



Chut, il ne faudrait surtout pas que les élèves comprennent et maîtrisent l’outil informatique.



On veut des utilisateurs, des clients, des vaches à lait, pas des programmeurs ni des hackers…





Ne rendez surtout pas les gens intelligents !


Le 26/07/2013 à 11h 41







Superambre a écrit :



je ne connaissais pas NOOB j’ai regardé .. et j’ai vomi, que de médiocrité putain de merde qu’est ce que c’est médiocre



quand on à gouté à Dieudo le reste parait bien fade





Dieudo est mauvais.

… Tiens en fait c’est super facile de poster des commentaires parfaitement destructifs et sans intérêt.

Ce n’est pas parce que tu n’aimes pas que c’est le cas de tout le monde. Pour ma part j’adore cette série et je me fends bien la gueule devant.


Le 23/07/2013 à 09h 22







reevus a écrit :



Après je ne suis pas contre les petits pétards et les fusées, mais y’a vraiment certains produits (Bison, mini-compacts, etc…) qui peuvent être dangereux…





J’ajouterai par ailleurs que vu que les gens sont déjà pas foutus de se rendre compte que laisser des pétards, même petits, à des gamins sans surveillance c’est déjà hyper dangereux (pour eux et pour les autres), on va pas leur confier la responsabilité d’évaluer ce qu’ils peuvent, eux, utiliser.

L’idée de “laissez les se blesser s’ils sont débiles” c’est bien mais ça a ses limites : c’est aussi aux autres qu’ils peuvent faire du tord.


Le 18/07/2013 à 13h 25



une coalition d’entreprises réclame la transparence à Obama



PNG

Le 17/07/2013 à 17h 31



Si ça pouvait rendre plus aimables certains…



Si la majorité des gens pouvaient respecter ne serait-ce qu’un quart du code de la route ….

Le 12/07/2013 à 08h 07







Jet a écrit :



Es qu’il y a un réel intérêt de faire un raid de SSD pour améliorer les perf qui plus est sur ce genre de machine ?





Le SSD ne sera pas vraiment bridé par le processeur et la RAM quoiqu’il arrive. Donc passage en SSD = démarrage/extinction plus rapide, réactivité grandement améliorée pour une utilisation (sur ce genre de machines) de logiciels qui ne demandent généralement pas beaucoup de ressources mais dont on veut qu’ils soient là immédiatement quand on en a besoin.

Donc oui, je pense que ça a un réel intérêt. Après le RAID … Boarf de toute façon ça a jamais donné des gains linéaires …


Le 11/07/2013 à 08h 18



« préserver la santé physique et mentale de ses jeunes concitoyens »



Ah mais c’est pour ça mon cerveau l’est tout fondu ! <img data-src=" />

Le 10/07/2013 à 11h 07

Je crois que celle là je vais la suivre parce que ça va être vraiment drôle <img data-src=" />

Le 04/07/2013 à 13h 31







Lafisk a écrit :



Euh la par contre, qu’on m’arrête car je suis pas un grand spécialiste linux, mais justement si, Unity est aussi assez décriée dans le monde “linux” pourl e peu que j’en ai entendu parler





Oui, il s’est fait descendre et d’ailleurs il est toujours aussi naze et buggé.


Le 04/07/2013 à 12h 25







DDReaper a écrit :



Microsoft va continuer à améliorer le produit et les gens s’y feront :)





Parce que, comme d’hab, ils auront pas le choix.

Puis alors l’argument du “habituez vous à l’outil, ce n’est pas à lui d’être adapté à votre utilisation”, je le vois tellement que ça me fait halluciner. C’est à croire que si demain on nous amenait des voitures avec la direction à gérer avec les jambes et la vitesse avec les mains, tout le monde devrait y passer parce que c’est nouveau donc c’est forcément mieux …


Le 01/07/2013 à 08h 22

Comment ça ferait un super terrain de airsoft !

Le 27/06/2013 à 11h 22







zart a écrit :



Ksass`Peuk : “Oui mais ça, ce n’est pas spécifique à l’informatique. Cette histoire de gratification obligatoire a été à double tranchant : c’est bien de demander aux entreprises de donner un petit quelque chose aux stagiaires mais d’une autre côté les employeurs sont trop radins pour lâcher 430€ (exempts de toute charge ! Donc quedal quoi) à un stagiaire. Mais bon ça a touché tous les domaines.”

Pourquoi voudrais tu qu’une boite investisse du temps et de l’argent dans un pari risqué?





Prenons le salaire d’un dév PHP débutant : environ 2000€ brut/mois http://www.journaldunet.com/developpeur/algo-methodes/salaire-du-developpeur-web…

Tu rajoutes les charges et compagnie, il coûte environ 3000€ par mois à son employeur.

Ce qui veut dire que pour qu’un stagiaire soit aussi rentable, il faut qu’il soit environ 15% aussi productif qu’un développeur débutant. C’est risqué ça ?


Le 27/06/2013 à 07h 09







Skylive a écrit :



Étant étudiant en 1ère année dans une école d’informatique, je peine à trouver un stage… Les entreprises cherchent des stagiaires à payer au lance pierre (minimum légal : 436€) capable de faire le même boulot qu’un de leur développeur.





Oui mais ça, ce n’est pas spécifique à l’informatique. Cette histoire de gratification obligatoire a été à double tranchant : c’est bien de demander aux entreprises de donner un petit quelque chose aux stagiaires mais d’une autre côté les employeurs sont trop radins pour lâcher 430€ (exempts de toute charge ! Donc quedal quoi) à un stagiaire. Mais bon ça a touché tous les domaines.


Le 13/06/2013 à 08h 34

« les joueurs avant tout » . EA

<img data-src=" />

Le 06/06/2013 à 06h 45







Zerbus a écrit :



J’ai lu ça nul part dans l’article.





C’est en référence à ça :

“Les sondés ont ainsi répondu à leur sujet et à plus de 50 % qu’elles (FB et Twitter) sont des entreprises dont le développement les inquiète. Google, Amazon et Apple n’ont récolté qu’entre 11 et 13 % des voix pour ce même type de caractéristique.”



Moi j’en déduis qu’environ 12% n’ont pas d’inquiétude quand au développement de Google.



EDIT : Rooooh ! On peut pas mettre de quote dans les quotes ?!


Le 06/06/2013 à 06h 25

Donc les gens ne sont pas le moins du monde inquiétés que Google aie à peu près la main partout dans internet, ah mais non c’est vrai : Google sont gentils et ne feraient jamais quoi que ce soit de déplacé…. <img data-src=" />

Le 29/05/2013 à 08h 34







megadub a écrit :



Oui, donc 4 disques mirrorés = 4To <img data-src=" />



Les disques sont mirrorés par pair ;)











nucl3arsnake a écrit :



Bien fait de regardé page 2, j’allais dire la même chose xD:





En fait, tu as le choix puisque que l’idée c’est de faire des répliques avec n &gt;= 2. Donc tu peux avoir 1, 2 ou 4 To de stockage avec 8 disque de 1To en RAID 1.