votre avatar

Soraphirot

est avec nous depuis le 29 mai 2018 ❤️

459 commentaires

Le 27/05/2020 à 12h 27


nitr0o a dit:


comment tu rajoutes du 10Gbit sur tes Lenovo, avec un adaptateur USB ? C’est fiable ? Je suis curieux.

Le 27/05/2020 à 07h 17


CR_B7 a dit:


Sauf que quand le principal concurrent montre qu’on peut avoir une gamme complète avec du matériel et du logiciel à jour, ça fait tâche. On parle de la beta DSM 7 depuis fin 2018. Si Synology n’avait pas accumulé tant de retard, on aurait peut-être déjà un DSM 7 stable. A la place Ces derniers se contentent de sortir des modèles qui changent timidement de processeur, des fois d’un peu plus de ram. QNAP eux passent aux interfaces multigig, à des processeurs Intel sur la majorité de la gamme et des nouveautés sur leur système.

Le 26/05/2020 à 12h 35


David_L a dit:



Si c’est bien le chipset, toutes les machines équipées de ces puces ont le même “souci”. Par contre les C2x6 gèrent bien l’igp. Je me suis fait eu justement en mettant un E3 1265L v2 dans mon microserver gen 8 en me disant “trop bien la conso de Plex va baisser”. Et je me suis fait eu aussi en prenant une gt1030. :D

Le 26/05/2020 à 10h 02

Juste pour information : les chipsets C2x2 ne supportent pas les igpu, ce qui signifie pas de quicksync. Pour un serveur multimedia c’est la plaie parce que les options sont pour la plupart pas adaptées à ce form-factor.
Chez nVidia il faut taper mini dans les GT1050 pour décoder/encoder en 4K (la GT1030 n’encode pas), ce qui est déjà trop gros/consommateur. On peut aussi prendre du Quadro, mais le prix est ridiculement élevé pour de si petites cartes (160€ une P400).
Chez AMD, j’ai jamais bien compris quelle puce permettait quoi niveau encodage/décodage. Apparemment il faut minimum une RX550, du coup on tombe dans les même travers que la GT1050. De plus si vous montez un Plex officiellement les AMD ne sont pas supportés.

Le 22/05/2020 à 12h 50

j’ai une puce Killer sur ma mobo, tant que j’installe pas le driver fourni avec le cd d’install tout va bien, sinon c’est interface dégueulasse à la Metro-like en flash buggé et pas de réseau fonctionnel :D

Le 20/05/2020 à 09h 51


patos a dit:


tu trouves l’argent… Certaines choses n’ont pas de prix…


Ça c’est facile à dire. Pour beaucoup 600€ c’est un loyer.

Le 20/05/2020 à 08h 21


patos a dit:


Quand un disque dur claque par un choc électrique (surtension, foudre, …) tu peux récupérer les données dessus.


Si tu as plusieurs centaines d’euros oui. Mais en toute honnêteté quel est le pourcentage de personnes qui vont envoyer un DD perso en salle blanche ? Pour monsieur tout le monde un dd HS c’est perdu point final.

Le 18/05/2020 à 09h 05


Scylune a dit:



horrus a dit:


Epic a indiqué que c’était juste une démo pour montrer les capacités de leur moteur, ils ont aucun projet d’en faire un jeu complet. Et pour le coup du bouton triangle qui apparait, c’est tout simplement parce que c’est une démo de gameplay, pour montrer que ce n’est pas pré-rendu.

Le 14/05/2020 à 11h 59


secouss a dit:



ouais enfin partager les ressources entre les jeux c’est remettre en question le principe même des installations logiciels sous Windows. Du coup c’est pas vraiment à eux de faire cet effort mais à MS de revoir ça. Ensuite côté console c’est un poil plus compliqué, tout est cloisonné au maximum pour éviter que les gens fassent n’importe quoi donc mettre des ressources en accès libre pour tout jeu c’est une surface d’attaque trop risquée si on laisse les dev faire ça (parce que ça sera mal fait, c’est une certitude) ou une taille du système qui explose car c’est le fabricant qui doit gérer l’ajout des dites ressources (et du coup risquer qu’un jeu pas màj ne marche pas si eux mettent à jour la ressource dispo etc… le bordel quoi).



Par contre la fibre obligatoire faut arrêter 5min. Si c’était aussi ignoble personne ne jouerait en ligne en dehors des grandes villes et que je sache une énorme partie de la population française n’y vit justement pas.
(je ne dis pas que c’est injouable, juste qu’il y a un monde entre “c’est jouable” et “c’est chiant”).

Le 15/05/2020 à 13h 40


David_L a dit:



Ah je suis tout à fait d’accord, c’est juste que j’aurais utilisé un autre concurrent pour la comparaison pour le coup.

Le 15/05/2020 à 12h 53


David_L a dit:



Certes il y a un manque d’info sur les évolutions à venir, mais côté Syno la roadmap elle est aussi suivie que les paroles de nos politiciens en campagne donc bon :D

Le 15/05/2020 à 11h 28


David_L a dit:


C’est pas un peu mesquin de parler de retard d’ADM par rapport à DSM 7 alors qu’on attend toujours la beta depuis plus d’un an et que Synology passe son temps à le repousser, si ce n’est carrément essayer de le faire oublier ?

Le 14/05/2020 à 07h 40


ForceRouge a dit:


mettre un Ryzen 3th Gen sur un B450, ce n’est que du feeling, mais j’ai l’impression que c’est du bricolage, et pas cohérent avec mon billet de 1500€.


C’est ton feeling comme tu dis. Certains vont vouloir maximiser les perfs brutes et se fichent des options fines des cartes mères. Ils n’auront aucun mal à prendre une mobo de la génération d’avant. Certains cherchent juste le rapport qualité/prix et d’autres changent tellement rarement de configuration qu’ils sont pas à une génération près.




ForceRouge a dit:


J’ai l’impression d’être pris en otage par AMD.


Honnêtement c’est un peu de la mauvaise foi quand le concurrent d’en face pratique le “une génération = une gamme de chipset et rien d’autre”. Et surtout quand leur toute nouvelle gamme qui sort est accompagné uniquement du Z490, le plus haut de gamme.




ForceRouge a dit:


Mais qui change de CPU sans changer de mobo?


Ceux qui font des upgrades étalées sur le long terme. Ceux qui achètent un processeur trop faible car le budget est trop serré mais le besoin urgent. Ceux qui tombent sur une bonne affaire.
En vérité, si les gens changent de carte mère en même temps que de processeur, c’est uniquement parce que Intel nous a fait croire pendant très longtemps que c’était la seule manière d’en profiter correctement. Si ton but est uniquement de gagner des perfs cpu/gpu pour une utilisation particulière, pourquoi changer la mobo ? Par exemple j’aurais bien besoin d’un upgrade cpu pour faire tourner Cities Skyline correctement (quelle idée d’installer 50 mods et trouze milles assets) et si j’avais la possibilité de mettre une gén plus récente que mon i5 4670k, j’hésiterais pas une seconde. Mais c’est pas le cas et je dois changer mobo et ram, c’est trop cher pour moi.




ForceRouge a dit:


En plus avec les histoires de fréquences de RAM qui doivent être en accord avec le CPU pour être optimisé


Ça c’est parce que tu en as une utilisation précise. Pour beaucoup cette relation n’existe pas. Et à vrai dire à moins d’overclocker le plus finement possible ce n’est pas très grave. Tu ne vas pas perdre en performances parce que le processeur nouvelle gen est moins à l’aise avec la fréquence de ta ram (aller au pire 1 ou 2 % en dessous de son potentiel, mais en vrai t’as déjà vu un proco ne pas supporter une fréquence ram que le modèle précédent gérait, à gamme égale ?)




ForceRouge a dit:


si je prend un high-end gen X, je pense pas que passer au high-end X+1 ou X+2 soit vraiment rentable, surtout que le chipset sera ancien et n’exploitera pas le potentiel du CPU (lanes pci-e 4 par exemple).


Si on mets de côté les évolutions matérielles, qui ne sont pas si fréquentes, qu’est-ce qui empêche d’exploiter le potentiel du cpu ? Il atteindra sa fréquence max, il fera tourner tous ses cœurs. Et il est pas rare que les nouveautés introduites par une gamme de chipset soient assez anecdotiques, juste de quoi dire “la nouvelle gén a une nouvelle fonction, il faut acheter”.




ForceRouge a dit:


mais aussi tellement useless en pratique… (gagner 5mn sur un rendu 3D, pour le commun des mortels, c’est useless) Donc finalement, il ne reste que les jeux (où un chrome avec 200 onglets) pour justifier un choix de CPU et 8 core intel, ou 8 core/16 thread AMD, ca ne change pas grand chose finalement pour les fonctions a coté du jeu.


Faut arrêter de penser “mono-tâche”, un pc aujourd’hui ça fait beaucoup de chose en même temps. Multiplier les cœurs, c’est multiplier le nombre de soft que tu peux faire tourner sans créer une file de process monstrueuse. Vaux-t’il mieux avoir 1000 threads sur un cœur ou 250 threads x 4 ? Quand je vois ma copine lancer Visual Studio, Unity, MS SQL Server, ses 3-4 softs de dessins/pixel art et firefox blindés de Youtube, le tout de façon fluide, c’est pas parce que le proco peut monter à une fréquence folle, c’est parce qu’il a 6 coeurs/12 threads. Et c’est pas un cas isolé, je pense dire sans trop me tromper que c’est le cas de tous les gens qui se lancent dans le développement en indépendant.




ForceRouge a dit:


Pour la virtu, c’est vrai, mais on revient encore à la question, qui fait un usage intensif de virtu sur son PC?


Mon NAS fait tourner une vingtaine de containers et (pour l’instant) 2 grosses VM. Un pc ça a bien des formes différentes.



Le but c’est pas d’invalider ton propos qui, comme tu le dis, représente ton point de vue, qui en est un comme un autre. Mais il existe aussi une multitude de points de vue différents tout aussi valables.

Le 13/05/2020 à 08h 28


KP2 a dit:


il a pratiquement fait l’impasse sur les réseaux virtuels.


Je vois pas trop le soucis dans la gestion du réseau. C’est assez facile de créer un réseau bridgé ou non. Si tu veux NATer il faut faire de l’iptables mais ça reste du iptables assez trivial.

Le 04/05/2020 à 11h 06


ChatNoir a dit:


Si on simplifie l’alim, ça va complexifier les cartes mères qui seront en charge de créer les tensions pour le CPU etc.


C’est déjà le rôle de l’étage d’alimentation de ta carte mère, qui convertit le 12V en 1V~1,5V.



Par contre les SSD M.2 ont l’air de fonctionner encore en 3.3V, je suis curieux de savoir si il est déjà obtenu par conversion ou si ils utilisent le rail 3.3V.

Le 27/04/2020 à 10h 02


eglyn a dit:


A côté y a des portables avec des 2060 pour la moitié du prix…
Mais pas 13”. Ni Core i7.


C’est une machine qui ne fait aucune concession normal que son prix soit élevé.



Pour le GPU je pense qu’il devient compliquer de mettre plus gros sans alourdir la machine. De plus les ultra portables sont fait pour vendre des boitiers GPU externes et Razer en propose un, donc le calcul est rapide.

Le 20/04/2020 à 13h 38


(quote:46278:Aristide Rutilant)


Certes, mais on peut aussi décider de prendre un proco d’occaz pour une upgrade à court terme ou tout simplement parce que le budget est réduit.

Le 20/04/2020 à 13h 29


Shamaan a dit:


faire passer le réseau internet par les cartes actuelles qui tiennent sans problème le 1G et faites passer les échanges en réseau local de fichier par les cartes 10G ?


Oui, assez simplement. Il suffit d’utiliser une plage IP différente de celle de ton réseau actuel pour les cartes que tu rajoutes. Ainsi tout ce qui concerne par exemple les adresses en 192.168.0.X et internet passeront par l’interface réseau 1G et tout ce qui sera partage de fichiers que tu auras réglé sur 10.0.0.X passeront par l’interface 10G (par exemple en tapant \10.0.0.X\monpartage\vidéos).



Pour ce qui est des VM il n’y a pas trop de soucis côté réseau, peut-être côté disque si tu fais trop de VM non pas à cause de la couche virtualisation mais la couche OS, qui peut être assez gourmande. Hésite pas à regarder ce qui se fait côté conteneurisation (Docker/LXC/…) qui permet justement de faire quasiment disparaitre cette couche (j’ai actuellement 11 containers + 1VM sur un seul serveur en Raid1 et j’ai aucune perte de performance)

Le 02/03/2020 à 08h 32


Patch a dit:


Qui reste confidentiel et qu’on peut facilement basculer en version plus “classique” si je ne me trompe pas.


Exact, mais ils ont tenté. Si il avait été plus populaire, qui sait comment aurait évolué les choses. De mémoire MacOS est déjà en train d’appliquer une politique à la smartphone en autorisant par défaut uniquement son store comme source d’installtion.

Le 28/02/2020 à 08h 10


essa a dit:


pour crosoft cela s’appel un WPA en passant par son store… Mais ils ont pas encore eu le culot d’aller plus loin en interdisant les appli x32/64.


T’as oublié Windows 10S.

Le 27/02/2020 à 16h 15


Shadowman_2k3 a dit:


Sinon en soit, tout ce que tu développes, tu peux installer l’apk sans passé par le store. Le nombre d’applications développées pour des utilisations exclusivement internes aux boites, yen a un paquet, pas besoin du store.


Vrai pour Android, pas pour iOS. développer pour iOS nécessite un compte développeur chez eux (100 balles par an pour un particulier, une boite je sais pas) et les appli internes ont quand même besoin d’être signé par Apple, mais les règles sont beaucoup moins strictes, ce qui a amené certaines boites à truander et mettre sur l’appstore des applis validées avec la signature d’entreprise, cf l’histoire de l’appli Facebook qui “payait” pour espionner.

Le 28/02/2020 à 10h 26


fofo9012 a dit:


Un switch KMV commence à 20balles


Certes, mais va trouver un kvm qui gère le double écran.

Le 18/02/2020 à 10h 34


ClementNerma a dit:


Il y a un truc que je pige pas… 200 exemplaires sont produits mais seuls 77 seront disponibles (via un concours) ? Que va-t-il advenir des 123 cartes restantes ?


cadeaux aux influenceurs et certains hauts placés chez nVidia. Méthode classique.

Le 10/02/2020 à 09h 37


Kiroha a dit:


Je n’ai pas dit que c’était une mauvaise solution, on est d’accord. Mais elle n’apporte rien de plus que la concurrence si tu n’est pas déjà dans un environnement Windows et que tu fais tourner des services spécifiquement Microsoft. Elle est même contraignante car plus compliquée à administrer dans le cas inverse (alors qu’administrer du Linux sous Win était déjà simple avant, mais est devenu d’une facilité déconcertante depuis l’ouverture de MS au monde Linux) C’est pas pour rien que Win Server représente une part minime des serveurs dans le monde.

Le 07/02/2020 à 12h 41


Kiroha a dit:


OK HyperV c’est pas mal, mais en toute honnêteté, son seul intérêt c’est de de se fondre dans une infra majoritairement Windows et de permettre 2 VM pour une seule licence Windows (dont celle de l’hyperviseur).



Une infra Windows c’est bien pour ce qui est administration des postes (AD/stratégies/partages de fichiers/etc…) et c’est à peu près tout. Et je parle en connaissance de cause, j’administre 3 HyperV à mon taff.

Le 07/02/2020 à 14h 10


Boulonais a dit:



Le cycle de vie des consoles concerne les générations, pas la machine physique. La 8eme génération a bien une durée de 6-7 ans, les consoles sorties durant ce laps de temps permettent toutes de jouer aux même jeux, qu’elles soient Pro ou non.


Le 07/02/2020 à 08h 45


horrus a dit:


Non, l’intérêt de leur service Now (contrairement à Stadia effectivement) c’est de se baser sur les jeux que tu as déjà acheté sur Steam/Origin/etc… . Par conséquent, une fois que le jeu est optimisé pour leur système, il le restera. Tu pourras l’installer sur ta session (apparemment ça marche un peu à la Shadow de ce que j’ai lu).

Le 06/02/2020 à 08h 51


fofo9012 a dit:


à vue de nez vu le peu d’information sur la carte je dirais qu’il s’agit de la même chose que la W5700, à savoir juste une sortie DP utilisant l’alt-mode de l’usb-C. Elle permet aussi d’alimenter un périphérique (typiquement l’écran branché dessus) mais ne sort que 15W.

Le 28/01/2020 à 15h 19


cep a dit:



Et appuyer sur la touche espace tout court c’est pas suffisant ?


Le 28/01/2020 à 13h 09


DanLo a dit:



Alors à vérifier car personnellement je tourne sous Nextcloud et je ne sais pas à quel point il se différencie d’Owncloud mais il il y a bien une gestion des versions de fichiers. Elle est d’ailleurs activée par défaut et sans limite de versions (découvert dans la douleur quand j’ai eu la bête idée de mettre un fichier pst encore ouvert dans Outlook dans mon dossier synchronisé). Par contre on n’y accède que via l’interface web, pas le client

Le 22/01/2020 à 16h 21


Meptalon a dit:


Parce qu’à l’exception de rares modèles chez Qnap il n’y a que de l’Intel en x86. Certes c’est un abus de langage mais comme on parle d’appareils grand public ici c’est plus parlant.

Le 22/01/2020 à 16h 18


Meptalon a dit:


c’est pas de la redondance le RAID hein. Ça permet de se prémunir d’une (ou plusieurs) panne de disque dur au mieux, mais ça ne remplace pas une redondance ou sauvegarde.

Le 22/01/2020 à 16h 13


tazvld a dit:


Il y a pourtant un marché, comme peut en témoigner les multiples services de location de serveurs pour jeux existant déjà. Il suffit detaper “rent game server” sur Google pour avoir une bonne liste.



Par contre comme mes vdd je trouve la tarification un peu élevée. Après ça semble pas déconnant vu les caractéristiques. Ça peut être une bonne idée pour une asso souhaitant organiser une grosse LAN sans avoir à acheter une machine sérieuse à la limite.

Le 14/01/2020 à 12h 55


OlivierJ a dit:


Quand tu arrives à avoir une connexion Wifi dans une boîte, tu n’as accès à rien faute de compte et de mot de passe.


T’as jamais vu le réseau d’une petite entreprise. Entre les boites qui n’ont pas le budget pour faire ça correctement et celles qui n’en n’ont rien à secouer t’as largement le choix. Et tu n’es pas à l’abri si tu bosses dans l’informatique, suffit de faire un tour sur des reddit pour voir des trucs qui ferait vomir Satan (je repense notamment un a gars qui découvrait que la boite de dév qu’ils avaient acheté utilisaient un compte Dropbox comme gestionnaire de source ET stockage en prod, que tout le monde avait lecture/écriture sur la totalité et qu’ils étaient arrivé à 100To d’abonnement sans rien dire à personne).



Pour le coup la lumière ça s’éteint, c’est un réflexe, contrairement au wifi. D’autant plus que généralement le seul moyen de couper l’alimentation des tes points d’accès est de couper le switch PoE.



Et puis si dans le cas particulier de l’aviation le LiFi peut être envisager pour remplacer le WiFi, ce n’est pas le cas pour une utilisation plus classique. Son grand intérêt est d’autoriser une connexion “simple” comme le wifi tout en empêchant des accès non autorisés, comme par exemple les gens derrière le mur. On peut tout à fait imaginer un cas ou une équipe travaille sur un projet sensible auquel les autres n’ont pas le droit d’accès (par exemple un contrat avec l’armée). Avec le LiFi tu peux offrir à cette équipe de bosser sans câble dans leur bureau et tu seras certains que le réseau ne pourra pas être capté en dehors de cette pièce.

Le 13/01/2020 à 10h 50


OlivierJ a dit:


Idem, j’ai du mal à comprendre comment le LiFi serait plus léger que le WiFi.


Un seul équipement au lieu de deux.




OlivierJ a dit:


Côté sécurité, si c’est pour un avion, heu comment dire… on va pirater depuis les ailes ?


Ou depuis la seconde classe hein.




OlivierJ a dit:


Qu’appelles-tu “pirater un wifi” (à part avoir un accès Internet gratuit) ?


Accéder aux ressources de l’entreprises, les BDD, partages de fichiers… Certes il faudrait mettre d’autres mécanismes de sécurité sur le réseau, mais malheureusement pour certaines entreprise, le mdp du wifi suffit… Et puis si tu arrives à t’immiscer sur un wifi protégé tu est normalement assez expérimenté pour casser les autres sécurités.




OlivierJ a dit:


Le WiFi ça s’éteint aussi bien qu’un “LiFi”.


Qui le fait, honnêtement ?




OlivierJ a dit:


Et puis quand je lis ceci, franchement quelle rigolade :« des débits maximums de 100 Mb/s. Sa couverture est de 12m² lorsqu’il est placé à deux mètres de hauteur. »


Extraire la seule phrase qui parle de 100mb dans un paragraphe qui explique que ça fonctionne à 1Gb/s maintenant c’est un tout petit peu de la mauvaise foi. Aurait-on dû abandonner le wifi à son arrivée avec ses 27Mb/s anémiques alors que le gigabit ethernet sortait au même moment ? Et pour la portée c’est justement le but recherché qu’elle soit limitée.

Le 10/01/2020 à 11h 37

Vous êtes au courant les gens que c’est juste une illustration la lampe hein ? :D



Il s’agit clairement d’une solution destinée au monde pro, pas la peine de vous étouffer de rire à imaginer ça chez vous. Les cas d’usage sont assez facilement imaginables :
-alléger effectivement les avions tout en offrant le même service
-offrir une plus grande sécurité du réseau car impossible de pirater le réseau sans être physiquement présent sous la source de lumière. Et la nuit on éteint la lumière, c’est écolo :) (alors que le wifi ça tourne H24)

Le 14/01/2020 à 09h 51


fofo9012 a dit:


Je n’ai pas compris c’est un système dans le cloud où tu loues un NAS virtuel ? ça veut dire quoi 7€/core ?


C’est une licence logiciel pour le système d’exploitation, comme Windows. Tu l’installes où tu veux après, machine physique, virtuelle ou dans le cloud.

Le 14/01/2020 à 09h 49


David_L a dit:


Ces produits existent déjà, mais c’est surtout des produits à destination des Pro vu que c’est là qu’est le besoin/la demande. Après tu trouves quand même facilement du double LAN sur l’offre grand public (même en ITX, bien que ce soit plus rare).


Comme tu le dis c’est principalement destiné au marché pro. Pour le grand public le matos un peu orienté serveur commence vite à chiffrer pour pas grand chose des fois (+100€ pour des boitiers mini itx à la conception souvent spartiate juste parce qu’on peut mettre une baie pour 4 DD euh…). J’espère justement une amélioration de ce côté.

Le 13/01/2020 à 16h 14

Ce que j’espère de ce move marketing c’est de voir l’offre de matériel adapté à une utilisation serveur se développer un peu plus vite. Donnez nous plus de mobo itx avec 2+ interfaces réseaux !

Le 13/01/2020 à 14h 44


aldwyr a dit:


les leur fait maison ou toute genre Plex ?


Plex ne gère que les IGP Intel et GPU nVIdia pour l’accélération matérielle. Pour les Radeon aux dernières nouvelles c’était possible mais que sous Windows, pas Linux.
Donc à mon avis l’accélération sur de l’ARM avec Plex c’est pas demain.

Le 11/12/2019 à 07h 56

C’est ultra plébiscité les casques pour le multi en ligne (FPS notamment). Regardez un peu de streamers ou de compétition et vous verrez que personne ne joue sans casque. Les joueurs dépensent une belle somme dans leurs casque la plupart du temps et ne veulent pas avoir à racheter un modèle pour une autre plateforme alors les constructeurs se sont adaptés. La PS3 pouvait déjà accueillir des casques en USB de mémoire (la X360 j’en sais rien j’en ai pas eu :hap: ).

Le 10/12/2019 à 16h 47

non, c’est pour les gens qui jouent au casque, hyper fréquent pour le multijoueur.

Le 06/12/2019 à 08h 18


OlivierJ a dit:


Là je ne te suis pas :


Oui on fait un Raid0, et ça implique tous ses défauts :
*Lorsque que l’on écrit en raid0 on découpe la donnée sur X disques. Là on va donc découper l’information sur X clusters sur X faces de disques. Lorsqu’un cluster va se corrompre (ce qui arrive facilement et est géré tout aussi facilement par les DD) on va donc perdre X clusters car les têtes ne pourront plus utiliser les clusters en parallèle au défectueux.
*Si on perd un disque d’une grappe Raid0, toute la grappe tombe. Ici donc si on perd une tête, on ne perd pas l’équivalent en données d’une surface (ce qui est déjà catastrophique) mais bien la totalité du disque. Aujourd’hui on a pas mal d’outil qui permettent d’essayer de sauver les meubles avec les disques durs classiques mais là ça se traduit par récupération en salle blanche obligatoire.

Le 05/12/2019 à 12h 10

Il y a plusieurs raisons qui empêchent de séparer les bras à mon avis.
La première c’est que les fabricants utilisent un système d’aimants pour bouger les bras, qui sont assez conséquents (https://spectrum.ieee.org/image/MzI1MDI0OA.gif). Si les rétrécir ne semblent pas impossible (Seagate a bien dû le faire pour son système) il doit y avoir un risque de créer des champs magnétiques parasites si on les multiplie trop.
Le deuxième soucis c’est que les bras ont besoin d’être absolument droits pour éviter le moindre mouvement qui pourrait rayer les disques. En réduisant la surface au contact de l’axe de rotation, on augmente le risque d’avoir ce mouvement.
Encore une fois je ne suis pas spécialiste là dedans et je serais ravi qu’on m’explique que ces contraintes n’en sont pas.



Par contre pour le coup des têtes de lectures qui lisent en même temps là je suis sûr de mon coup : Si on devait permettre au disque d’utiliser ses X têtes en même temps alors ça veut dire que les données doivent être partagées équitablement entre chaque surface des disques, ce qui revient à faire un simili RAID0. Et si un secteur d’un disque devient corrompu, alors ce sont X secteurs qui deviennent inutilisables. Et si une tête rend l’âme on perd tout le disque. Beaucoup trop risqué.

Le 05/12/2019 à 08h 56


barlav a dit:


J’y suis arrive avec un simple paint: Il faut revoir la longueur du DD un peu, mais une tete de chaque cote c’est jouable…. :fumer:


Ouais donc créer un nouveau format qui rend de facto le produit incompatible avec tout les boitiers/emplacements disques existants. Je suis pas persuadé que ce soit une solution.

Le 05/12/2019 à 08h 09


DayWalker a dit:


Ca aurait été pas mal de mettre deux têtes opposées (position) qui lisent les mêmes plateaux


Oui mais ça implique de revoir complètement la disposition interne d’un DD parce que dans l’état actuel il est impossible de rajouter un bras (pour rappel à l’intérieur c’est ça https://previews.123rf.com/images/photochicken/photochicken1602/photochicken160200278/52423843-open-inside-hard-disk-drive-hdd-computer-hardware-components-.jpg).
Je ne vois pas comment juxtaposer deux bras indépendants sans qu’ils se gênent et surtout sans faire de concession sur la capacité de stockage (parce que si on réduit les disques oui c’est faisable, mais qui en voudrait ?). La seule solution qui me vient à l’esprit serait d’assigner les bras à des zones précises (un à l’intérieur des disques, l’autre à l’extérieur) mais ça revient exactement à la solution de Seagate en plus chiant.



Maintenant je suis pas ingénieur, mais je pense que si un mec arrive à coller deux bras opposés sans concession il est le roi du pétrole.

Le 04/12/2019 à 15h 16


CryoGen a dit:


Donc si je pige bien, le Mach2 ce n’est pas un gain de performance, mais un gain… de place.


Comme dit l’article, ça dépend de ton point de vue. Tu peux considérer gagner des perfs pour la même place occupée ou bien gagner de la place pour les mêmes perfs données.
Oui un RAID 0 permet la même chose, mais tu utilises 2 emplacements DD, contre un seul ici. Dans le cas d’un boitier limité en place, tu auras bien un gain de perf car tu doubleras le nombre théorique de disques durs.
On se retrouve au final un peu dans le même cas qu’avec les disques durs SMR qui impliquent aussi un changement des pratiques (le système hôte doit agir autrement pour utiliser convenablement le DD) mais comme on est dans un cadre pro, c’est pas “grave”.

Le 04/12/2019 à 10h 54


OlivierJ a dit:


Je ne pige pas pourquoi le disque n’est pas montré (à un ordinateur) comme un disque normal (alors qu’il montre séparément ses 2 parties) ; c’est plus simple, et le fait qu’il y ait 2 (groupes de) têtes de lecture ne fait qu’augmenter les performances.Après tout, un SSD qui fait naturellement de la répartition d’écriture sur plusieurs puces physiques (d’où les perfs encore plus élevées) est montré comme un seul disque, on n’aurait pas l’idée d’en montrer plusieurs.


Pourquoi réinventer la roue quand il existe déjà un moyen efficace de le faire ? Il s’agit de modèles destinés aux entreprises car SCSI, il est plus avantageux pour eux d’utiliser une technologie éprouvée que d’essayer de concevoir un contrôleur spécifique. Dans un second temps si le prix du produit permet une commercialisation pour le grand public ils le feront peut-être.

Le 27/11/2019 à 12h 57

j’ai mis 10min à comprendre qu’il s’agissait de la même scène quand même.

Le 21/11/2019 à 09h 44


wanou2 a dit:


Vous pensez qu’une petite machine basé sur un APU Ryzen 3 2200G ou même un Ryzen 5 2400G est suffisant pour jouer correctement à fortnite (actuellement il joue sur sur switch) ou à Minecraft.


Oui, les chipsets AMD sont largement capables pour ces jeux là. Ce sont des jeux optimisés pour tourner sur les machines les plus chiches afin de toucher un maximum de monde dans des conditions corrects. Fortnite tournera facilement à 60fps avec des réglages moyens+ et Minecraft n’a jamais été consommateur de ressource graphique (à moins que ton fiston s’amuse à modder le jeu avec les shaders 4k de le mort qui tue mais j’en doute :D ).