J’ai toujours maudit les gens qui préfèrent gagner un peu de temps (enfin, celui de l’ordi) en compressant en mauvaise qualité, plutôt que de compresser en bonne qualité une fois pour toute une fichier qui peut être relu un certain nombre de fois, surtout si on le distribue.
Si la conversion prend la nuit, et bien tant pis, ça n’a aucune importance.
Oui enfin mettre deux semaines à reencoder 15 films ça me soûle, surtout en été (100% cpu ça chauffe).
c’est le principe d’une qualité suffisamment bonne ;) et franchement je trouve l’encodeur nvenc des rtx très bien, bien meilleur qu’avant.
Le
07/07/2020 à
20h
50
XXC a écrit :
La comparaison divx / mpeg2 tiens toujours, malheureusement.
Pour obtenir leur gains en compression on perd généralement en piqué, et a mes yeux ca reste visible pour toutes les évolutions.
On a de plus en plus de fonds baveux (aplat au lieu de grain du film), mais, chouette, on peu faire passer tenir 2H de 8K sur un CD..
Je t’invite à encoder une source Bluray (>50Go) en HEVC avec x265 CPU uniquement en preset slow, débit 4mbps hors son. Le résultat est pas mal… (si tu réponds dans moins de 24h à ce message, soit tu bluffes soit tu as un threadripper)
Les encodeurs matériels sont mauvais mais suffisant. Parce que personnellement, passer 20mn à encoder sur ma 2070super me convient plus que 18h sur mon CPU 6 coeurs, donc j’accepte la légère perte de qualité.
Le
07/07/2020 à
09h
44
DoWnR a écrit :
J’sais pas, chez moi l’AV1 utilise la partie 3D du GPU d’après le task manager alors que le VP9 utilise la partie Video Decode " />
Ton support AV1 est logiciel avec extensions opencl ou cuda, alors que ton vp9 est purement matériel: ton ordi donne la vidéo à la carte graphique qui en chie des images, sans aucune implication cpu.
Le
07/07/2020 à
09h
42
jb18v a écrit :
ce qui m’interroge à chaque fois c’est la limite en résolution d’un codec donné, ça marche comment ? Il n’est pas efficace si on a trop de pixels en même temps ?" />
Hormis pour le fun ( " /> ), qu’est-ce qui n’empêcherait de faire du 4K en MPEG2 par exemple ? (enfin les logiciels et le codec doivent imposer la limite justement).
+1 avec Citan666
Ce n’est pas une limitation mais un usage prévu pour. Ton codec sera plus efficace pour les cas prévus, ce qui ne veut pas dire qu’il sera inutilisable en dehors : il ne sera juste pas optimisé pour.
en 720p par exemple, rien ne te dit que ton h265 et h266 auront la même qualité pour 50% de la taille d’origine . T’aura peut être besoin de 75% de la taille
Le
07/07/2020 à
09h
16
SirGallahad a écrit :
Au vu du degré de programmation possible sur les puces graphiques actuelles, une maj par driver est envisageable. Par contre je doute que les fabricants de smartphones la propose si elle existe un jour.
Non. La décompression logicielle peut être aidée par le matériel mais ça ne vaudra jamais un décodeur matériel pur, câblé pour. Le calcul par gpu ne fait de miracles que dans lez cas prévus pour. La décompression vidéo n’en fait pas partie.
Quel genre de retours (à part "oh ça marche" je veux dire ) ?
Les spécificités liées à l‘architecture (entre autre avec l’affinité des coeurs contrainte par l‘architecture Les fonctionnalités standards mais loin d’être simples: PCI passthrough, vmotion, srv-io, memory balooning Comment se réparti l‘iSCSI Software sur les coeurs? Fait-il également attention aux affinités requises? La perte de performance liée à la mise à étalon d’un cluster (compatibilité limitée à un modèle plus ancien de processeur, pour s‘aligner sur le moins-disant) L’impact des IO sur les temps de masquage CPU, surtout en forte charge (genre coucou, je tire 4*10G plein débit pour écrire sur des SSDs PCIe, est-ce que mon port série rattaché ne va pas perdre un tick? C‘est la question à 200€ par port série (moxa nport 5110 s’il y a le problème).
Pleins de questions à laquelle, personnellement, je n‘ai de réponse que sous Intel, qui a toujours été plus avantageux techniquement et financièrement pour moi (moins de coeurs plus rapides coutent moins chers en licence vsphere/windows datacenter/sql server que pleins de coeurs moins rapides, et sont plus efficaces en monothread, sur les mauvais logiciels)
Bref, beaucoup de questions qui sont peut être onéreuses à y répondre, mais qui sont surtout bien plus onéreuses si on se trompes… Et j’ai pas trouvé beaucoup de retour pointus sur du threadripper/epic: en général c‘est "yeah it roxxx blablabla". Le reste est noyé dans les KB VMWare…
Le
07/07/2020 à
20h
56
(quote:47925:Fab‘z) J’ai pu tester ESX7.0 et le nesting sur un 3900X. Ba ça fonctionne farpaitement bien :) Le XT sera pour moi ! Bon par contre 100€ de plus chez HFR… c‘est discutable.
Si tu t’emmerdes et que tu as envie de faire un retour sur de l‘ESXi et ses capacités sur AMD, je suis preneur personnellement.
aient pu pousser une mise à jour vérolée aux terminaux à l’insu d’Encrochat…
La seule condition était que les forces de l’ordre aient un cadre légal. Pas que ce cadre légal les force à communiquer auprès d’une société impliquée.
Bref, bravo à ces personnes qui n’ont pas cassé le chiffrement mais qui en ont cassé l’usage.
si c’est avéré ? ….c’est très grave, les ‘FO.’ étaient hors.la.Loi (à ce moment là) !
Mais c’est vrai que c’est curieux que peu/aucun opérateur ne propose une offre d’accès “nue” où tu peux mettre ton propre modem/routeur, ou au minimum permettre un mode bridge si ils veulent garder la main sur l’authentification de la ligne .
Ca me fait chier de ne pas cracher dessus, mais SFR propose le mode Bridge sur son offre Câble
Le
01/07/2020 à
05h
57
joma74fr a écrit :
Un prix de vente, il n’y a rien de plus relatif qu’un prix de vente. La preuve : aujourd’hui, Free fait des offres segmentées pour augmenter son ARPU. Fini le “low price”, nous sommes à l’air du “delta” (soit la différence entre 2 grandeurs, en mathématiques et en sciences).
Je ne parlais pas bas coût, abordabilité etc…
Je dis juste que si un abonnement coûte X€ à coup sûr et qu’il y a la possibilité de faire Y€ par ci par là pour certains clients, alors ça permettra à la société de maintenir voir baisser les X€. Ce qui contentera les gens comme toi et moi.
Après, que ce soit toujours trop cher… Je t’invite à regarder le coût des accès internet partout dans le monde. Je ne crois pas que nous ayons à nous plaindre en France (même si on n’est jamais content).
Le
30/06/2020 à
19h
11
Jean-BaptisteP a écrit :
Suis-je le seul à trouver qu’une box ne sert à rien (à part facturer des services inutiles ou facilement remplaçables par des composants plus performants à tarifs limités) ?
Ce que j’attends est un accès à internet, rien d’autre.
Et tu devrais donc dire merci aux boxs.
Grâce aux boxs, les opérateurs ont des ARPUs plus élevés qu’un abonnement plus des options statiques. VOD, SVOD, une chaine en plus par ci par là…. Du coup l’opérateur se fait une meilleure marge pour certains clients, et toi tu conserves ton accès moins cher.
Il y a peut être aussi la question récurrente des failles de sécurité chez Intel.
La faiblesse d‘Intel est de travailler sans OS sur des produits larges (une architecture maximale par an, avec 2 ou 3 variantes). La moindre faille rapporte très gros.
Rien ne dit qu’une fois les processeurs ARM Mac implantés, ils n‘aient pas leur lot de failles également, par contre, ce n’est pas sûr que ça intéresse grand monde (le parc de Mac n‘est pas foufou). Leur OS ne sera pas fiable de toutes façons (sans être péjoratif, des OSes fiables à 100%, ça n’existe pas à ma connaissance), alors pourquoi s‘emmerder à cibler un matériel spécifique?
Tout comme il est plus facile de pirater un iphone parce que plus de gens s’y intéressent. Mais ça cible bien plus l‘OS que sa base matérielle.
Les premiers tests sont sortis : en utilisant que 4 coeurs (au lieu de 4+4 sur l’ipad) et avec rosetta2 (donc pas en natif, environ 30% de perte vs l’ipad), ça donne les perf du core i5/i7 du dernier macbook air !Si l’A14 a 8 coeurs et une meilleur fréquence, ça promet !!
Approximativement aussi performant que de la merde, c‘est mieux ou moins bien que de la merde?
Le jour où ils feront un ARM aussi performant qu’un i5/i7 "H", là on en reparlera. Attention, je sais que c‘est possible. Je dis juste que je reste persuadé qu’ils ne le feront pas. Ils vont juste mettre une ou deux unités de calculs pour faire des benchs qui mettent la fessée à intel et basta…. Ca n‘empèchera pas le mac d’être très bien à l‘usage. Le seul truc qu’ils niquent, c‘est les gens pour qui les mac faisaient un excellent pc portable…
bilbonsacquet a dit:
Merci pour les infos, j’avais pas tout cet historique, reste que c‘est pas toujours pratique, certains programmes Windows ne gère pas encore le "/".Un truc aussi chiant de Windows, c’est le système de lettre de disque, vivement que ça passe en système arborescent…
Ca changerait quoi? En Powershell, tu as des arborescences multiples selon l‘environnement, toujours avec des chemins. Juste le chemin pour le système de fichiers commence par une lettre: mais tu pourrais tout à fait aller sur un volume directement, voir un snapshot, une base SQL, un linux distant, etc…. ps: en powershell, cd c:\windows alors que tu es dans le D: t’amène directement dans le C:\windows, pas comme en dos classique.
Le
27/06/2020 à
18h
02
ForceRouge a dit:
En revant un peu, en bonne nouvelle potentielle, ça serait une augmentation de l‘autonomie de 10h actuellement vers 40/50h? Quand on voit l’autonomie d‘un iPhone SE avec sa mini-batterie et son processeur surpuissant. La, je pense qu’Apple enterrerait une bonne partie des PC non-gaming.
Impossible. L‘écran consomme ~~ 30% de l’autonomie d‘un ordinateur / smartphone. Ca a l’air d‘être la partie la plus énergivore d’un ordinateur.
(quote:47835:N.Master) Il n‘y a que moi qui pense que cette "stratégie" de passer les machines de bureau sur ARM va surtout permettre à Apple de ne développer qu’un seul OS commun à tous ses produits ? Car aujourd‘hui leurs téléphones, tablettes, montres, boitiers TV tournent sur ce type d’architecture, finalement seules leurs machines de bureau sont différentes…
Ca sert surtout à augmenter sa marge et réduire sa dépendance. Au lieu de dépendre d‘un prestataire, la R&D devient fixe et est diluée selon le nombre de puces vendues.
La partie trop cool devient pour l’écosystème autour: tous les pilotes USB/TB/PCIe des différents équipements branchés…. Ils ne pourront plus sortir de la bulle "fonction générique" car jamais un fabricant ne refera un pilote pour du matos vendu & déréférencé.
Non, c’est juste qu’une brique système (on ne parle pas d’applications spécifiques), Apple sait ce qu’elle fait et pourquoi. Comment elles sont encadrées dans leur usage (vu que ce ne sont pas des protocoles tiers).
Après tu peux te méfier des briques système ou de l’OS, mais ce n’est pas une mécanique d’autorisation qui résoudra le problème dans ce cas.
Une application tierce, passant par le Store, peut faire tout ce qui ne lui est pas interdit. Donc l’utilisateur doit être averti d’un accès local vu ce que cela permet. C’est le sens de telles autorisations (qui devraient déjà être en place depuis un bail pour des éléments comme l’accès LAN amha).
Je dis juste que quand Apple fait ça, c’est rarement pour la sécurité, c’est souvent pour pousser une fonctionnalité que les concurrents auront plus de mal à mettre en place… car moins amicale dans le fonctionnement.
Le
26/06/2020 à
07h
17
C’est marrant le “sauf pour apple”.
En gros, on veut protéger l’utilisateur mais nos applications ne posent pas de problèmes, alors on n’a pas besoin de demander l’autorisation, faites nous confiance.
que veux-tu dire par là ? seagate est meilleur que WD ? ou pire ? ou similaire ?en relisant j‘ai vu que tu indique 1⁄10^14 pour un raid, donc 1 seul disque seagate a, officiellement, 10 fois moins de chance d’avoir un secteur défectueux (pour un volume de stockage identique)j‘ai bien compris ou j’ai rien compris ? :)
C‘est similaire (car je me suis rendu compte que l’histoire du secteur et de la parité, c‘est classe entreprise uniquement)
Seagate ENTREPRISE CLASS te dit "on est plus performant mais le secteur complet sera illisible", donc même s’ils sont meilleurs, tu perdras 4096 ou 32768 bits d‘un coup.
WD (et Seagate normaux) te disent "je ferais une erreur de lecture indétectable et je n’en saurais rien". L‘erreur sera de 1⁄10^14, mais sera silencieuse ! Donc si tu n’as pas de mécanisme de contrôle de données derrière, bah ton fichier est niqué et tu ne le sais pas (plus ou moins gravement selon ce que c‘est). Certains sont à 1⁄10^15, que ce soit WD ou Seagate.
Tout ça pour dire que le plus fiable, c’est la redondance !
Au passage, 1⁄10^14 correspond à une erreur de lecture tous les 113To ~~ (si je ne me trompes pas). Donc si j‘ai 3 disques de 4To RAID5 et qu’un disque lâche, la reconstruction va lire 8To, soit 7% de chance qu‘une erreur arrive et que la grappe soit donc HS (parce que la moindre erreur dans le RAID passe souvent par la case technicien…)
Le
25/06/2020 à
08h
37
(quote:47791:Fab‘z) Merci Patos.Faut avoir la matériel quand même pour faire ce que tu dis. Ce dont je parle c’est plus pour du perso. Les baies SAN c’est au taf. ^^
Je parlais pas SAN là ^^; Si je te parlais de mes configurations SAN de mon ancien taff, tu pleurerais… ( ou comment sauvegarder 11To en moins de deux heures )
Tout à fait. Mais perdre des photos de famille est absolument inconcevable pour ma part. Dans mon cas perso, j’ai:
un serveur de stockage en 2x256Go SSD cache + 6x8To RAIDZ2 (FreeNAS) –> snapshots journaliers conservés 7 fois + console isolée de mon réseau
un pc fixe avec 3x4To (Windows Storage space: volumes en miroir distribué)
Les choses importantes (environ 3To) sont sur le serveur, sauvegardées sur mon pc et synchronisées à distance (cloud ou NAS dans de la famille qui a la fibre comme moi).
J‘ai ainsi 3 technologies pour les données les plus cruciales.
Et on peut me dire que j’ai des problèmes de riche, moi je suis heureux que mon neveu et ma nièce aient pu voir une photo de leur arrière grand père à côté de son avion de chasse à ses 20 ans… et je ne perdrais ça pour rien au monde.
Pour information, pour avoir comparé avec d‘autres disques, Seagate donne 1⁄10^15 secteurs (512/4K) irrécupérable
C’était déjà le cas avant ;) j‘ai payé mes EFRX 20 balles de plus que les EFAX, pas plus tard que y’a deux semaines. Pourtant les deux s‘appelaient RED.
Le
24/06/2020 à
20h
37
(quote:47784:Fab‘z) C’est pour ça que je vais m‘orienter vers un second NAS distant en conservant du RAID5 mais avec une copie hyper backup. On peut trouver ces stats quelques part ? valable aussi pour le RAID 1 ?
En gros, on estime qu’un raid5 (3 disques) supérieur à 2To n‘est pas viable en production.
La seule configuration considérée comme fiable aujourd’hui, c‘est un RAID10 répliqué vers deux RAID5 hébergés sur 3 marques différentes de NAS avec des disques de marques différentes (mais technologies identiques).
Perso, je préfères du cache LVM conséquent et de la data en RAID double parité, répliqué vers un système sans cache.
du coup la 1070 ti que j‘avais choppé à 480€ c’est du haut du pavé mais pas tout à fait ?
Moi j‘appelle ça le bas de gamme du haut de gamme. Mais tu l’as effectivement eu à très bon prix ;)
Le haut du panier peut avoir plusieurs niveau ;) Perso je mets toutes les RTX Super dedans, alors que je place la 2060 normale à côté des 1660. Je considère que le bas de gamme va de l‘IGPU aux 1650.
Le
17/06/2020 à
06h
47
dada051 a dit:
Ce qui est marrant c‘est comment il le justifie : weak of competition 😅
Ils seraient en avance sur tout, je ne dirais pas, mais en thread < 4 utilisés pour la même application, il me semble qu’Intel est bien devant grâce aux hautes vitesses atteintes. Qu‘en est-il chez AMD? (ce n’est pas un troll, c‘est une interrogation)
gallean a dit:
perso j’attendrais les ryzen 4, si je dois changer quelque chose à ma config, ça sera plus sage ^^ pas contre ouai nvidia et son segment milieu de gamme et ses 2070 super à 559€ :/ quand je penses que j‘avais topé ma 1070Ti pour moins de 500€
Une 2070 super, c’est pas vraiment le milieu de gamme.. C‘est plutôt le haut du panier pour joueur quand même.
Et si les données personnelles ne sont pas dans les dossier prévus par windows, il ce passe quoi ?
Ce n’est pas touché.
Et si c’était dans les dossiers conventionnels (Utilisateurs / Programmes / Programmes x86 / Windows) tu retrouve tout dans Windows.old
Sauf si tu as fait nettoyer le disque…. ^^
Le
15/06/2020 à
08h
10
C’est étonnant, je l’ai fait en insider y’a pas longtemps… (j’ai pas envie d’aller trop loin dans le process ^^; mais actuellement, ça se lance comme d’habitude, et non par une page web: 2004 19645.1)
Après, il y a toujours la possibilité de lancer le setup depuis l’ISO téléchargeable depuis Microsoftet ainsi choisir de ne pas conserver les applications, comme on le fait depuis Windows Vista.
De mémoire les SSD « pour NAS » de Seagate et WD sont à 1 DPWD (en étant moins chers avec de la recup au moins pour un des deux je crois), mais pour du cache ça changerait peu de choses à durée de garantie similaire (Sauf a l’utiliser aussi en écriture).Après à voir pour la protection en écriture et comment elle est mise en œuvre, mais comme dit plus haut, pour un acteur nouveau sur le marché le positionnement apparaît quand même assez cavalier
Si je n‘oublie pas pour les marques, je me coucherais moins con.
Et le cache sur des SSDs comme ça, on met 5% cache écriture, 45% cache lecture avec calcul de hit et 50% libre. Franchement, 1 DWPD suffit amplement dans ce genre de cas surtout par rapport au surcout de plus….
Le
11/06/2020 à
17h
54
SomeDudeOnTheInternet a dit:
Je trouve que c‘est franchement ridicule de proposer des SSD à ce tarif-là, encore plus quand est un nouvel acteur sur le marché qui doit encore faire ses preuves.
Connais-tu beaucoup de SSD avec 1,3DWPD et alimentation backupée pour finir l’écriture? Ces SSDs sont très intéressants pour un cache moyennement sollicité, vu leur tarif.
Je n‘aime pas ce genre de boitier qui fait un peu tout puis finalement rien de bien, même s’il y a d‘excellentes idées dedans, genre les disques durs en face du ventirad tour. Mais perso j’y mettrais pas un GPU sans blower pour ma part, sinon bonjour la cuisson….
Exagone313 a dit:
Y a des alimentations avec autant de S-ATA ?
Oui dès que tu tapes un peu haut ou dans du modulaire. Puis y‘a des dédoubleurs.
Le chargement du pilote (qu’on a parfois extrait du BIOS d’un autre ordi comme dans mon cas…) c’est une tâche du BIOS/UEFI, non? Donc au moins ils le “complètent”. Quelle partie en reste ensuite en RAM? (j’ai vraiment pas étudié le problème. Je connais les principes du BIOS et à partie de quand un OS se base sur lui ou pas, mais l’UEFI je suis pour le moment complètement passé à côté)
L’UEFI, c’est un bios évolué, tout simplement. La grande force est d’être plus versatile grâce au support d’un système de fichiers et à la compréhension d’une partition de boot, et surtout de pouvoir charger des choses en parallèle, ce que ne peut faire le BIOS (Je ne parle pas de Secure Boot que je considère comme une hérésie). Après, ils ont quelques années de différences, donc en général un UEFI sera moins moche etc…
Là, ton outil va booter se faire booter par le BIOS, chercher la partition UEFI, la comprendre et charger le boot UEFI. Ce n’est pas tellement plus du rootkit qu’un GRUB qui boot une ISO en fait…
Après oui, si la source de l’outil est fermée, ce type d’outil peut être clairement très dangereux à l’insu de l’utilisateur. On peut imaginer une attaque de type man in the middle pour récupérer des informations ou donner des droits de niveau OS à un éxecutable très particulier… D’où l’importance de l’open source et de la vérification SHA lors de sa mise en service !
Le
08/06/2020 à
08h
26
brice.wernet a écrit :
C’est à dire qu’on approche du rootkit là. Ces loaders remplacent le BIOS/UEFI en émulant un nouvel EFI il me semble. Ca pourrait mener loin j’imagine.
Ils n’émulent rien du tout, ils lisent simplement la chaine de boot de manière plus judicieuse dans la séquence d’initialisation, parfois après avoir lancé un pilote ou deux en plus.
“Edit” du post précédent : Ok, j’ai compris maintenant.
Je ne vois pas l’utilité pour un usage perso, ni dans mon métier, mais je comprends bien l’intérêt d’un tel système de stockage pour ceux qui manipulent des grandes quantités de données hétérogènes.
Imagine que tu possèdes une bibliothèque de photos que tu t’es fait chier à tagguer correctement, ben ta bibliothèque devient compatible avec d’autres logiciels photos. Ensuite tu utilises un fichier RAW et un fichier JPEG? Pas de soucis, tu peux lier les 2 et revenir au RAW depuis le JPEG sans problème, quelquesoit leur nom respectif.
C’est compliqué parce qu’on créé une sorte de deuxième, puis troisième, puis nième dimension au rangement. La vérité, c’est juste que ce n’est pas rangé: c’est rangeable comme tu le souhaites au moment où tu le fais ;)
Le
05/06/2020 à
06h
49
Nozalys a écrit :
Ca fait plusieurs articles qui parlent de stockage objet… mais malgré les avoir lu, je n’ai toujours pas compris de quoi il s’agit.
Par rapport à un fichier, c’est quoi un objet ? Parce que au final, ce sont bien des fichiers qu’on stocke !
Un fichier est un objet avec des métadonnées (la table de fichiers) et un contenu (l’assemblage ordonné des clusters du fichier).
Dans ses métadonnées, il y a le fait qu’il appartient à un dossier. Ce dossier est lui aussi un objet qui appartient à un dossier. Le dossier de premier niveau “/” ou “\” selon le système, possède aussi des métadonnées de volumes.
Tout cela forme un arbre: la table des fichiers
L’intérêt du stockage objet est d’aplanir cet arbre. Quand tu cherches un objet, tu n’es pas obligé de le chercher par dossier, mais tu peux le faire par métadonnée: taille, type, date de modification, mais aussi couleur dominante, personnes présentes, nature comptable, fournisseur concerné, auteur etc…
Ce genre de choses peut être sympathique mais est risquée à mon goût vers Internet. En interne par contre, ça peut être super pour migrer petit à petit en effet.
Le
03/06/2020 à
12h
44
David_L a écrit :
D’ailleurs je n’en parle pas dans ce papier mais MinIO peut faire gateway pour certains services
T’en a pas assez dit. Un autre papier en dira-t-il plus?
Le
03/06/2020 à
10h
31
Merci pour cette découverte, pour moi qui cherchait à redonder des données à travers internet entre mon serveur et un NAS prochainement existant.
Dans quelle conditions tu fais le test ? Clavier et souris sans fil sur le même dongle ou pas ?
Pour les périphériques Lightning, tu n’as pas le choix apparemment: c’est un par périphérique Personnellement, je te conseille de ne pas négliger la surcharge USB. Un contrôleur fonctionne par paire de ports. Je dédie deux ports USBs de mon pc (en général les USB 2.0 reconnus dans le bios direct) pour ces deux périphériques là. Pas de hub, de disque dur, de webcam ne sont sur le même duo de ports que mon clavier ou ma souris (G915+G502, sans fil les 2). Ainsi, tu évites toutes perturbations d’une clef USB qui réserverait de la bande passante USB ou d’un disque dur externe qui déconne.
Le
28/05/2020 à
19h
25
ashlol a dit:
Perso le clavier c’est avec fil obligatoire pour jouer. Je n’en ai pas encore trouvé un qui fonctionnait 100% du temps bien sans latence et san raté et pourtant j’en ai essayé des claviers. Il sont tous ok pour 2-3 appuis de temps en temps mais après plusieurs minutes-heures de jeux ils ratent tous des touches dû au sans fil et dans les jeux ba c’est justement à ce moment qu’un ennemi apparait et tu meurs. Étonnamment il n’y a aucun problème pour la souris, la mx master fonctionne toujours nikel sans lag. Alors je ne sais pas si ça viens du fait que j’ai aussi la souris en sans fil mais en tout cas chez moi pas un clavier marche en sans fil
Désolé de te décevoir: le lightspeed fonctionne parfaitement. Je tape plutôt vite et je n’ai jamais de défaut autre que ma polio.
Le
28/05/2020 à
12h
22
(quote:47209:john san) Ca fait un bout de temps que j’ai arrêté de jouer sur PC, mais est-ce le prix “normal” d’un clavier mécanique? Gamer ou pas?
Franchement, ce clavier poutre des mamans ours (ça fait 4 mois que je l’ai en classique). Le défaut de ce clavier est le logiciel de meeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeerde de logitech (il manque des e) et le fait qu’il soit nécessaire pour que la clavier assure un rétroéclairage statique par touche (!) L’autre défaut, c’est le fait que logitech soit trop con: en français, on ne peut pas lire les chiffres en haut à cause du positionnement des symboles sur les capuchons.
Autant de bêtises dans un clavier à 200 balles, c’est indigne… mais ça reste un merveilleux clavier.
Belle bete ta carte 25Gbit/s ;) Effectivement, j’ai trouvé l’info pour mes connectX2, 6.4W, mais d’après ce que je comprends pour ma carte et les autres, c’est en utilisation avec le SFP+, et non sans. Ce n’est pas super clair.Du coup, il devrait y avoir moyen de récupérer une partie ou tout de cette puissance en désactivant dans le bios le port RJ45 inutilisé?
Si la carte le permet, c’est à dire si elle a un bios et qu’il soit activé préboot. Je n’ai jamais vu cette option dans une carte à moins de 300€HT (ça fait cher le watt gratté)
Le
29/05/2020 à
06h
31
eureux a dit:
Pour les posts j’en suis à copier/coller ailleurs avant de cliquer sur “envoyer”.Avoir une bonne statégie wifi, c’est effectivement important, mais de là a dire que cela consomme moins qu’un SFP+ optique qui crache 10Gbit/s avec 1.3W (émeteur et récepteur cumulé)?Tu as des doc/tests sur la consommation wifi que je regarde?
tl;dr : base-t for the win, vive la récup, fuck la conso
Le wifi a des avantages énergétiques mais a un gros défaut à mon goût: la latence induite par la mutualisation de l’onde (surtout pour moi qui suit en appartement…. les bandes wifi sont toutes occupées, j’en suis à avoir une borne Ruckus pour une portée de 10m entre ma chambre et mon salon). en Steam Play, tu vois carrément la différence.
Perso, c’est 7W de consommation permanente, 18W au démarrage et 10W en pleine charge (smartphone, tablette, pc*2, shield, ampli, montre) (courant fourni par PoE, donc le switch me donne l’information). Après, je privilégie les équipements Green Ethernet quand j’achêtes, mais si j’ai le choix de l’occasion, je prends l’occasion et tant pis pour la consommation de quelques watts: le bénéfice n’est pas énergétique mais environnemental.
N’oublie pas que ton SFP+ qui ne consomme que 1.3W, c’est joli. Mais la puce du switch et de ta carte réseaux, combien consomment-ils?
Le
28/05/2020 à
19h
23
hurd a dit:
J’ai lu aussi ça mais de ce que j’avais lue, comme c’est pas prévu de base par les FAI, il te simplifie pas la vie pour ça et niveau évolutivité ça peut vite être compliqué (il décide de changer je ne sais quoi à l’autre extrémité, et pouf t’as plus de réseau), je parle même pas de faire fonctionné le triple playÇa m’intéresse aussi de savoir à quel point le rj45 est une mauvaise idée pour du 10gb en terme de conso/chauffe vis à vis de la fibre/dac, j’envisage l’achat du carte réseau pour gérer le 2.5gb sur une tour et la question du passage en 10gb se pose… mais le 10gb rj45 est il pertinent énergiquement ?
L’impact du RJ est très important quand on a des switchs 24⁄48 ports… Pour un ou 2 ports sur le même switch, ça me parait négligeable (peut être 3 ou 4w, surtout avec le protocole green ethernet). 1W h24 = un peu moins d’1,1€ par an au cours actuel de l’électricité. Je me vois mal jeter des cartes 10G, du câblage et tout le tralala pour moins de 20W (soit 22€/an…)
eureux a dit:
21db, ce n’est pas grand chose, mais il se fait laminer dans les commentaires amazon sur ce point. Donc les 21db ne sont peut-être pas fiable.
J’ai commandé le modèle PoE (28db), MP moi dans 2 semaines pour savoir si c’est une plaie ou pas xD
Le
28/05/2020 à
12h
17
kgersen a dit:
Le problème des Netgear c’est plus le bruit que le prix… ils n’ont aucun modele fanless pour mettre dans un bureau.Pour l’instant y’a guerre que les Mikrotik crs 305 et 309.
Ah bon? Parce que le MS510TX et ses 21db ne te conviennent pas? (28db pour le modèle PoE)
Le
27/05/2020 à
08h
20
Pas de Vlan… dommage.. En espérant qu’une version évoluée arrive ou que ça force Netgear à se sortir les doigts du cul pour une version moins onéreuse en switch multigig… Au moins, y’a les jumbo frames activées par défaut, c’est déjà ça.
Merci,C’est fou, c’est donc c’est plus que visible même en écriture « simple » Donc dans notre cas (écriture quotidienne de gros fichiers) la vitesse d’un processeur famélique peut limiter considérablement la vitesse d’enregistrement de tous les fichiers (et annihiler l’intérêt de passer à du full SSD)Ça me semble complètement dingue d’arriver à vendre des NAS 10gb/s avec des processeurs qui vont defacto brider la vitesse globale.
Le problème n’est pas le transfert de fichiers, c’est toute les fonctions autour: droits d’accès, interface web, samba, instantanés, .. C’est pas grand chose mais quand tu cumules….
Après, tu vas passer d’un univers ouvert à un univers fermé par le fabricant de ton nas….
Après, les interfaces sont 10G, mais ce qu’on veut, c’est que ça aille plus vite qu’1G, pas que ça aille à 10G ^^; (perso, 2.5G est suffisant dans pas mal de cas, mais le 10G est plus répandu en entreprise…)
Le
29/05/2020 à
06h
37
David_L a dit:
Oui effectivement, si tu veux du Ryzen, sans forcément iLO et la couche pro pour 250 euros, tu vas devoir regarder ailleurs (mais je ne sais pas bien où ) Au mieux il y a les DeskMini d’ASRock qui semblent adaptés à ton besoin (mais sans PCIe).Attention quand même, ce sont des règles valables dans certains cas mais pas tous. Comme déjà dit, on voit courrament certains utiliser plusieurs RPi pour différentes solutions, là où tu peux facilement virtualiser sur de petits CPU pour avoir le même niveau de performances.Le principe des vCPU, c’est aussi qu’on peut en avoir plus que de coeurs physiques présents dans la machine, ce que font très bien les hébergeurs par exemple. La perf sera limitée, mais ce n’est pas toujours l’objectif premier (par rapport à la densité par exemple).Quand on parle de VM, tout le monde ne parle pas forcément de monter un Windows complet qui doit être accessible et réactif avec une interface graphique ;)
Tu peux consolider à plus, c’est sûr. Mais faire tourner 10 machines IDLE 2 vCPUs sur un bicoeur, même HT, est un non-sens: tu perds en performance c’est sûr, mais tu perds surtout en entrées/sorties et en réactivité. Perso, je ne démordrais pas de cette règle, hormis dans un plan d’urgence de panne serveur ou de reprise d’activité. Fais du réseau avec des machines surprovisionnées, tu vas te croire chez SFR alors que t’es en LAN :)
Et oui, on parle d’un fonctionnement type serveur là, pas d’utiliser la machine comme un poste de travail (fort heureusement). Les interfaces graphiques n’ont même pas leur place ^^ (que ce soit sous Windows ou sous Linux)
Le
28/05/2020 à
20h
50
(quote:47326:Fab’z) Attention quand même, 4 coeurs sans HT seront toujours plus performant qu’un 2 coeurs HT. Et si tu met de la VM Windows ba vaut mieux avoir au moins 2 coeurs par VM. En idle ça va mais fait une MAj et tu le met a genoux ^^ Pour les installations j’ai tendance a mettre un peu plus et redescendre après.C’est pour faire tourner H24 ou ça reste de l’expérimentale ?Il n’y a que les xeon qui sont officiellement supporté pour esxi mais ça tournera.
Carrément. On enlève un coeur physique pour l’hyperviseur et ensuite on compte deux vCPUs allouables pour chaque coeur logique. Donc dans le cas du Xeon, on aurait 6 vCPUs disponibles, alors qu’on en aurait 4 pour le Pentium. Ensuite, tu aurais une trop grande perte de performance à cause du phénomène d’échange des coeurs par l’hyperviseur.
Le
25/05/2020 à
19h
41
TheMyst a dit:
Je trouve dommage l’absence d’un moyen de stockage en plus des disques pour séparer système et données. Il fait donc sacrifier le port PCIe dans ce cas. Ou l’autre ça sur une clé USB ? (C’est possible ?)
QM2-2P10G1T (peut être avec un bootloader usb xD)
Pour ma part, j’ai déjà fait booter sans problème des Windows sur des SSDs branchés sur adaptateur SATA externe. C’est moche mais peut être que ça peut convenir?
Sinon tu peux installer un vsphere sur une carte SD de qualité, en 256Go: tu pourras installer Windows sur 128 des 256Go disponibles et y attacher la carte SAS de la carte mère.
J’en ai une à mon taf qui a craqué son slip, elle nous demande de tout lui fournir, je lui ai demandé si il fallait qu’on lui fournisse aussi sa baraque, un bureau, une chaise …
Doit on aussi leur fournir une bagnole quand ils viennent bosser sur site … la question est posée.
Pour la voiture c’est non car c’est le lieu de travail habituel. Si elle avait un second lieu de travail, ça pourrait être oui ou frais kilométriques à défaut.
Cette dame a raison, que ça t’emmerde ou non. La seule chose qui ne peut plus être exigé pour quelqu’un qui télétravaille usuellement, c’est la connexion Internet, même en quote part.
Après, il y a la bonne volonté de l’employé, mais aussi ses moyens financiers.. car elle n’a pas à payer à la place de la boite pour travailler.
C’est chiant, mais 100% légal.
ps: même sur les familials, la MAJ n’est plus forcée. Elle apparaît de manière insistante lorsqu’un fort pourcentage de pc identique au sien l’a réussie sans encombre (vis à vis de la configuration matérielle). Ca marche franchement bien leur nouveau process depuis la 1903….
Alors déjà pas la peine de m’agresser pour répondre hein… L’article parle ici de stockage icsi dans un NAS donc pas question d’usage spécifique type server SAN en entreprise et au final la comparaison iscsi à du sens car pour un utilisateur il s’en fou que ce soit iscsi ou partage samba pour du stockage. Un utilisateur ne fais jamais que du stockage avec son réseau donc de mettre un MTU à 9000 peux avoir d’autre implications comme une augmentation du ping sur les jeux en réseau…
Je t’agresse pas, désolé que tu le lises ainsi. Sauf que nous sommes plus évolués que des utilisateurs, donc les nuances ont du sens: le ISCSI est nu, alors que Samba est habillé. Et une augmentation du ping, non, désolé, y’a pas de rapport avec un MTU à 9000. Par contre, il faut que tous les équipements le gèrent et soient dimensionnés pour… Si ton ping augmente, c’est que ton routeur s’agenouille. En général, on mets une carte réseau spéciale iSCSI et celle-ci est en MTU 9000, alors que la carte réseau PC reste en 1500 par défaut. Au moins nous sommes sur que le iSCSI ne sorte pas par erreur (et même ça fini très souvent dans un vlan).
(quote:47187:Fab’z) Je sais même pas comment ça se passe pour router des trames de 9000… C’est possible au moins ?Mais faut garder a l’esprit que c’est un protocole taillé pour du SAN. C’est pas user friendly et pas fait pour être coupé quand on veut. Ya un ordre d’allumage ou d’arrêt a prendre en compte selon la configuration. Ça vaut pas le coup de basculer sur ce genre de chose si c’est juste pour grappiller 10mo/s en crête.
Ca passe mais on le fait pas. Les fous qui ont les moyens de payer des interlans pour du iSCSI font du VxLAN, qui est une sorte de VLAN over UDP. Ce sont des switchs à 5000€ les plus mauvais, pour des liaisons qui te coutent 2 ou 3000€/mois donc bon ^^; Un autre monde….
2729 commentaires
Le H.266 officiellement présenté, des fichiers encore moins gros à qualité constante
07/07/2020
Le 08/07/2020 à 14h 30
Le 07/07/2020 à 20h 50
Le 07/07/2020 à 09h 44
Le 07/07/2020 à 09h 42
Le 07/07/2020 à 09h 16
Avec son Ryzen 9 3900XT, AMD continue de mettre la pâtée à Intel
07/07/2020
Le 08/07/2020 à 05h 10
Les spécificités liées à l‘architecture (entre autre avec l’affinité des coeurs contrainte par l‘architecture
Les fonctionnalités standards mais loin d’être simples: PCI passthrough, vmotion, srv-io, memory balooning
Comment se réparti l‘iSCSI Software sur les coeurs? Fait-il également attention aux affinités requises?
La perte de performance liée à la mise à étalon d’un cluster (compatibilité limitée à un modèle plus ancien de processeur, pour s‘aligner sur le moins-disant)
L’impact des IO sur les temps de masquage CPU, surtout en forte charge (genre coucou, je tire 4*10G plein débit pour écrire sur des SSDs PCIe, est-ce que mon port série rattaché ne va pas perdre un tick? C‘est la question à 200€ par port série (moxa nport 5110 s’il y a le problème).
Pleins de questions à laquelle, personnellement, je n‘ai de réponse que sous Intel, qui a toujours été plus avantageux techniquement et financièrement pour moi (moins de coeurs plus rapides coutent moins chers en licence vsphere/windows datacenter/sql server que pleins de coeurs moins rapides, et sont plus efficaces en monothread, sur les mauvais logiciels)
Bref, beaucoup de questions qui sont peut être onéreuses à y répondre, mais qui sont surtout bien plus onéreuses si on se trompes… Et j’ai pas trouvé beaucoup de retour pointus sur du threadripper/epic: en général c‘est "yeah it roxxx blablabla". Le reste est noyé dans les KB VMWare…
Le 07/07/2020 à 20h 56
Si tu t’emmerdes et que tu as envie de faire un retour sur de l‘ESXi et ses capacités sur AMD, je suis preneur personnellement.
La gendarmerie a (de nouveau) cassé des messages chiffrés
03/07/2020
Le 03/07/2020 à 13h 08
Freebox Pop (v8) : comment Free devrait faire évoluer son offre
30/06/2020
Le 01/07/2020 à 07h 29
Le 01/07/2020 à 05h 57
Le 30/06/2020 à 19h 11
Mac à base d’Apple Silicon : la fin d’une ère, AMD et Intel réagissent
30/06/2020
Le 01/07/2020 à 06h 07
La faiblesse d‘Intel est de travailler sans OS sur des produits larges (une architecture maximale par an, avec 2 ou 3 variantes). La moindre faille rapporte très gros.
Rien ne dit qu’une fois les processeurs ARM Mac implantés, ils n‘aient pas leur lot de failles également, par contre, ce n’est pas sûr que ça intéresse grand monde (le parc de Mac n‘est pas foufou). Leur OS ne sera pas fiable de toutes façons (sans être péjoratif, des OSes fiables à 100%, ça n’existe pas à ma connaissance), alors pourquoi s‘emmerder à cibler un matériel spécifique?
Tout comme il est plus facile de pirater un iphone parce que plus de gens s’y intéressent. Mais ça cible bien plus l‘OS que sa base matérielle.
Apple vante ses SoC ARM, leurs fonctionnalités et la restauration de ses prochains Mac
26/06/2020
Le 30/06/2020 à 19h 06
Approximativement aussi performant que de la merde, c‘est mieux ou moins bien que de la merde?
Le jour où ils feront un ARM aussi performant qu’un i5/i7 "H", là on en reparlera.
Attention, je sais que c‘est possible. Je dis juste que je reste persuadé qu’ils ne le feront pas. Ils vont juste mettre une ou deux unités de calculs pour faire des benchs qui mettent la fessée à intel et basta…. Ca n‘empèchera pas le mac d’être très bien à l‘usage.
Le seul truc qu’ils niquent, c‘est les gens pour qui les mac faisaient un excellent pc portable…
Ca changerait quoi? En Powershell, tu as des arborescences multiples selon l‘environnement, toujours avec des chemins. Juste le chemin pour le système de fichiers commence par une lettre: mais tu pourrais tout à fait aller sur un volume directement, voir un snapshot, une base SQL, un linux distant, etc….
ps: en powershell, cd c:\windows alors que tu es dans le D: t’amène directement dans le C:\windows, pas comme en dos classique.
Le 27/06/2020 à 18h 02
Impossible. L‘écran consomme ~~ 30% de l’autonomie d‘un ordinateur / smartphone. Ca a l’air d‘être la partie la plus énergivore d’un ordinateur.
Ca sert surtout à augmenter sa marge et réduire sa dépendance. Au lieu de dépendre d‘un prestataire, la R&D devient fixe et est diluée selon le nombre de puces vendues.
La partie trop cool devient pour l’écosystème autour: tous les pilotes USB/TB/PCIe des différents équipements branchés…. Ils ne pourront plus sortir de la bulle "fonction générique" car jamais un fabricant ne refera un pilote pour du matos vendu & déréférencé.
Sous iOS/iPadOS 14, l’accès au réseau local par une application nécessitera une autorisation
26/06/2020
Le 26/06/2020 à 16h 20
Le 26/06/2020 à 07h 17
C’est marrant le “sauf pour apple”.
En gros, on veut protéger l’utilisateur mais nos applications ne posent pas de problèmes, alors on n’a pas besoin de demander l’autorisation, faites nous confiance.
Quel raisonnement de merde….
Western Digital annonce ses disques durs « Red Plus » pour distinguer SMR et CMR
24/06/2020
Le 25/06/2020 à 09h 54
C‘est similaire (car je me suis rendu compte que l’histoire du secteur et de la parité, c‘est classe entreprise uniquement)
Seagate ENTREPRISE CLASS te dit "on est plus performant mais le secteur complet sera illisible", donc même s’ils sont meilleurs, tu perdras 4096 ou 32768 bits d‘un coup.
WD (et Seagate normaux) te disent "je ferais une erreur de lecture indétectable et je n’en saurais rien". L‘erreur sera de 1⁄10^14, mais sera silencieuse ! Donc si tu n’as pas de mécanisme de contrôle de données derrière, bah ton fichier est niqué et tu ne le sais pas (plus ou moins gravement selon ce que c‘est).
Certains sont à 1⁄10^15, que ce soit WD ou Seagate.
Tout ça pour dire que le plus fiable, c’est la redondance !
Au passage, 1⁄10^14 correspond à une erreur de lecture tous les 113To ~~ (si je ne me trompes pas).
Donc si j‘ai 3 disques de 4To RAID5 et qu’un disque lâche, la reconstruction va lire 8To, soit 7% de chance qu‘une erreur arrive et que la grappe soit donc HS (parce que la moindre erreur dans le RAID passe souvent par la case technicien…)
Le 25/06/2020 à 08h 37
Je parlais pas SAN là ^^; Si je te parlais de mes configurations SAN de mon ancien taff, tu pleurerais… ( ou comment sauvegarder 11To en moins de deux heures )
Tout à fait. Mais perdre des photos de famille est absolument inconcevable pour ma part.
Dans mon cas perso, j’ai:
Les choses importantes (environ 3To) sont sur le serveur, sauvegardées sur mon pc et synchronisées à distance (cloud ou NAS dans de la famille qui a la fibre comme moi).
J‘ai ainsi 3 technologies pour les données les plus cruciales.
Et on peut me dire que j’ai des problèmes de riche, moi je suis heureux que mon neveu et ma nièce aient pu voir une photo de leur arrière grand père à côté de son avion de chasse à ses 20 ans… et je ne perdrais ça pour rien au monde.
Pour information, pour avoir comparé avec d‘autres disques, Seagate donne 1⁄10^15 secteurs (512/4K) irrécupérable
C’était déjà le cas avant ;) j‘ai payé mes EFRX 20 balles de plus que les EFAX, pas plus tard que y’a deux semaines. Pourtant les deux s‘appelaient RED.
Le 24/06/2020 à 20h 37
https://documents.westerndigital.com/content/dam/doc-library/fr_fr/assets/public/western-digital/product/internal-drives/wd-red-hdd/product-brief-western-digital-wd-red-hdd.pdf
1⁄10^14 bits.
En gros, on estime qu’un raid5 (3 disques) supérieur à 2To n‘est pas viable en production.
La seule configuration considérée comme fiable aujourd’hui, c‘est un RAID10 répliqué vers deux RAID5 hébergés sur 3 marques différentes de NAS avec des disques de marques différentes (mais technologies identiques).
Perso, je préfères du cache LVM conséquent et de la data en RAID double parité, répliqué vers un système sans cache.
AMD : les Ryzen XT dès 249 dollars, le chipset A520 et StoreMI 2.0 arrivent
16/06/2020
Le 17/06/2020 à 12h 31
Moi j‘appelle ça le bas de gamme du haut de gamme. Mais tu l’as effectivement eu à très bon prix ;)
Le haut du panier peut avoir plusieurs niveau ;) Perso je mets toutes les RTX Super dedans, alors que je place la 2060 normale à côté des 1660. Je considère que le bas de gamme va de l‘IGPU aux 1650.
Le 17/06/2020 à 06h 47
Ils seraient en avance sur tout, je ne dirais pas, mais en thread < 4 utilisés pour la même application, il me semble qu’Intel est bien devant grâce aux hautes vitesses atteintes. Qu‘en est-il chez AMD? (ce n’est pas un troll, c‘est une interrogation)
Une 2070 super, c’est pas vraiment le milieu de gamme.. C‘est plutôt le haut du panier pour joueur quand même.
Windows 10 : la mise à jour Mai 2020 casse le Redémarrage à zéro
15/06/2020
Le 15/06/2020 à 15h 15
Le 15/06/2020 à 08h 10
C’est étonnant, je l’ai fait en insider y’a pas longtemps… (j’ai pas envie d’aller trop loin dans le process ^^; mais actuellement, ça se lance comme d’habitude, et non par une page web: 2004 19645.1)
Après, il y a toujours la possibilité de lancer le setup depuis l’ISO téléchargeable depuis Microsoftet ainsi choisir de ne pas conserver les applications, comme on le fait depuis Windows Vista.
Synology lance ses propres SSD (TLC)… vendus dès 0,33 euro le Go
11/06/2020
Le 11/06/2020 à 20h 51
Si je n‘oublie pas pour les marques, je me coucherais moins con.
Et le cache sur des SSDs comme ça, on met 5% cache écriture, 45% cache lecture avec calcul de hit et 50% libre. Franchement, 1 DWPD suffit amplement dans ce genre de cas surtout par rapport au surcout de plus….
Le 11/06/2020 à 17h 54
Connais-tu beaucoup de SSD avec 1,3DWPD et alimentation backupée pour finir l’écriture?
Ces SSDs sont très intéressants pour un cache moyennement sollicité, vu leur tarif.
Le Sénat adopte le blocage des sites pornos accessibles aux mineurs
10/06/2020
Le 10/06/2020 à 07h 17
Surtout que c’est connu, les enfants ne piquent jamais la cb des parents ^^;
SilverStone CS330 : un boîtier compact avec trois emplacements SAS/S-ATA en façade
08/06/2020
Le 08/06/2020 à 11h 16
Je n‘aime pas ce genre de boitier qui fait un peu tout puis finalement rien de bien, même s’il y a d‘excellentes idées dedans, genre les disques durs en face du ventirad tour. Mais perso j’y mettrais pas un GPU sans blower pour ma part, sinon bonjour la cuisson….
Oui dès que tu tapes un peu haut ou dans du modulaire. Puis y‘a des dédoubleurs.
Ventoy : le multiboot USB multiplateforme, personnalisable, facile et open source
08/06/2020
Le 08/06/2020 à 09h 19
Le 08/06/2020 à 08h 26
MinIO : créez simplement votre propre service de stockage objet, compatible S3 et distribué
03/06/2020
Le 05/06/2020 à 09h 44
Le 05/06/2020 à 06h 49
Le 03/06/2020 à 20h 25
Le 03/06/2020 à 12h 44
Le 03/06/2020 à 10h 31
Merci pour cette découverte, pour moi qui cherchait à redonder des données à travers internet entre mon serveur et un NAS prochainement existant.
S’en va tester avec Veeam
Logitech lance son clavier mécanique G915 TKL « Tenkeyless » pour joueurs
27/05/2020
Le 31/05/2020 à 08h 10
Pour les périphériques Lightning, tu n’as pas le choix apparemment: c’est un par périphérique
Personnellement, je te conseille de ne pas négliger la surcharge USB. Un contrôleur fonctionne par paire de ports. Je dédie deux ports USBs de mon pc (en général les USB 2.0 reconnus dans le bios direct) pour ces deux périphériques là. Pas de hub, de disque dur, de webcam ne sont sur le même duo de ports que mon clavier ou ma souris (G915+G502, sans fil les 2).
Ainsi, tu évites toutes perturbations d’une clef USB qui réserverait de la bande passante USB ou d’un disque dur externe qui déconne.
Le 28/05/2020 à 19h 25
Désolé de te décevoir: le lightspeed fonctionne parfaitement. Je tape plutôt vite et je n’ai jamais de défaut autre que ma polio.
Le 28/05/2020 à 12h 22
Franchement, ce clavier poutre des mamans ours (ça fait 4 mois que je l’ai en classique).
Le défaut de ce clavier est le logiciel de meeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeerde de logitech (il manque des e) et le fait qu’il soit nécessaire pour que la clavier assure un rétroéclairage statique par touche (!)
L’autre défaut, c’est le fait que logitech soit trop con: en français, on ne peut pas lire les chiffres en haut à cause du positionnement des symboles sur les capuchons.
Autant de bêtises dans un clavier à 200 balles, c’est indigne… mais ça reste un merveilleux clavier.
#Flock se fait choper par la patrouille
30/05/2020
Le 31/05/2020 à 07h 59
Moi j’aimerais vraiment savoir si t’as ça comme tatouage sur ton bras, parce qu’il a l’air très chelou
Passes de bonnes vacances et reposes-toi bien, tu ne manqueras pas de sujets d’inspiration à ton retour…. (malheureusement)
QSW-1105-5T : QNAP détaille son switch 5x 2,5 Gb/s qui sera proposé à un prix « très abordable »
27/05/2020
Le 29/05/2020 à 18h 05
Si la carte le permet, c’est à dire si elle a un bios et qu’il soit activé préboot.
Je n’ai jamais vu cette option dans une carte à moins de 300€HT (ça fait cher le watt gratté)
Le 29/05/2020 à 06h 31
tl;dr : base-t for the win, vive la récup, fuck la conso
Le wifi a des avantages énergétiques mais a un gros défaut à mon goût: la latence induite par la mutualisation de l’onde (surtout pour moi qui suit en appartement…. les bandes wifi sont toutes occupées, j’en suis à avoir une borne Ruckus pour une portée de 10m entre ma chambre et mon salon). en Steam Play, tu vois carrément la différence.
Perso, c’est 7W de consommation permanente, 18W au démarrage et 10W en pleine charge (smartphone, tablette, pc*2, shield, ampli, montre) (courant fourni par PoE, donc le switch me donne l’information).
Après, je privilégie les équipements Green Ethernet quand j’achêtes, mais si j’ai le choix de l’occasion, je prends l’occasion et tant pis pour la consommation de quelques watts: le bénéfice n’est pas énergétique mais environnemental.
N’oublie pas que ton SFP+ qui ne consomme que 1.3W, c’est joli. Mais la puce du switch et de ta carte réseaux, combien consomment-ils?
Le 28/05/2020 à 19h 23
L’impact du RJ est très important quand on a des switchs 24⁄48 ports… Pour un ou 2 ports sur le même switch, ça me parait négligeable (peut être 3 ou 4w, surtout avec le protocole green ethernet).
1W h24 = un peu moins d’1,1€ par an au cours actuel de l’électricité. Je me vois mal jeter des cartes 10G, du câblage et tout le tralala pour moins de 20W (soit 22€/an…)
J’ai commandé le modèle PoE (28db), MP moi dans 2 semaines pour savoir si c’est une plaie ou pas xD
Le 28/05/2020 à 12h 17
Ah bon?
Parce que le MS510TX et ses 21db ne te conviennent pas? (28db pour le modèle PoE)
Le 27/05/2020 à 08h 20
Pas de Vlan… dommage.. En espérant qu’une version évoluée arrive ou que ça force Netgear à se sortir les doigts du cul pour une version moins onéreuse en switch multigig…
Au moins, y’a les jumbo frames activées par défaut, c’est déjà ça.
HPE ProLiant Microserver Gen10 Plus : compact, complet et évolutif, le serveur (NAS) parfait ?
25/05/2020
Le 29/05/2020 à 17h 32
Le problème n’est pas le transfert de fichiers, c’est toute les fonctions autour: droits d’accès, interface web, samba, instantanés, .. C’est pas grand chose mais quand tu cumules….
Après, tu vas passer d’un univers ouvert à un univers fermé par le fabricant de ton nas….
Après, les interfaces sont 10G, mais ce qu’on veut, c’est que ça aille plus vite qu’1G, pas que ça aille à 10G ^^; (perso, 2.5G est suffisant dans pas mal de cas, mais le 10G est plus répandu en entreprise…)
Le 29/05/2020 à 06h 37
Tu peux consolider à plus, c’est sûr. Mais faire tourner 10 machines IDLE 2 vCPUs sur un bicoeur, même HT, est un non-sens: tu perds en performance c’est sûr, mais tu perds surtout en entrées/sorties et en réactivité. Perso, je ne démordrais pas de cette règle, hormis dans un plan d’urgence de panne serveur ou de reprise d’activité.
Fais du réseau avec des machines surprovisionnées, tu vas te croire chez SFR alors que t’es en LAN :)
Et oui, on parle d’un fonctionnement type serveur là, pas d’utiliser la machine comme un poste de travail (fort heureusement). Les interfaces graphiques n’ont même pas leur place ^^ (que ce soit sous Windows ou sous Linux)
Le 28/05/2020 à 20h 50
Carrément. On enlève un coeur physique pour l’hyperviseur et ensuite on compte deux vCPUs allouables pour chaque coeur logique.
Donc dans le cas du Xeon, on aurait 6 vCPUs disponibles, alors qu’on en aurait 4 pour le Pentium. Ensuite, tu aurais une trop grande perte de performance à cause du phénomène d’échange des coeurs par l’hyperviseur.
Le 25/05/2020 à 19h 41
QM2-2P10G1T (peut être avec un bootloader usb xD)
Pour ma part, j’ai déjà fait booter sans problème des Windows sur des SSDs branchés sur adaptateur SATA externe. C’est moche mais peut être que ça peut convenir?
Sinon tu peux installer un vsphere sur une carte SD de qualité, en 256Go: tu pourras installer Windows sur 128 des 256Go disponibles et y attacher la carte SAS de la carte mère.
Windows 10 Mai 2020 (2004, 20H1) est disponible : comment se mettre à jour et récupérer l’ISO
28/05/2020
Le 28/05/2020 à 12h 06
Comment déporter le stockage de votre PC sur un NAS via iSCSI
22/05/2020
Le 26/05/2020 à 19h 07
(skyzocom le retour)
Le 26/05/2020 à 19h 05
Je t’agresse pas, désolé que tu le lises ainsi.
Sauf que nous sommes plus évolués que des utilisateurs, donc les nuances ont du sens: le ISCSI est nu, alors que Samba est habillé.
Et une augmentation du ping, non, désolé, y’a pas de rapport avec un MTU à 9000. Par contre, il faut que tous les équipements le gèrent et soient dimensionnés pour… Si ton ping augmente, c’est que ton routeur s’agenouille. En général, on mets une carte réseau spéciale iSCSI et celle-ci est en MTU 9000, alors que la carte réseau PC reste en 1500 par défaut. Au moins nous sommes sur que le iSCSI ne sorte pas par erreur (et même ça fini très souvent dans un vlan).
Ca passe mais on le fait pas. Les fous qui ont les moyens de payer des interlans pour du iSCSI font du VxLAN, qui est une sorte de VLAN over UDP. Ce sont des switchs à 5000€ les plus mauvais, pour des liaisons qui te coutent 2 ou 3000€/mois donc bon ^^; Un autre monde….