les notifications apparaissent dans l’icône Date & heure maintenant et les accès rapides sont sur les icônes réseau/son/batterie qui ne forment plus qu’un maintenant.
(quote:60523:brice.wernet) Non, on y perd sur la conso à vide, l’enveloppe thermique ou la vitesse maxi (même si des subterfuges permettent de limiter cette dernière). Plus de coeurs sur ton portable = moins d’autonomie.
On y perd tellement que les PC portables hdg d’aujourd’hui arrivent à flirter avec les 10h d’autonomie, qu’Intel fournit des 10 cores avec un TDP réglable à 25W et qu’on dépasse les 4GHz sur la majorité des puces en boost (et le mien ne descend jamais en dessous en une journée d’utilisation pour un TDP cible de 15W). Et bien sur chez ARM aussi le nombre de cœurs augmente.
Intel a fait un travail phénoménal sur la conso de ses puces portables. AMD est revenu dans la course aussi et ARM n’en finit pas d’optimiser sa gestion des cœurs. On a atteint un mur avec les fréquences depuis la fin des Pentium, approcher les 5GHz demande énormément alors que multiplier les cœurs est devenu aisé.
Le
13/10/2021 à
09h
52
(quote:60502:brice.wernet) Un ryzen 3600 est généralement totalement inutile en pro,
Define “pro”. Ca va du logiciel de gestion de lignes qu’un ouvrier va remplir lentement au logiciel d’édition vidéo qui gère des flux 16K en amont, en passant par de la bureautique simples mais éparpillées en plusieurs logiciels simultanés. On peut pas dire que le processeur X ne convient pas à l’utilisation Y car il y a trop de cas différents.
Avoir 4C/8T, c’est agréable, on peut lancer plein d’applis sans soucis. Mais en général, aucune appli ne se parallélise bien
Oui mais justement l’intérêt c’est aussi comme tu le dis d’augmenter la quantité d’applications “sans rapport” qui tourne. Pas besoin d’être monteur vidéo pour profiter de multicores. Suffit d’avoir à gérer Teams, Outlook, un navigateur web, ton soft de boulot (dans mon cas un IDE) et une poignées de petits softs en fond (gestionnaire de mdp, cloud, vpn si télétravail…) et tu auras ton cas d’utilisation. Je bosse sur un i7-10610U, 4C/8T, et je suis jamais sous les 25% d’utilisation alors que je coche aucun de tes cas “utilisation intensive”.
On a tout à gagner à augmenter le nombre de cœurs, Il faut arrêter de se dire “les gens ont pas besoin d’autant”. Les gens ont besoin de faire fonctionner ce qu’ils veulent utiliser et si ils peuvent faire plus pour le même prix alors tout le monde est content.
Sur un format “nouveau” (ok c’est pas jeune les NUC mais ça change vite) qui veut redéfinir les mini pc et l’évolutivité je m’attend à tout.
Le
08/10/2021 à
18h
21
David_L a dit:
il faut en effet connecter plusieurs éléments du châssis au module
Et bah la tournure est pas claire. J’ai bien lu cette phrase plusieurs fois et il m’a fallu l’article que tu cites pour comprendre que tu parles du front panel.
Le
08/10/2021 à
17h
41
Bah non je vois pas. Quel élément a besoin d’être relié par un câble au module carte mère ? Je pensais que tout passait déjà par la connectique PCIe de la NUC Board.
Le
08/10/2021 à
16h
48
Je ne comprends pas ce que signifie ce “cableless” pour Raptor Canyon et Shrike Bay. De quel éléments à connecter parle-t-on ?
L’avantage pour un pro c’est le service. Quand tu payes une machine comme ça, tu payes le support/garantie. Ton Syno tombe panne ? tu appelles, ils dépannent si possible, ils échangent sinon. Ton Debian tombe en panne ? Too bad for you.
Pour un particulier, comme dit plus haut, c’est la simplicité de mis en oeuvre. Tu démarres, ça demande des infos basiques, ça crée un partage, t’es content. Monter une machine soi-même ça plait qu’aux sysadmins et aux amateurs.
Il en faut pour tout le monde, le choix existe, on est pas mal loti je pense.
300 € pour un NAS, c’est le grand minimum. Et quand tu regardes pour plus de baies, la différence de prix est encore plus hallucinante.
Parce que, encore une fois, il faut de la puissance pour interfacer et gérer autant de disques.
Cqoicebordel a dit:
Mais pourquoi pas se servir de IP comme bus ?
Parce que le principe du protocole IP ne le permet pas. Un bus permet de limiter au maximum l’overhead, le processeur discutant en direct avec le périphérique sans encapsulation. L’IP implique obligatoirement une encapsulation de ce que tu transmets, une vérification de l’information reçue (hors de question de fonctionner en UDP pour ça, tu corromprais ton disque au bout d’une minute) et un retour pour indiquer si tout s’est bien passé. De fait on ne peut pas passer directement dedans un protocole qui doit fonctionner sans overhead ou latence, on est obligé de passer par d’autres et donc se farcir tout le supplément de puissance que cela demande.
En fait la solution qui correspond le plus à ça c’est le Fibre Channel. Ça fonctionne en série, ça peut passer du protocole IP mais c’est surtout pensé pour passer directement du SCSI (et NVMe maintenant). Mais c’est pas du tout le même budget, parce que plutôt dirigé aux grosses entreprises et surtout à mon avis parce que le matériel doit être irréprochable pour garantir la sûreté de l’information qui passe (là où l’IP est moins regardant car y’a une vérification logicielle via TCP).
Le
28/09/2021 à
15h
52
Cqoicebordel a dit:
Je pige pas pourquoi ça serait beaucoup plus cher d’avoir du RJ45
Parce que l’USB est un bus, la communication entre le périphérique et l’hôte ne change pas radicalement entre être en interne ou USB. L’ethernet implique un paramétrage de l’interface pour pouvoir dialoguer, un dialogue avec la machine cliente, une étape pour transformer l’instruction iSCSI/NVMe-oF (dans le meilleur des cas, un partage classique à la SMB/NFS va induire plus d’overhead et demander un véritable OS pour gérer les droits) en instruction SATA/NVMe et vice-versa. Multiplier tout ça par la quantité d’I/O qu’il faut gérer.
Un Raspberry Pi 4 est juste en terme de performance pour ce rôle à cause de diverses limitations : réseau interfacé via USB 3 (jusqu’au 3 c’était de l’USB 2, ça plafonnait à 300Mbs), pas de SATA donc ajout d’un adaptateur USB et processeur léger pour tant d’I/O.
Dernier point : regarde le prix d’un boitier USB pour 4 disques : 150€ en moyenne. un NAS 4 baies ça commence à 300€ (et à ce prix t’as même du 2.5G).
Le
28/09/2021 à
07h
23
David_L a dit:
Si, il y a même un marché pour ça[…]
J’m’a emballé et j’suis resté sur l’idée du 1 support = 1 ASIC de l’autre sujet. Parce que oui à partir du moment où tu regroupes tes stockages ça prend tout son sens.
Le
27/09/2021 à
21h
06
je dit justement qu’un NAS est moins cher qu’un SAN. C’est le sens de ma phrase.
On ne le fait pas pour les SSD. Il faut gérer les couches réseaux, les protocoles pour gérer les DD, les protocoles pour communiquer avec d’autre appareils. Un Raspberry est déjà le strict minimum pour remplir ces conditions pour des disques durs alors partager des SSD qui débitent plusieurs Go/s c’est grosse bécane minimum.
Et comme on l’a dit dans les commentaire d’un autre article déporter un stockage sur un ASIC & cie n’a aucun intérêt. Pour les pro ça n’apporte aucun avantage comme regrouper les périphériques ou assurer une couche de redondance. Ca n’intéressera pas le grand public non plus car ça n’apporte rien de plus qu’un DD branché en interne mais avec une configuration plus complexe.
C’est joli pour la perf technique mais ça s’arrête là.
Le
27/09/2021 à
07h
30
(reply:60169:Cqoicebordel) Si c’est pas un NAS c’est quoi ? C’est déjà l’option la moins chère comparée à un SAN.
(reply:60175avid_L) Pour moi l’intérêt d’un SAN c’est de retirer la responsabilité du stockage à la machine cliente. On le voit bien avec iSCSI : on partage un LUN et on laisse le SAN s’occuper de gérer son RAID. Ça permet d’avoir d’un côté la machine cliente qui ne perd pas de temps à gérer ça et d’avoir un SAN qui peut facilement augmenter/diminuer/déplacer le stockage, gérer les backups/snapshots de manière transparente pour les clients. Donc si le but de NVMe-oF est d’être un successeur à iSCSI j’espère retrouver ce comportement à terme.
Après faudrait que je me renseigne déjà pour savoir comment est géré un pool/raid de péripéhriques mixtes SATA et NVMe.
Le
22/09/2021 à
18h
23
oui je sais mais par exemple avec iSCSI tu peux partager un périphérique virtuel. Avec zfs/mdadm tu crées une pool qui est vu par le système comme un volume de stockage au même titre qu’un DD & cie, c’est celui là que tu partages. Ma question est donc : est-ce que ça marche aussi ou volume physique only ?
Le
22/09/2021 à
16h
50
je me pose la question : le NVME-oF est-il utilisable seulement avec un périphérique NVMe ou bien on peut accéder aussi à une pool zfs/raid et si oui, est-ce que cela fonctionne avec une pool utilisant que du NVMe ou bien ça fonctionne avec des périphériques dédiés au cache ?
Techniquement faire un raid avec un disque local et un distant fonctionne (quoique je me demande si la différence de latence ne risque pas de poser problème) mais pour ton idée ça ne fonctionnera pas. La machine serveur n’a pas accès au contenu du disque qu’elle partage vu que toute la logique de gestion du disque est déléguée à la machine cliente. Dans ton plan une seule machine aura accès à tout le stockage et la deuxième à rien.
Si tu veux avoir deux machines redondantes avec le même stockage, il faut alors 3 machines. Un serveur qui fournira le stockage (un on appelle ça un SAN) et tes deux machines clientes qui font tourner leurs services. C’est d’ailleurs comme ça que fonctionne la redondance pour les hyperviseurs, tous ont accès au stockage partagé du SAN et lorsqu’une machine ne répond plus une seconde prend la main sur les VM qui tournaient.
Le
24/09/2021 à
09h
56
Parce que gérer plusieurs disques durs en même temps demande justement de la puissance, pour pouvoir gérer correctement la quantité d’I/O qu’est amené à supporter ce genre de solution.
Le
23/09/2021 à
15h
19
Ça existe et ça s’appelle un NAS. Ça ne sera jamais moins cher qu’un Raspberry Pi car on est déjà limite niveau performance avec ce genre d’appareil donc un arduino je pense qu’on peut rêver.
En vrai je ne vois aucun intérêt à proposer un produit si limité. Les professionnels qui veulent faire du NVMe-oF ou iSCSI le font pour :
augmenter les perfomances
regrouper en une machine le maximum de stockage pour simplifier leur infra
simplifier les process de backup et restauration.
Une solution à minima ne leur apporterait rien de tout ça. Reste le grand public, là encore pourquoi faire ? Ces protocoles ne sont pas pensé pour leur utilisation :
stockage accessible par un seul appareil -> go clé USB à la place
paramétrage bien plus complexe -> go partage SMB à la place
aucune autre utilité que d’être un stockage pour un appareil local -> go clé USB²
Il reste l’option du bidouilleur pour prouver que c’est faisable. Mouif.
pour compléter tout ce qui est dit, le choix entre iSCSI et SMB se fait selon l’utilisation finale :
SMB permet des connexions multiples et gère les droits utilisateurs finement. Pratique pour un partage classique mais s’en ressent niveau perfs car le serveur doit tout surveiller pour chaque fichier que l’on manipule
iSCSI donne un “disque dur” vide à un autre ordinateur, qui va pouvoir faire ce qu’il en veut, le serveur (target) ISCSI n’en ayant cure. De ce fait compliqué à partager mais comme le protocole envoie directement des blocs de data au lieu de fichiers les perfs explosent*.
Du coup le mieux à faire c’est : accès réservé à un ordinateur pour déporter son stockage > iSCSI accès partagé entre plusieurs personnes, sur des fichiers privés ou publics > SMB
*Pour donner un ordre d’idée, j’ai deux machines dont une dédiée au stockage. l’ancien partage machine-machine était en SMB/NFS et tournait à ~80Mo/s. J’ai tout refait et mis du iSCSI, ça tourne maintenant à +120Mo/s.
je suis totalement d’accord avec ce point de vue mais je pense qu’en coulisse chez AMD ça doit gonfler pas mal de voir qu’on met toujours en avant les concurrents même sur des gammes où ils ne sont pas.
Il faut peut-être aussi arrêter de comparer le prix d’une technologie éprouvée depuis 20 ans à celui d’une technologie encore naissante pour le grand public. Quand on veut les dernières technos c’est toujours plus cher, le temps de démocratiser et d’améliorer suffisamment les méthodes de productions pour réduire les coûts.
Personnellement j’utilisais du NAT entre l’hôte Proxmox et les CT pour ouvrir les ports et ensuite un reverse proxy pour les services Web. Marchait au poil.
Le
30/08/2021 à
14h
43
Par contre il y a un point à savoir impérativement à mon avis avant de se lancer corps et âmes dans Proxmox. Si l’article évite de comparer LXC avec Docker et des VM (à raison, il s’agit à mon avis d’un entre deux, un container à la docker mais géré à la manière d’une VM) il y a un point sur lequel la comparaison peut faire mal : le partage de fichiers entre CT/machines.
En effet les paramétrages de base d’un container LXC empêche d’accéder à un partage SMB/NFS pour des raisons de sécurité. Il faut alors paramétrer spécifiquement les containers ayant besoins d’accéder à ces ressources soit en élevant les droits (containers privilégiés) ou soit en montant le partage sur l’hôte puis en faisant des points de montages sur les CT, d’une manière beaucoup moins claire et simple que Docker.
C’est à mon sens le principal défaut de LXC. Tout les problèmes que j’ai eu avec se résument à ce sujet .
Le
30/08/2021 à
14h
23
J’aurais une préférence pour Proxmox. TrueNAS est très doué pour gérer des fichiers mais, bien qu’il en offre l’option, est moins destiné à l’exécution de services directement dessus. Tu auras une gestion beaucoup plus fine et un contrôle plus précis de tes services sous Proxmox. Après si tu es joueur tu peux tenter de faire une VM TrueNAS sur ton Proxmox et de lui donner un accès direct aux DD.
Le
30/08/2021 à
07h
54
ah donc j’ai migré mon Prox vers une infra docker (ce qui a causé la mort de ma CM et 1 mois de vide) parce que j’en avais marre de devoir faire mes CT pour apprendre juste après que Linuxserver fait aussi du Proxmox.
Je ne serait pas aussi catégorique, la comparaison Pi/Helios n’est pas si idiote mais il y a une différence majeure dans la genèse de ces produits qui explique les traitements opposés du logiciel.
Le Raspberry Pi est venu dans un monde où les solutions ARM ouvertes n’existaient pas. Il y avait bien le smartphone (et à moindre échelle Win Mobile en son temps) qui a suscité la curiosité des développeurs mais la difficulté pour débloquer l’appareil et son prix d’achat n’en faisait pas du tout l’outil idéal pour développer ses propres solutions. Le Pi devait donc tout faire pour prouver son intérêt et pour ça fournir une base logicielle accessible facilement pour attirer le plus de monde.
Les Helios eux sont arrivé à un moment où les solutions NAS de toutes formes existaient déjà. Des Logiciels comme OpenMediaVault sont déjà complets et taillés pour fonctionner sur du matériel varié. Ce qu’il manquait c’était une plateforme plus accessible et/ou économe que du x86 habituel mais plus complète que le Raspberry Pi au niveau I/O. Fournir un énième OS n’apportant pas plus que ce que fournit déjà la communauté aurait été une perte de temps.
En ce sens, les Helios ne sont donc pas comparables au Raspberry Pi mais plutôt aux clones comme le banana Pi, qui ne fournissent pas d’OS adaptés car les autres le font déjà bien.
(reply:59592:durthu) Oui TrueNas Core = Freenas. J’ai pas testé la partie VM/apps de TrueNAS mais côté stockage c’est puissant. C’est ZFS only par contre donc pas forcément intéressant si tu rajoutes des disques régulièrement.
Le
25/08/2021 à
07h
17
Oui, tu peux gérer tes disques comme bon te semble. Néanmoins Proxmox est un hyperviseur avant tout et donc la gestion du stockage, bien que plutôt bien faite, reste limitée (créer du LVM, LVM-thin, zfs ou directory directement sur une partition). Mais comme le cœur du système repose sur Debian rien n’empêche de se log en SSH (ou sur le shell de l’interface comme le montre l’article) pour aller bidouiller plus finement dans la création de son storage et les exploiter via l’interface après .
Minecraft le permet toujours, Sinon comme ça je suis pas un gros joueur multi mais Satisfactory s’auto-héberge (plus exactement en multi le serveur est host sur le joueur qui invite. Ils savent pas encore si ils feront une version serveur only pour héberger).
(reply:59458:Hyrakama) Si il compte utiliser Plex pour le serveur multimedia alors la GT1030 est obligatoire. Pas d’accélération matérielle avec les chip AMD chez eux.
(reply:59317:fofo9012) pas d’extraction, c’est l’UI qui est lente.
Le
13/08/2021 à
09h
11
Ah mais je ne doute pas qu’on puisse faire les choses bien, mais on peut aussi les faire très mal et on sait tous pertinemment qu’une fois les mauvaises habitudes prises dans une entreprise c’est cramé
Et puis je plaide coupable, notre ERP est développé en interne… Par une seule personne… Pour un effectif d’environ 150 utilisateurs. Oui c’est l’idée du siècle.
Le
10/08/2021 à
15h
14
sinon essayer d’utiliser Ctrl ou Alt séparément, Alt Gr étant la combinaison des deux. J’ai l’impression que le bug de MS et de “désappuyer” la touche qu’il pense bloquée quand on fait Alt Gr et du coup des fois faire Alt ou Ctrl + 0 me donne le @.
Le
10/08/2021 à
07h
56
Perso le problème du Alt Gr semble arriver plus souvent avec la console des VM HyperV. Switcher d’une VM au bureau me causait quasi tout le temps ce problème mais pas depuis une session rdp. Mais oui usant.
Le
10/08/2021 à
07h
10
fofo9012 a dit:
Un client / serveur fait ses requêtes en local (càd sur le serveur), et se content d’envoyer le résultat au client.
tu peux avoir le client le mieux réalisé qui soit, quand la requête utilisateur est “je veux tout les devis/contrats/documents depuis X années” ta réponse mettra 15 ans à arriver chez ton utilisateur en remote, aussi bien préparée soit-elle.
Et c’est pas une exception, ça s’appelle “un ERP”.
Sans compter qu’une connexion distante amène d’autres soucis qu’une simple baisse de débit : latence, gigue, perte de paquets… Il vaut mieux parfois privilégier la perte de ton écran de VM quelques instants que de voir une requête mal envoyée/reçue et foirer un enregistrement dans ton logiciel de compta.
Au taf on utilise les deux solutions : VPN ou rdp. les utilisateurs avec la fibre n’ont pas trop de soucis avec le vpn, les utilisateurs en adsl préfèrent de loin le rdp.
Le RDP apporte beaucoup d’avantages pour pas tant d’emmerdes que ça (sérieusement le paramétrage du RDP sur un serveur Windows c’est quelques clics pour activer et la sécurisation se fait via GPO du domaine).
Le
09/08/2021 à
19h
11
Pour le compte MS il faut juste ne pas connecter l’ordinateur au réseau pendant l’étape de configuration au 1er démarrage. C’est très idiot comme obligation on est d’accord.
Le low profile désigne les cartes dont l’équerre est plus courte que les équerres classiques dites Full Height : comme ici. La RTX A2000 occupe effectivement 2 slots mais en étant low profile donc.
(reply:59138:plopl) Dans mon parc de PC pour techniciens j’ai eu plus de casse du port alim que d’USB.
Et puis le type C est beaucoup moins long que les ports USB et alimentations classiques, il aura donc plus de facilité à s’arracher et moins de risques de casser.
Pour ce qui est la durée de vie sur le long terme on a déjà un retour avec les téléphones portables qui y sont passés depuis quelques années et ça semble aller dans le bon sens.
(quote:59076:skankhunt42 ) Par contre une carte “3D” peut aussi être utilisé pour de la 2D ou n’importe quelle autre tache.
Pas à l’époque. Les cartes 3D étaient des cartes “accélératrices” qui fonctionnaient de pair avec une carte 2D mais pas seules.
l’ouverture plus ou moins relative des jeux.
Euh le Steam Workshop c’est pas ce que j’appellerais une ouverture “relative”. L’ouverture au mod est franche dans le monde PC et même les développeurs ne sont pas enclins à le faire les modders trouvent toujours une parade.
Par contre je te rejoins sur le côté “pro” de la situation. Le développement d’un jeu vidéo n’a jamais été aussi simple qu’aujourd’hui et bon nombre de personnes s’y lancent en solo ou tout petit studio. Par conséquent les fabricants se sont adaptés et proposent du matériel dans des gammes hybrides, avec la puissance brute et des fonctionnalités orientées pro mais pensé pour une utilisation plus casual.
Le
04/08/2021 à
08h
21
On commence à revoir des 3080 sous la barre symbolique des 1000€, j’ai bon espoir pour l’an prochain.
Bah le rendu 3D si. C’est pas pour rien que nVidia a laissé tomber le SLI et AMD le Crossfire. Trop compliqué pour un gain ridicule.
Officiellement le Multi-GPU dans DX12 et Vulkan est censé prendre la relève mais le boulot revient maintenant aux développeurs et plus aux deux géants, donc autant dire que ça va pas bouger des masses maintenant.
Le ventilo de 140 est un bon point mais tant qu’ on y est pourquoi ne pas l’ installer de façon à ce qu’ il soit facilement interchangeable[…]. Cela aussi aurait été plus utile surtout en ce qui concerne le développement durable ou la lutte contre l’ obsolescence programmée.
En vrai c’est très simple à changer un ventilo d’alimentation. Tu dévisses la coque (qui en général tient avec 4 vis simples) et tu dévisses/débranches le ventilo.
Je saisis pas l’idée concernant les prises USB, tu aurais voulu des prises de charge USB sur la face extérieure de l’alim ? C’est pas le must de l’accessibilité et puis de plus en plus de boitiers cachent le bloc alim en le déportant complètement à l’intérieur.
Ne fonctionne pas à la vitesse attendue = ne fonctionne pas correctement.
un écran USB-C a toutes les chances de ne rien afficher si tu branches dans une prise USB-C au hasard. Idem pour le chargeur de portable USB-C. Il y’a aussi les hub USB-C qui brident des fonctions, t’as un truc qui fonctionne, tu ajoutes une “multi-prise” et tu perds une fonctionnalité…
Tout ce que tu cites là repose sur la signalétique de l’USB. Si tu respectes ces symboles tu auras toutes tes fonctionnalités. Je branche mon chargeur USB-C sur la prise indiquée, je branche mes câbles vidéo sur les prises présentant le logo DP, j’ai bien tout de fonctionnel.
Comme le dit David, si ton produit ne respectes pas les règles, change de crèmerie. L’USB 3 et ses alt mode est de plus en plus demandé et donc incorporé correctement par les fabricants.
Sur mon Dell 7300 il y’a qu’un éclair : et aucun des logos USB de ton PDF. Je n’ai jamais toute cette ribambelle de logo sur aucun de mes portables (Dell ou Lenovo)
Eclair = Thunderbolt. Le Thunderbolt gère tout, pas de question à se poser.
459 commentaires
Windows 11 : emojis Fluent Design et quelques autres nouveautés pour la build 22478
15/10/2021
Le 15/10/2021 à 09h 44
les notifications apparaissent dans l’icône Date & heure maintenant et les accès rapides sont sur les icônes réseau/son/batterie qui ne forment plus qu’un maintenant.
DDR5 : G.SKill annonce ses modules Trident Z5, jusqu’à 6,4 GHz (CL36)
14/10/2021
Le 14/10/2021 à 11h 56
NVIDIA publie ses pilotes 496.13, DLSS s’étend (même à d’anciens jeux)
13/10/2021
Le 13/10/2021 à 13h 28
J’avais cru comprendre que la génération des 700 était déjà laissé sur le bord de la route par NV. Je gagne un peu de répit.
AMD fête les 5 ans de l’annonce des processeurs Ryzen et évoque (enfin) sa feuille de route 2022
12/10/2021
Le 13/10/2021 à 13h 26
On y perd tellement que les PC portables hdg d’aujourd’hui arrivent à flirter avec les 10h d’autonomie, qu’Intel fournit des 10 cores avec un TDP réglable à 25W et qu’on dépasse les 4GHz sur la majorité des puces en boost (et le mien ne descend jamais en dessous en une journée d’utilisation pour un TDP cible de 15W). Et bien sur chez ARM aussi le nombre de cœurs augmente.
Intel a fait un travail phénoménal sur la conso de ses puces portables. AMD est revenu dans la course aussi et ARM n’en finit pas d’optimiser sa gestion des cœurs. On a atteint un mur avec les fréquences depuis la fin des Pentium, approcher les 5GHz demande énormément alors que multiplier les cœurs est devenu aisé.
Le 13/10/2021 à 09h 52
Define “pro”. Ca va du logiciel de gestion de lignes qu’un ouvrier va remplir lentement au logiciel d’édition vidéo qui gère des flux 16K en amont, en passant par de la bureautique simples mais éparpillées en plusieurs logiciels simultanés. On peut pas dire que le processeur X ne convient pas à l’utilisation Y car il y a trop de cas différents.
Oui mais justement l’intérêt c’est aussi comme tu le dis d’augmenter la quantité d’applications “sans rapport” qui tourne. Pas besoin d’être monteur vidéo pour profiter de multicores. Suffit d’avoir à gérer Teams, Outlook, un navigateur web, ton soft de boulot (dans mon cas un IDE) et une poignées de petits softs en fond (gestionnaire de mdp, cloud, vpn si télétravail…) et tu auras ton cas d’utilisation. Je bosse sur un i7-10610U, 4C/8T, et je suis jamais sous les 25% d’utilisation alors que je coche aucun de tes cas “utilisation intensive”.
On a tout à gagner à augmenter le nombre de cœurs, Il faut arrêter de se dire “les gens ont pas besoin d’autant”. Les gens ont besoin de faire fonctionner ce qu’ils veulent utiliser et si ils peuvent faire plus pour le même prix alors tout le monde est content.
Alder Lake, SFX 12VO, Dual Connect : comment les NUC d’Intel vont évoluer d’ici 2022
08/10/2021
Le 09/10/2021 à 09h 51
Sur un format “nouveau” (ok c’est pas jeune les NUC mais ça change vite) qui veut redéfinir les mini pc et l’évolutivité je m’attend à tout.
Le 08/10/2021 à 18h 21
Et bah la tournure est pas claire. J’ai bien lu cette phrase plusieurs fois et il m’a fallu l’article que tu cites pour comprendre que tu parles du front panel.
Le 08/10/2021 à 17h 41
Bah non je vois pas. Quel élément a besoin d’être relié par un câble au module carte mère ? Je pensais que tout passait déjà par la connectique PCIe de la NUC Board.
Le 08/10/2021 à 16h 48
Je ne comprends pas ce que signifie ce “cableless” pour Raptor Canyon et Shrike Bay. De quel éléments à connecter parle-t-on ?
Synology : DSM 7.0.1 disponible, la seconde vague de NAS compatibles
29/09/2021
Le 30/09/2021 à 07h 30
L’avantage pour un pro c’est le service. Quand tu payes une machine comme ça, tu payes le support/garantie.
Ton Syno tombe panne ? tu appelles, ils dépannent si possible, ils échangent sinon.
Ton Debian tombe en panne ? Too bad for you.
Pour un particulier, comme dit plus haut, c’est la simplicité de mis en oeuvre. Tu démarres, ça demande des infos basiques, ça crée un partage, t’es content. Monter une machine soi-même ça plait qu’aux sysadmins et aux amateurs.
Il en faut pour tout le monde, le choix existe, on est pas mal loti je pense.
Kioxia parle du futur du stockage, le PCIe 5.0 n’est pas le plus intéressant
24/09/2021
Le 29/09/2021 à 08h 54
Parce que, encore une fois, il faut de la puissance pour interfacer et gérer autant de disques.
Parce que le principe du protocole IP ne le permet pas. Un bus permet de limiter au maximum l’overhead, le processeur discutant en direct avec le périphérique sans encapsulation. L’IP implique obligatoirement une encapsulation de ce que tu transmets, une vérification de l’information reçue (hors de question de fonctionner en UDP pour ça, tu corromprais ton disque au bout d’une minute) et un retour pour indiquer si tout s’est bien passé. De fait on ne peut pas passer directement dedans un protocole qui doit fonctionner sans overhead ou latence, on est obligé de passer par d’autres et donc se farcir tout le supplément de puissance que cela demande.
En fait la solution qui correspond le plus à ça c’est le Fibre Channel. Ça fonctionne en série, ça peut passer du protocole IP mais c’est surtout pensé pour passer directement du SCSI (et NVMe maintenant). Mais c’est pas du tout le même budget, parce que plutôt dirigé aux grosses entreprises et surtout à mon avis parce que le matériel doit être irréprochable pour garantir la sûreté de l’information qui passe (là où l’IP est moins regardant car y’a une vérification logicielle via TCP).
Le 28/09/2021 à 15h 52
Parce que l’USB est un bus, la communication entre le périphérique et l’hôte ne change pas radicalement entre être en interne ou USB. L’ethernet implique un paramétrage de l’interface pour pouvoir dialoguer, un dialogue avec la machine cliente, une étape pour transformer l’instruction iSCSI/NVMe-oF (dans le meilleur des cas, un partage classique à la SMB/NFS va induire plus d’overhead et demander un véritable OS pour gérer les droits) en instruction SATA/NVMe et vice-versa. Multiplier tout ça par la quantité d’I/O qu’il faut gérer.
Un Raspberry Pi 4 est juste en terme de performance pour ce rôle à cause de diverses limitations : réseau interfacé via USB 3 (jusqu’au 3 c’était de l’USB 2, ça plafonnait à 300Mbs), pas de SATA donc ajout d’un adaptateur USB et processeur léger pour tant d’I/O.
Dernier point : regarde le prix d’un boitier USB pour 4 disques : 150€ en moyenne. un NAS 4 baies ça commence à 300€ (et à ce prix t’as même du 2.5G).
Le 28/09/2021 à 07h 23
J’m’a emballé et j’suis resté sur l’idée du 1 support = 1 ASIC de l’autre sujet. Parce que oui à partir du moment où tu regroupes tes stockages ça prend tout son sens.
Le 27/09/2021 à 21h 06
je dit justement qu’un NAS est moins cher qu’un SAN. C’est le sens de ma phrase.
On ne le fait pas pour les SSD. Il faut gérer les couches réseaux, les protocoles pour gérer les DD, les protocoles pour communiquer avec d’autre appareils. Un Raspberry est déjà le strict minimum pour remplir ces conditions pour des disques durs alors partager des SSD qui débitent plusieurs Go/s c’est grosse bécane minimum.
Et comme on l’a dit dans les commentaire d’un autre article déporter un stockage sur un ASIC & cie n’a aucun intérêt. Pour les pro ça n’apporte aucun avantage comme regrouper les périphériques ou assurer une couche de redondance. Ca n’intéressera pas le grand public non plus car ça n’apporte rien de plus qu’un DD branché en interne mais avec une configuration plus complexe.
C’est joli pour la perf technique mais ça s’arrête là.
Le 27/09/2021 à 07h 30
NVMe/TCP : partagez vos SSD depuis Ubuntu Server, notre script pour vous y aider
21/09/2021
Le 27/09/2021 à 12h 20
Après faudrait que je me renseigne déjà pour savoir comment est géré un pool/raid de péripéhriques mixtes SATA et NVMe.
Le 22/09/2021 à 18h 23
oui je sais mais par exemple avec iSCSI tu peux partager un périphérique virtuel. Avec zfs/mdadm tu crées une pool qui est vu par le système comme un volume de stockage au même titre qu’un DD & cie, c’est celui là que tu partages. Ma question est donc : est-ce que ça marche aussi ou volume physique only ?
Le 22/09/2021 à 16h 50
je me pose la question : le NVME-oF est-il utilisable seulement avec un périphérique NVMe ou bien on peut accéder aussi à une pool zfs/raid et si oui, est-ce que cela fonctionne avec une pool utilisant que du NVMe ou bien ça fonctionne avec des périphériques dédiés au cache ?
NVMe/TCP sur un Raspberry Pi : c’est possible, quelles performances ?
23/09/2021
Le 27/09/2021 à 07h 27
Techniquement faire un raid avec un disque local et un distant fonctionne (quoique je me demande si la différence de latence ne risque pas de poser problème) mais pour ton idée ça ne fonctionnera pas. La machine serveur n’a pas accès au contenu du disque qu’elle partage vu que toute la logique de gestion du disque est déléguée à la machine cliente. Dans ton plan une seule machine aura accès à tout le stockage et la deuxième à rien.
Si tu veux avoir deux machines redondantes avec le même stockage, il faut alors 3 machines. Un serveur qui fournira le stockage (un on appelle ça un SAN) et tes deux machines clientes qui font tourner leurs services. C’est d’ailleurs comme ça que fonctionne la redondance pour les hyperviseurs, tous ont accès au stockage partagé du SAN et lorsqu’une machine ne répond plus une seconde prend la main sur les VM qui tournaient.
Le 24/09/2021 à 09h 56
Parce que gérer plusieurs disques durs en même temps demande justement de la puissance, pour pouvoir gérer correctement la quantité d’I/O qu’est amené à supporter ce genre de solution.
Le 23/09/2021 à 15h 19
Ça existe et ça s’appelle un NAS. Ça ne sera jamais moins cher qu’un Raspberry Pi car on est déjà limite niveau performance avec ce genre d’appareil donc un arduino je pense qu’on peut rêver.
En vrai je ne vois aucun intérêt à proposer un produit si limité. Les professionnels qui veulent faire du NVMe-oF ou iSCSI le font pour :
Une solution à minima ne leur apporterait rien de tout ça. Reste le grand public, là encore pourquoi faire ? Ces protocoles ne sont pas pensé pour leur utilisation :
Il reste l’option du bidouilleur pour prouver que c’est faisable. Mouif.
Concours GeForce RTX 3060 Ti : et le gagnant est…
27/09/2021
Le 15/09/2021 à 11h 52
soyons fou, mon PC sera content.
NVMe-over-Fabrics (NVMe-oF) : partagez vos SSD NVMe sur le réseau
14/09/2021
Le 14/09/2021 à 11h 46
pour compléter tout ce qui est dit, le choix entre iSCSI et SMB se fait selon l’utilisation finale :
Du coup le mieux à faire c’est :
accès réservé à un ordinateur pour déporter son stockage > iSCSI
accès partagé entre plusieurs personnes, sur des fichiers privés ou publics > SMB
*Pour donner un ordre d’idée, j’ai deux machines dont une dédiée au stockage. l’ancien partage machine-machine était en SMB/NFS et tournait à ~80Mo/s. J’ai tout refait et mis du iSCSI, ça tourne maintenant à +120Mo/s.
Lenovo ThinkStation P620 : à la découverte d’une station de travail avec Threadripper Pro
13/09/2021
Le 14/09/2021 à 07h 49
Le P920 utilise des Intel Xeon, pas des EPYC.
Le 13/09/2021 à 14h 48
je suis totalement d’accord avec ce point de vue mais je pense qu’en coulisse chez AMD ça doit gonfler pas mal de voir qu’on met toujours en avant les concurrents même sur des gammes où ils ne sont pas.
ASW205T : ASUSTOR lance son switch 5x 2,5 Gb/s
09/09/2021
Le 09/09/2021 à 14h 36
Il faut peut-être aussi arrêter de comparer le prix d’une technologie éprouvée depuis 20 ans à celui d’une technologie encore naissante pour le grand public. Quand on veut les dernières technos c’est toujours plus cher, le temps de démocratiser et d’améliorer suffisamment les méthodes de productions pour réduire les coûts.
Concours Next INpact de rentrée : qui sont les gagnants ?
13/09/2021
Le 07/09/2021 à 07h 54
oh bah une petite clé allons-y, ça fait un moment que je me tâte à sauter le pas.
Linux Containers (LXC) dans Proxmox VE 7.0 : installez simplement des distributions et services
27/08/2021
Le 31/08/2021 à 07h 47
Personnellement j’utilisais du NAT entre l’hôte Proxmox et les CT pour ouvrir les ports et ensuite un reverse proxy pour les services Web. Marchait au poil.
Le 30/08/2021 à 14h 43
Par contre il y a un point à savoir impérativement à mon avis avant de se lancer corps et âmes dans Proxmox. Si l’article évite de comparer LXC avec Docker et des VM (à raison, il s’agit à mon avis d’un entre deux, un container à la docker mais géré à la manière d’une VM) il y a un point sur lequel la comparaison peut faire mal : le partage de fichiers entre CT/machines.
En effet les paramétrages de base d’un container LXC empêche d’accéder à un partage SMB/NFS pour des raisons de sécurité. Il faut alors paramétrer spécifiquement les containers ayant besoins d’accéder à ces ressources soit en élevant les droits (containers privilégiés) ou soit en montant le partage sur l’hôte puis en faisant des points de montages sur les CT, d’une manière beaucoup moins claire et simple que Docker.
C’est à mon sens le principal défaut de LXC. Tout les problèmes que j’ai eu avec se résument à ce sujet .
Le 30/08/2021 à 14h 23
J’aurais une préférence pour Proxmox. TrueNAS est très doué pour gérer des fichiers mais, bien qu’il en offre l’option, est moins destiné à l’exécution de services directement dessus. Tu auras une gestion beaucoup plus fine et un contrôle plus précis de tes services sous Proxmox. Après si tu es joueur tu peux tenter de faire une VM TrueNAS sur ton Proxmox et de lui donner un accès direct aux DD.
Le 30/08/2021 à 07h 54
ah donc j’ai migré mon Prox vers une infra docker (ce qui a causé la mort de ma CM et 1 mois de vide) parce que j’en avais marre de devoir faire mes CT pour apprendre juste après que Linuxserver fait aussi du Proxmox.
Je reste cool.
NAS Kobol (Helios4, Helios64) : c’est fini
26/08/2021
Le 30/08/2021 à 07h 51
Je ne serait pas aussi catégorique, la comparaison Pi/Helios n’est pas si idiote mais il y a une différence majeure dans la genèse de ces produits qui explique les traitements opposés du logiciel.
Le Raspberry Pi est venu dans un monde où les solutions ARM ouvertes n’existaient pas. Il y avait bien le smartphone (et à moindre échelle Win Mobile en son temps) qui a suscité la curiosité des développeurs mais la difficulté pour débloquer l’appareil et son prix d’achat n’en faisait pas du tout l’outil idéal pour développer ses propres solutions. Le Pi devait donc tout faire pour prouver son intérêt et pour ça fournir une base logicielle accessible facilement pour attirer le plus de monde.
Les Helios eux sont arrivé à un moment où les solutions NAS de toutes formes existaient déjà. Des Logiciels comme OpenMediaVault sont déjà complets et taillés pour fonctionner sur du matériel varié. Ce qu’il manquait c’était une plateforme plus accessible et/ou économe que du x86 habituel mais plus complète que le Raspberry Pi au niveau I/O. Fournir un énième OS n’apportant pas plus que ce que fournit déjà la communauté aurait été une perte de temps.
En ce sens, les Helios ne sont donc pas comparables au Raspberry Pi mais plutôt aux clones comme le banana Pi, qui ne fournissent pas d’OS adaptés car les autres le font déjà bien.
Proxmox VE 7.0 : installation sur un serveur et création d’une machine virtuelle
25/08/2021
Le 25/08/2021 à 07h 51
Le 25/08/2021 à 07h 17
Oui, tu peux gérer tes disques comme bon te semble. Néanmoins Proxmox est un hyperviseur avant tout et donc la gestion du stockage, bien que plutôt bien faite, reste limitée (créer du LVM, LVM-thin, zfs ou directory directement sur une partition). Mais comme le cœur du système repose sur Debian rien n’empêche de se log en SSH (ou sur le shell de l’interface comme le montre l’article) pour aller bidouiller plus finement dans la création de son storage et les exploiter via l’interface après .
Shadow : Octave Klaba ne veut plus de vGPU, un client web en préparation
17/08/2021
Le 23/08/2021 à 09h 19
Minecraft le permet toujours, Sinon comme ça je suis pas un gros joueur multi mais Satisfactory s’auto-héberge (plus exactement en multi le serveur est host sur le joueur qui invite. Ils savent pas encore si ils feront une version serveur only pour héberger).
Cartes mères X570S : MSI dévoile une gamme dédiée, aux nombreuses spécificités
18/08/2021
Le 18/08/2021 à 11h 10
Le 18/08/2021 à 08h 49
La différence entre un port PCIe 4.0 x16 et 3.0 (donc équivalent x8) sur les GPU haut de gamme est anecdotique . Au pire ça limite peut-être un peu les upgrades futures.
Et puis les personnes qui cherchent à avoir 6 NVMe ne sont peut-être pas ceux ayant besoin du plus gros GPU.
Accès distant à Windows 365 ou classique : clients légers, OS dédiés et Raspberry Pi
09/08/2021
Le 13/08/2021 à 12h 39
Le 13/08/2021 à 09h 11
Ah mais je ne doute pas qu’on puisse faire les choses bien, mais on peut aussi les faire très mal et on sait tous pertinemment qu’une fois les mauvaises habitudes prises dans une entreprise c’est cramé
Et puis je plaide coupable, notre ERP est développé en interne… Par une seule personne… Pour un effectif d’environ 150 utilisateurs. Oui c’est l’idée du siècle.
Le 10/08/2021 à 15h 14
sinon essayer d’utiliser Ctrl ou Alt séparément, Alt Gr étant la combinaison des deux. J’ai l’impression que le bug de MS et de “désappuyer” la touche qu’il pense bloquée quand on fait Alt Gr et du coup des fois faire Alt ou Ctrl + 0 me donne le @.
Le 10/08/2021 à 07h 56
Perso le problème du Alt Gr semble arriver plus souvent avec la console des VM HyperV. Switcher d’une VM au bureau me causait quasi tout le temps ce problème mais pas depuis une session rdp. Mais oui usant.
Le 10/08/2021 à 07h 10
tu peux avoir le client le mieux réalisé qui soit, quand la requête utilisateur est “je veux tout les devis/contrats/documents depuis X années” ta réponse mettra 15 ans à arriver chez ton utilisateur en remote, aussi bien préparée soit-elle.
Et c’est pas une exception, ça s’appelle “un ERP”.
Sans compter qu’une connexion distante amène d’autres soucis qu’une simple baisse de débit : latence, gigue, perte de paquets… Il vaut mieux parfois privilégier la perte de ton écran de VM quelques instants que de voir une requête mal envoyée/reçue et foirer un enregistrement dans ton logiciel de compta.
Au taf on utilise les deux solutions : VPN ou rdp. les utilisateurs avec la fibre n’ont pas trop de soucis avec le vpn, les utilisateurs en adsl préfèrent de loin le rdp.
Le RDP apporte beaucoup d’avantages pour pas tant d’emmerdes que ça (sérieusement le paramétrage du RDP sur un serveur Windows c’est quelques clics pour activer et la sécurisation se fait via GPO du domaine).
Le 09/08/2021 à 19h 11
Pour le compte MS il faut juste ne pas connecter l’ordinateur au réseau pendant l’étape de configuration au 1er démarrage. C’est très idiot comme obligation on est d’accord.
NVIDIA dévoile sa RTX A2000 « low profile » à 450 dollars, attendue pour octobre
10/08/2021
Le 11/08/2021 à 12h 25
Le low profile désigne les cartes dont l’équerre est plus courte que les équerres classiques dites Full Height : comme ici.
La RTX A2000 occupe effectivement 2 slots mais en étant low profile donc.
Le DisplayPort 2.0 dans les starting-blocks, bientôt intégré aux NUC d’Intel ?
09/08/2021
Le 09/08/2021 à 14h 08
Et puis le type C est beaucoup moins long que les ports USB et alimentations classiques, il aura donc plus de facilité à s’arracher et moins de risques de casser.
Pour ce qui est la durée de vie sur le long terme on a déjà un retour avec les téléphones portables qui y sont passés depuis quelques années et ça semble aller dans le bon sens.
Retour de 3DFX : le compte Twitter « officiel » supprimé
06/08/2021
Le 05/08/2021 à 14h 44
Pas à l’époque. Les cartes 3D étaient des cartes “accélératrices” qui fonctionnaient de pair avec une carte 2D mais pas seules.
Euh le Steam Workshop c’est pas ce que j’appellerais une ouverture “relative”. L’ouverture au mod est franche dans le monde PC et même les développeurs ne sont pas enclins à le faire les modders trouvent toujours une parade.
Par contre je te rejoins sur le côté “pro” de la situation. Le développement d’un jeu vidéo n’a jamais été aussi simple qu’aujourd’hui et bon nombre de personnes s’y lancent en solo ou tout petit studio. Par conséquent les fabricants se sont adaptés et proposent du matériel dans des gammes hybrides, avec la puissance brute et des fonctionnalités orientées pro mais pensé pour une utilisation plus casual.
Le 04/08/2021 à 08h 21
On commence à revoir des 3080 sous la barre symbolique des 1000€, j’ai bon espoir pour l’an prochain.
Apple intègre les Radeon Pro W6800X (Duo) et W6900X à ses Mac Pro
04/08/2021
Le 05/08/2021 à 13h 03
Bah le rendu 3D si. C’est pas pour rien que nVidia a laissé tomber le SLI et AMD le Crossfire. Trop compliqué pour un gain ridicule.
Officiellement le Multi-GPU dans DX12 et Vulkan est censé prendre la relève mais le boulot revient maintenant aux développeurs et plus aux deux géants, donc autant dire que ça va pas bouger des masses maintenant.
Gigabyte AORUS P1200 : une alimentation avec… écran couleur intégré
02/08/2021
Le 05/08/2021 à 07h 40
En vrai c’est très simple à changer un ventilo d’alimentation. Tu dévisses la coque (qui en général tient avec 4 vis simples) et tu dévisses/débranches le ventilo.
Je saisis pas l’idée concernant les prises USB, tu aurais voulu des prises de charge USB sur la face extérieure de l’alim ? C’est pas le must de l’accessibilité et puis de plus en plus de boitiers cachent le bloc alim en le déportant complètement à l’intérieur.
Vers un Thunderbolt 5 à 80 Gb/s chez Intel ?
02/08/2021
Le 04/08/2021 à 10h 00
Ne fonctionne pas à la vitesse attendue = ne fonctionne pas correctement.
Tout ce que tu cites là repose sur la signalétique de l’USB. Si tu respectes ces symboles tu auras toutes tes fonctionnalités. Je branche mon chargeur USB-C sur la prise indiquée, je branche mes câbles vidéo sur les prises présentant le logo DP, j’ai bien tout de fonctionnel.
Comme le dit David, si ton produit ne respectes pas les règles, change de crèmerie. L’USB 3 et ses alt mode est de plus en plus demandé et donc incorporé correctement par les fabricants.
Eclair = Thunderbolt. Le Thunderbolt gère tout, pas de question à se poser.