(reply:57451:Scivolema) d’après le schéma les coeurs ne sont pas recouverts par le cache, ils ajoutent du silicium “vide” pour mettre le tout à la même hauteur et faire contact avec le shield. On peut peut-être s’attendre à une très légère hausse des températures des cores je crains oui.
(reply:57440:Tophe) Intel a la gamme Optane pour ça, de la flash avec les avantages de la RAM en terme de vitesse/latence. Par contre je sais pas si c’est compatible avec tout les CPU Intel ou reservé au plus gros. Ils en font au format DIMM pour les serveurs.
(reply:57354:NSACloudBackup) facture énergétique, matérielle et bâtiment. Tu peux avoir les mêmes perfs que pour le double de baies/disques classiques. Je ne vois pas vraiment de point noir à ce produit pour les entreprises, c’est tout bénéf’.
(reply:57297:Idiogène) J’ai absolument rien compris. Ce que dit Alxnd c’est que le haut de gamme d’avant c’était 2/3/4 CG contre une seule aujourd’hui. Il y avait des configs à 1500~2000€ avant, il y en a aujourd’hui. Les choses n’ont pas beaucoup changé.
Le
19/05/2021 à
22h
04
(quote:57243:Idiogène) Il y a un gouffre entre revendiquer et confirmer.
Totalement d’accord, néanmoins la pression a été suffisante pour que Sony et MS revoient leurs plans. Il n’y a pas forcément besoin d’aller jusqu’à l’acte, le risque de perdre un partenaire commercial peut aussi faire peur aux grands constructeurs. C’est un équilibre.
Je ne conteste pas cette logique. Nvidia devient cependant dangereux en sortant une pseudo gamme qui risque de présenter des scènes comme :
“meh elle coûte mille la 3080 et c’est 600 la 3080 LHR”
On sait tous pertinemment que le marché ne va pas se redresser en un jour par magie. D’autant plus que les modèles LHR n’ont pas vocation à être marketés là dessus, c’est juste une révision. Le prix des 3060 n’a pas baissé quand nVidia a sorti sa protection (avant qu’elle ne soit contournée).
Nvidia peut refuser le retour. Il fera la vierge : sale mineur.
Si nVidia le refuse alors le revendeur aussi. Les règles sont les mêmes concernant les garanties.
Et puis soyons honnêtes : est-ce que le géant des GPU voudra prendre le risque de se mettre tout le monde sur le dos à cause d’une erreur et de voir ses ventes futures fondre ? Parce que le gamer il aime bien sa marque fétiche mais il y a quelque chose qu’il déteste par dessus tout : perdre en performance. Regarde la grogne qu’il peut y avoir pour des problèmes triviaux comme l’histoire de la ram de la GTX 970.
Le
19/05/2021 à
21h
24
(quote:57240:Idiogène) Jusqu’ici Sony n’a pas revendiqué publiquement vendre moins cher ses feuilles pliées.
La PS4 semble avoir été une exception passagère pour Sony qui a pu la vendre un peu au dessus de son coût de production et la Xbox 360 a elle aussi couté un peu moins chère que son prix conseillé mais a coûté énormément à Microsoft lors de l’arrivée du Red Ring of Death qui a malgré tout décidé d’éponger les frais et continuer l’aventure.
Cela reste à voir ce qu’en pensent les revendeurs.
Tant qu’ils font une marge, ils sont contents. Et si la boutique nVidia était suffisamment dangereuse pour eux t’inquiètes pas qu’ils le feraient savoir. les boutiques JV avaient bien menacé Sony et MS de ne pas vendre leurs consoles et jeux si ils décidaient de se tourner totalement vers le démat’, alors pour les revendeurs informatiques se séparer d’un produit alors qu’ils en vendent une quinzaine d’autre à côté, ça leur va.
A priori, ici c’est justement l’inverse par la prémisse du vice caché qui incombe au revendeur.
Et ? Tant que le produit est sous garantie constructeur les revendeurs vont vite réexpédier ça vers eux, certains n’hésitant pas à mettre une garantie plus longue que le minimum légal pour le haut de gamme. Au final nVidia reste le plus emmerdé.
Le
19/05/2021 à
20h
37
(reply:57223:Idiogène) Vendre à perte c’est vendre en dessous du coût de revient, pas de la valeur estimée par le marché à un moment T.
Rien n’interdit un fabricant de vendre son produit plus bas que son coût de revient. Ca marche comme ça depuis des années dans l’industrie pour le commerce B2B, les consoles sont vendues à perte depuis des années aussi sans que ce soit un secret pour personne. Les fabricants y trouvent leur compte en vendant derrière les services et produits qui vont avec (Les consoliers font leur beurre avec les jeux et rien d’autre).
Dans le cas de nVidia (et d’autres fabricants passant par leurs boutiques propres) ce n’est pas de la vente à perte non plus. Le prix conseillé est peut-être défini par le fabricant mais il est toujours supérieur au prix d’achat des revendeurs, sinon quel serait leur intérêt dans la vente de ces produits ? Ainsi, vendre son propre produit soit même, tant que l’on respecte le prix conseillé convenu avec ses revendeurs (et les taxes/règles de chaque pays, cela va de soit), n’est pas de la vente à perte, ni du dumping, ni dommageable pour ces même revendeurs.
La boutique nVidia est une vitrine. nVidia seul n’a pas l’infrastructure nécessaire pour vendre sur tout les marchés et préfère laisser la tâche à ses entreprises associées. C’est pour ça qu’ils s’en fichent d’augmenter le prix de leurs modèles.
Ensuite tu parles de la fonctionnalité LHR qui serait un vice caché, puis après une “fonction facilement désactivable”. Au delà du côté paradoxal de ces déclarations, tu as vu un produit pour le confirmer ? Ces modèles ne sont pas encore sorties, attendons tout petit peu avant de crier au scandale.
Le
19/05/2021 à
15h
10
(quote:57220:Idiogène) Nvidia pourrait très bien se voir attaqué pour son store pour cette évidente raison à force de retours de cartes…
Quel est le lien entre revente à perte et retour SAV de cartes ? Et puis si nVidia vendaient leurs cartes moins chères via leur site qu’ils ne les vendent aux revendeurs tu peux être sûr que ça aurait bougé depuis longtemps.
Le
19/05/2021 à
08h
13
(reply:57201:Winderly) ca va juste miner à une vitesse dérisoire mais ça reste du minage gratuit pour eux, aucune raison qu’ils arrêtent. Pour ne pas miner pour eux il suffit d’arrêter de fréquenter des sites louches
(reply:57233:Idiogène) C’est effectivement le fonctionnement des gammes pour les CPU/GPU depuis un moment. Quand AMD a lancé ses Athlon X3/X4 (si je ne m’abuse) les gens avaient trouvé une méthode qui permettait de réactiver les cœurs coupés par le fabricant car ne passant par les tests de qualité. C’était un peu le loto, si tu avais de la chance le cœur réactivé fonctionnait bien, sinon il plantait tout.
sauf que la c’est justement un produit dont la raison d’être est déjà à la base de cibler le bidouilleur, passablement geek.
Même dans la catégorie bidouilleur tu as un large spectre. Certains voudront aller vite sans s’embêter (ou tout simplement débuter, faire de la pédagogie pour des enfants etc…) et prendront un arduino-like pour ses fonctions de bases et son offre logiciel hyper accessible. D’autres voudront quelque chose d’efficace (ou découvrir, aller plus loin que d’habitude, respecter des contraintes que l’Arduino ne permet pas etc…) et seront prêts à mettre les mains dans le cambouis.
D’ailleurs ton exemple est paradoxal car l’ESP mis en avant dans le tuto est un modèle incorporant plein de fonctionnalités pour un prix équivalent à de l’arduino au final.
Le
18/05/2021 à
13h
56
(reply:57174:vVDB) les ESP sont tout nus, ces produits ont plusieurs fonctionnalités et headers de présents dès le début. C’est une autre philosophie.
C’est le nom du consortium, le public s’en fiche, ce serait comme dire USB-IF à la place d’USB tout court. Le nom qui sera utilisé pour marketer la techno c’est Matter.
Le marché est concurrentiel et personne n’a intérêt à “s’endormir”.
Dans la théorie oui.
OlivierJ a dit:
Évidemment que ça sert et que ça a énormément servi : plus de transistors (plus de cache et de logique et de prédictions), plus de vitesse, moins de consommation.
Donc il aurait suffit de plus de transistors pour faire de Bulldozer une bonne architecture ? La finesse seule ne permet pas de miracles.
OlivierJ a dit:
Si AMD était “à l’ouest”, c’est bien que ce n’est pas facile de faire des progrès
L’inverse n’a jamais été dit.
OlivierJ a dit:
Et il y a toujours eu de la concurrence (sinon AMD n’existerait plus).
Dans les faits, sur le moyen et haut de gamme, il n’y a eu aucune conccurence. AMD sortait des produits pour faire acte de présence mais les parts de marchés étaient acquises à Intel qui n’avait aucun effort à faire (volontairement ou non). Sans parler des quelques affaires ou Intel a été reconnu coupable d’abus de position dominante.
Le
10/05/2021 à
18h
47
Steez a dit:
Pour Fukagu c’est encore autre chose. Il est bon mais uniquement dans son domaine
C’est ce que je dit, ARM arrivera en entreprise en passant par des puces hyper spécifiques pour commencer, avant de devenir suffisamment polyvalent pour être un processeur “classique”. On peut imaginer par exemple des baies SAN en ARM, vu que la seule chose à savoir faire c’est gérer beaucoup d’I/O.
Steez a dit:
Je pense que le futur passera par ce genre de solution pour accélérer les performances, à moins que quelqu’un sorte une architecture miracle qui solutionne tous les problèmes (ce dont je doute assez fortement).
Pour être franc, j’avais exclu Linux de l’équation, pour la simple raison que dans le monde pro, je doute que l’on passe avant (à minima) 5 à 10 ans sur de l’archi ARM,
Et Fugaku alors ? ARM arrive tout doucement dans le monde pro, mais sûrement.
Pat_Hator a dit:
Et je n’ai pas l’impression que Linux arrive à s’imposer en quoique ce soit sur la partie desktop, dans le pro comme chez le particulier.
Si l’ARM doit arriver dans nos ordinateurs, ça sera en passant d’abord par les serveurs. Ces machines sont le plus souvent dédiées à une tâche particulière, il est alors plus simple de designer une puce destinée à l’accomplir. Puis le scope s’élargira au fur et à mesure.
Pat_Hator a dit:
Même si c’est le cas, il faudra tout de même que les applis utilisées en desktop soit portées sur ARM.
Les grandes distro Linux sont compatibles ARM grâce à la popularité du Raspberry Pi et le monde Linux connait très bien l’ARM grâce à Android. Les logiciels les plus populaires sont compatibles (On peut installer une distro desktop complète sur Pi, ça répond à toutes les utilisations basiques d’un ordinateur) aussi et la compatibilité des plus petits arrivera là aussi à mesure que la plateforme devient populaire (dans le sens “d’autres machines que des cartes de dev”).
SI Apple a réussi sa transition c’est parce qu’ils maitrisent cette plateforme depuis des années grâce à l’iPhone et ont donc pu fournir tout les outils et explications nécessaires aux dev. Linux est exactement dans le même cas : plateforme connue, système compatible, outils fonctionnels.
Pat_Hator a dit:
Ce n’est évidemment pas trivial, mais le fait est qu’Intel s’est endormi sur ses lauriers pendant sa trop longue phase de monopole, et a enchaîné les décisions foireuses, et notamment les projets tués dans l’œuf parce que le développement n’allait pas assez vite selon le CEO de l’époque.
Pour le coup je te rejoins, On ne manque pas de news de Brian Krzanich qui torpille des projets ou vire des membres clés de la R&D car pas d’accord avec lui.
OlivierJ a dit:
Et si c’était si facile de faire mieux que 10 %, pourquoi personne ne l’a fait ?
AMD a réussi, et pas uniquement grâce à une gravure plus fine. Je ne dis pas qu’il est possible d’avoir +20⁄30% chaque année, mais Intel aurait pu sortir une nouvelle archi bien plus tôt et réussir leur transition vers le 10/7/5nm bien plus vite. Si le plus gros fondeur historiquement en avance de 2⁄3 ans finit par avoir un retard sur ses concurrents, ce n’est pas parce que la techno est inaccessible, sinon les concurrents aussi galèreraient.
Le plus flagrant est de voir à quelle vitesse Intel a retourné sa veste vis à vis de sa gamme grand public passant de “i7 4 coeurs ou rien pour les 10 ans à venir et le reste c’est du bridage logiciel” à “oh regardez nous aussi on sait faire du 8⁄10 coeurs (enfin presque)”.
(reply:57032:popi_le_clown) Je suis d’accord qu’une alim qui lâche c’est rare, mais on peut toujours vouloir ne pas prendre le risque. Et puis ‘ai envie de dire que tout l’intérêt d’un homelab, c’est de faire tes expérimentations. Perso j’ai commencé à envisager un cluster Proxmox à la maison, because reasons. C’est pas raisonnable et ça n’apporte pas grand chose à mon niveau, mais c’est une manière de découvrir.
Le
08/05/2021 à
00h
14
même avec une seule source d’énergie ce n’est pas totalement idiot, ça permet de changer à chaud l’une des deux alimentations si elle a rendu l’âme.
Vu la ressemblance énorme, même ergonomie qu’une Surface (enfin j’espère pour eux sinon c’est un échec commercial direct) : le clavier ne tient rien, d’où la présence du pied intégré dans la coque de l’écran. Le pied peut se positionner à l’angle souhaité (de plutôt droit à presque à plat) suffit pour rendre l’ensemble très stable. Par contre utiliser le clavier sur les genoux il faut oublier et l’utiliser comme une tablette (replié dans le dos le clavier se désactive).
T’aura jamais de problème avec les disques dur sous les 6 disques. Avec les SSDs, sous les 4 disques.
En vrai le problème vient forcément de ma grappe car le proco se tourne les pouces mais le load explose régulièrement sans raison apparente (me semble avoir atteint un load de 5000 un jour, j’ai halluciné).
Le
29/04/2021 à
14h
15
Oui bon moi c’est du 4*2To donc bon :hap:
Le
29/04/2021 à
11h
05
(quote:56858:Narutokun) Avec un bon processeur, et un système ondulé, le seul cas ou je vois l’avantage de la carte RAID c’est si ton OS plante, les données restent consistantes.
Si tu veux installer le système sur un RAID il peut être préférable de le faire sur matériel. Selon l’OS ça varie de impossible à prise de tête.
(quote:56858:Narutokun) Je n’ai pas encore eu en main une carte RAID qui permet d’ajouter un disque utile
Dans nos serveurs du taf on a des PERC h710 (si je ne m’abuse), elles le permettent. Par contre l’interface de gestion est pas la plus claire du monde.
patos a dit:
L’ordre d’IO ne passe qu’une seule fois dans le bus avant d’atteindre le cache qui l’acquitte.
J’avais pas vu ça comme ça. Effectivement en cas de charges lourdes ça doit bien influer sur le système. Je me demande si j’ai pas un serveur en souffrance à cause de ça (raid5 ZFS qui sert de cible de backup ET de BDD pour un Centreon notamment).
(reply:56878:fry) Le PoE peut venir d’un injecteur tout bête aussi. Bon un injecteur 10Gig je suis pas sûr que ça existe encore non plus :hap:
Le
29/04/2021 à
13h
49
fry a dit:
edit 2 : je viens de percuter que le souci c’est les boucles réseau, mais est-ce que les switch poe ont pas déjà ce genre de protection en fait ?
Vu qu’on a réusi à générer une tempête de broadcast l’autre soir au taf (parce qu’on a débranché/rebranché d’un switch à l’autre sans réfléchir) sur des switchs baies administrables récents, j’ai comme un doute pour un petit switch comme ça :‘)
Le
29/04/2021 à
11h
23
Je trouve ça idiot qu’ils aient mis le PoE sur un port 1Gb. Ca signifie faire une croix sur le PoE si on veut relier le switch à un autre en 10Gig car, vu le format, il est plutôt destiné aux petites structures qui n’ont pas forcément le matos adapté contre les boucles réseaux. Du coup c’est vraiment pour une partie isolée du LAN et sans trop de possibilité d’upgrade.
Mis à part ce détail il est chouette.
(quote:56872:Kazer2.0) (La fibre consommant le moins et le DAC étant entre les deux)
le DAC est au dessus de la fibre malgré “l’absence” de transceiver ?
Je trouve pas d’info claire concernant le Dual-Domain. Quand il est dit que le périphérique a deux connecteurs c’est deux connecteurs physiques ou bien c’est ce qu’on voit sur la dernière photo ? Parce que sur l’avant dernière il semble y avoir une petite connectique à gauche du circuit imprimé.
menu démarrer > tape “activer” > Activer ou désactiver des fonctionnalités Windows > décoche “Support de partage de fichiers SMB 1.0/CIFS”
Dingue qu’il faille attendre 2021 pour avoir enfin une évolution de ce genre. Encore plus dingue qu’ils n’y soient pas arriver sans que cela coupe le partage d’imprimante.
Mais la complexité du montage ici fait qu’il faut que la VM QuTS cloud soit aussi “informée” de la perte de courant et qu’elle s’éteigne proprement avant que les batteries soient vides…
Après il faut aussi réfléchir à l’utilisation que l’on veut faire du système et comment on le met en fonction. Si l’on prend le montage tel que décrit dans l’article on est bien plus proche du homelab pour faire ses expériences personnelles qu’un outil en production sur lequel on doit compter.
Maintenant je pense que dans tout les cas les hyperviseurs sont assez avancés pour masquer aux VM qu’il y a eu un problème. Au taf notre serveur de fichiers est une VM WinServer sous HyperV et il arrive souvent que la machine soit brutalement mise en pause par manque d’espace disque (oui on a mal jaugé). Je fait de la place sur le disque puis relance la VM qui reprend comme si de rien n’était. Il y a relativement peu d’accès simultanés à ce serveur mais je n’ai pas remarqué jusqu’à maintenant de corruption dans les fichiers à cause de ses coupures (ni pour les autres machines coupés de la même façon, y compris les VM Linux dont je doute de l’installation des extra tools HyperV).
aurejac a dit:
Ben ça c’est la théorie mais d’une part si le système peut s’éteindre proprement et l’éviter, c’est quand même mieux non ? et la théorie c’est une chose, mais même sans panne hardware, il y a des bugs.
Tout à fait, le ZFS n’est qu’une première couche de sûreté contre les coupures inopinées, en rajouter sera toujours mieux. Et dans la pratique tout système aura une faille. La question est donc de savoir quel niveau de sécurité on vise et surtout si ça vaut le coup.
aurejac a dit:
Que celui qui a un NAS qui a 1500j d’uptime (même dans son garage) sans coupure de courant me jette la première pierre :)
Alors notre 1er serveur de fichiers (au taf encore) a dû dépasser les 1000 jours si on enlève les coupures électriques prévues. Et pourtant il est fait un peu à l’arrache (l’ancien responsable info était électronicien avant tout et surtout n’avait aucune orga. le serveur tournait sous un vieux Suse, le système était installé sur un RAID 1 de 2x2To et les données étaient SUR LA PARTITION SYSTEME. La doc d’époque en cas de plantage : “tu réinstalles et tu mets la backup de la veille”…).
aurejac a dit:
L’autre critère aussi, même en entreprise, c’est de pouvoir mettre la machine en veille la nuit, voire l’éteindre (et la réveiller le matin ou sur paquet WOL).
L’air de rien, ça divise par jusqu’à 3 la consommation electrique et multiplie par 3 la durée de vie réelle des HDD !
Je serais très curieux d’avoir des articles là-dessus. J’aimerais bien essayer ça au taf mais “malheureusement” on a des techniciens d’astreintes qui peuvent intervenir h24 donc la majorité de nos serveurs doivent être dispo à toute heure.
aurejac a dit:
Et perso, il y a une chose que je constate c’est que des données enregistrees sur un système de fichiers BTRFS ou EXT4 sur du raid5 logiciel mdadm, le disatster recovery plan c’est facile
le raid logiciel c’est le feu. A part pour installer un système sur un raid sans avoir à devenir fou je ne vois plus d’intérêt au raid matériel. Et OpenZFS peut aussi récupérer des pools d’un autre système facilement.
aurejac a dit:
Par contre des données enregistrées via une VM QuTS cloud (donc format de fs propriétaire), sur un datastore VMFS, ça, c’est peut être un petit peu moins marrant en cas de pépin, ça rajoute des couches de complexité et de logiciel propriétaire.
C’est du mdadm et du lvm. Normalement rien d’insurmontable mais de ce que je lis c’est un poil retors quand même.
aurejac a dit:
ça m’aurait beaucoup intéressé que QNAP propose son OS en natif
J’imagine qu’ils proposent uniquement sous forme d’appliance pour se faciliter grandement la tâche à l’optimisation et stabilisation du système.
Le
16/04/2021 à
09h
17
aurejac a dit:
est-ce qu’en cas de coupure de courant, sur onduleur, l’ESXi va bien donner l’ordre à la VM QuTS de s’éteindre ?
HyperV, qui est loin d’être une référence dans le genre, mets les VM en standby à l’extinction et les redémarre comme si de rien n’était après. Ça m’étonnerait qu’ESXI ne soit pas capable d’en faire autant.
aurejac a dit:
Je dis ça parce que j’ai vu beaucoup de NAS “maison” (comme ici) qui, à la moindre coupure (freenas en ZFS par ex), si on a pas un onduleur en bon état qui envoie proprement l’info de purger les caches et les ecritures en attente, se couper gentiment -> byebye les données…
Si tu perds tes données après une coupure sur un ZFS il y a un souci sur la machine. ZFS est pensé pour ne jamais supprimer la vieille version d’un fichier tant qu’il n’est pas sûr à 100% d’avoir écrit la nouvelle. Au pire tu perds la modification en cours.
Le
16/04/2021 à
07h
16
aurejac a dit:
Où est l’intérêt d’acheter le microserver de base et l’upgrader ?
Parce qu’ils avaient les pièces à disposition, tout simplement. L’installation montrée est juste une possibilité parmi tant d’autre, il faut cesser de voir ces articles comme “la méthode à appliquer”.
Ici on peut découvrir :
les possibilités d’upgrade du Microserver
l’intérêt de iLO
la gestion du Passthrough ESXI (modulo la bonne volonté du matériel)
l’installation de QuTS Cloud
Chaque partie est intéressante séparément et c’est ça qui compte.
Intel peut leur mettre une amende ou suspendre les livraisons de tout chipset,
Intel n’est pas la Justice et n’a sans doute pas envie de voir le parc de processeurs Intel baisser parce qu’il a arrêté de fournir un fabricant, possiblement gros (comme dit David, faire la gueule à Asus c’est pas la meilleure idée).
Je ne dit pas que rien ne sera fait pour corriger le tir niveau Bios et que le fabricant ne va pas avoir un peu plus de mal à marchander ses prix d’achats mais rien de tout ça ne met en danger leur relation commerciale avec Intel.
Et puis ça peut faire le jeu d’Intel aussi, d’avoir des news qui tournent que leurs processeurs peuvent en réalité fonctionner mieux que prévu.
Le
07/04/2021 à
15h
29
(reply:56493:ashlol) Y’a eu pas mal de cas dans le passé où les fabricants de mobo outrepassaient la limite imposée par Intel ou AMD. Ca leur permet de se différencier des concurrents et c’est plus important pour eux que d’avoir Intel qui les boude (après j’imagine qu’ils tentent leurs coups une fois qu’ils ont sécurisé leur stock de chipset au cas où).
(reply:56389:Chocolat-du-mendiant) my bad, pas vu non plus le port micro usb.
Néanmoins le problème reste le même, ajouter une seconde connectique pour déporter l’USB ne change pas ses fonctionnalités et le but visé. Rajouter un ethernet accessible via ce port micro USB aurait été tout à fait possible.
Le
01/04/2021 à
13h
28
non je plussoie Digaboy. Ce genre de boitier exploite du Thunderbolt qui permet tout à fait de faire transiter autre chose que le signal PCIe de la CG en plus (ils ont bien mis 3 USB 5Gb et un SATA). On est complètement dans une optique de dock et donc un port réseau est totalement logique ici.
En vrai la bonne question est : pourquoi faire un GPU au niveau des IGP ?
Le but des IGP est d’apporter une base stable pour le quotidien et un tout petit peu plus si possible. Qu’apporterait un GPU avec sa bande passante meilleure ? Les performances 3D resteraient trop faible pour être une vraie station de travail/jeu et le décodage/encodage vidéo est déjà délégué à des circuits dédiés pour augmenter l’efficacité. En plus une puce supplémentaire demande effectivement un câblage supplémentaire sur la carte mère et donc des composants électroniques, mécaniques et de refroidissements, supplémentaires. l’IGP apporte des avantages incontestables pour le design de la carte mère et le refroidissement de la machine pour une perte de performances limité vis à vis d’un petit GPU.
Si le but est d’avoir un GPU dédié capable de se brider tout seul au niveau d’un IGP et de se débloquer au besoin je pense que les constructeurs doivent plancher dessus depuis un moment mais que ça reste hors de portée pour l’instant.
En tout cas Optimus j’en vois l’intérêt au taf. Une personne qui fait de la CAO a un portable équipé d’un GPU, la différence d’autonomie quand il lance son soft avec l’IGP ou le GPU n’est pas négligeable, il gagne facile une heure avec l’IGP.
Le
01/04/2021 à
12h
17
Burn2 a dit:
Je suis persuadé qu’un gpu récent “bridé” (et pas poussé à fond pour sortir quelques mhz de plus comme on fait souvent maintenant) pour avoir un bon ratio perf/conso pourrait permettre d’avoir un truc beaucoup plus perf qu’un igp, avec une consommation négligeable sup en usage léger. Oui la notion de “négligeable” est subjectif, mais je demande vraiment à voir.
les IGP AMD sont basé sur Vega, ce sont donc des modèles “castrés” de leurs cartes graphiques, pareil pour Xe qui est la base technologique des futures cartes Intel.
Le
31/03/2021 à
17h
42
(reply:56325:Fab’z) ça existe des KVM pour de l’USB uniquement et aliexpress est plein de kvm HDMI+USB.
(reply:56240:ben51) même la X570D4I-2T avec 2 OCulink ? ça fait 8 SATA c’est pas négligeable.
(reply:56239avid_L) Je suis pas persuadé que le prêt à l’emploi soit un critère très recherché quand tu installes un serveur en baie, et puis entre brancher un RJ et brancher un DAC… (Je remarque que lorsqu’on édite un message pour rajouter une citation/réponse ça ne déclenche pas de notification )
Le
29/03/2021 à
08h
36
Franchement la B550D4ID-2L2T je pourrais tomber amoureux direct… Si ils avaient mis du SFP+ à la place du RJ 10Gb :c
Y’a une raison précise qui pousse les constructeurs à mettre du RJ à la place du SFP+ ? Autant les cartes grand public c’est compréhensible mais pour du matos pro c’est un peu bête je trouve.
MLC=multi-level cell, par opposition au SLC (single-level cell). Cela inclut les TLC (3x) et les QLC (x4). À moins que le marketting ne l’utilise que pour x2?
Que pour le x2.
Le
25/03/2021 à
16h
49
(quote:56206:brice.wernet)Car mes dosqies dur écrive’t les infos exactement où elles ont été lues, donc on use toujours les mêmes endroits en écriture. Ce n’est pas le cas sur un SSD
Pas forcément, une donnée peut très bien être écrite au même emplacement que celui d’origine, sur un DD ou SSD. C’est le système de fichiers qui va déterminer ça, pas le disque.
rien dans la com’ de Cherry sur le sujet à part “in combination with the long-lasting mechanics, ensures superior durability with consistent actuation quality.”.
Après si le ressort est effectivement la pièce la plus à risque je trouve aussi que c’est la plus facile à réparer. Il est accessible et c’est quelque chose de très standard.
(reply:56159:fry) Oui en lecture ça va aussi vite que le CMR mais si on stocke plus de bandes on devrait donc avoir moins besoin de s’écarter du bord et donc plus de débit. Or on va “aussi vite” que le CMR, c’est donc que le gain relatif de débit doit être réduit par une correction d’erreur plus poussée. C’est mon hypothèse, elle vaut ce qu’elle vaut.
459 commentaires
3D V-Cache : AMD dévoile sa solution pour des performances CPU encore meilleures dans les jeux
01/06/2021
Le 01/06/2021 à 07h 30
PlotRipper : Sabrent dévoile ses SSD pour Chia Network, jusqu’à 54 000 To d’endurance
31/05/2021
Le 01/06/2021 à 06h 43
Seagate Exos 2X14 : les disques durs Mach.2 accessibles à plus de clients
24/05/2021
Le 27/05/2021 à 07h 09
Minage et GPU : NVIDIA officialise ses GeForce RTX « Lite Hash Rate » (LHR)
19/05/2021
Le 22/05/2021 à 21h 37
Le 19/05/2021 à 22h 04
Totalement d’accord, néanmoins la pression a été suffisante pour que Sony et MS revoient leurs plans. Il n’y a pas forcément besoin d’aller jusqu’à l’acte, le risque de perdre un partenaire commercial peut aussi faire peur aux grands constructeurs. C’est un équilibre.
On sait tous pertinemment que le marché ne va pas se redresser en un jour par magie. D’autant plus que les modèles LHR n’ont pas vocation à être marketés là dessus, c’est juste une révision. Le prix des 3060 n’a pas baissé quand nVidia a sorti sa protection (avant qu’elle ne soit contournée).
Si nVidia le refuse alors le revendeur aussi. Les règles sont les mêmes concernant les garanties.
Et puis soyons honnêtes : est-ce que le géant des GPU voudra prendre le risque de se mettre tout le monde sur le dos à cause d’une erreur et de voir ses ventes futures fondre ? Parce que le gamer il aime bien sa marque fétiche mais il y a quelque chose qu’il déteste par dessus tout : perdre en performance. Regarde la grogne qu’il peut y avoir pour des problèmes triviaux comme l’histoire de la ram de la GTX 970.
Le 19/05/2021 à 21h 24
PS5 : https://www.phonandroid.com/la-ps5-est-vendue-a-perte-sony-le-confirme.html
Xbox Serie X : https://xboxsquad.fr/news/2019/12/daniel-ahmad-estime-le-cout-de-fabrication-de-la-xbox-series-x/
PS3 : https://www.numerama.com/magazine/3585-playstation-3-le-cout-reel-de-la-console-de-sony.html
Xbox One : https://www.jeuxvideo.com/news/2013/00069292-le-cout-de-production-de-la-xbox-one.htm
Switch : https://www.melchior.fr/exercice/document-5-le-cout-de-production-d-une-nintendo-switch
etc etc…
La PS4 semble avoir été une exception passagère pour Sony qui a pu la vendre un peu au dessus de son coût de production et la Xbox 360 a elle aussi couté un peu moins chère que son prix conseillé mais a coûté énormément à Microsoft lors de l’arrivée du Red Ring of Death qui a malgré tout décidé d’éponger les frais et continuer l’aventure.
Tant qu’ils font une marge, ils sont contents. Et si la boutique nVidia était suffisamment dangereuse pour eux t’inquiètes pas qu’ils le feraient savoir. les boutiques JV avaient bien menacé Sony et MS de ne pas vendre leurs consoles et jeux si ils décidaient de se tourner totalement vers le démat’, alors pour les revendeurs informatiques se séparer d’un produit alors qu’ils en vendent une quinzaine d’autre à côté, ça leur va.
Et ? Tant que le produit est sous garantie constructeur les revendeurs vont vite réexpédier ça vers eux, certains n’hésitant pas à mettre une garantie plus longue que le minimum légal pour le haut de gamme. Au final nVidia reste le plus emmerdé.
Le 19/05/2021 à 20h 37
Rien n’interdit un fabricant de vendre son produit plus bas que son coût de revient. Ca marche comme ça depuis des années dans l’industrie pour le commerce B2B, les consoles sont vendues à perte depuis des années aussi sans que ce soit un secret pour personne. Les fabricants y trouvent leur compte en vendant derrière les services et produits qui vont avec (Les consoliers font leur beurre avec les jeux et rien d’autre).
Dans le cas de nVidia (et d’autres fabricants passant par leurs boutiques propres) ce n’est pas de la vente à perte non plus. Le prix conseillé est peut-être défini par le fabricant mais il est toujours supérieur au prix d’achat des revendeurs, sinon quel serait leur intérêt dans la vente de ces produits ? Ainsi, vendre son propre produit soit même, tant que l’on respecte le prix conseillé convenu avec ses revendeurs (et les taxes/règles de chaque pays, cela va de soit), n’est pas de la vente à perte, ni du dumping, ni dommageable pour ces même revendeurs.
La boutique nVidia est une vitrine. nVidia seul n’a pas l’infrastructure nécessaire pour vendre sur tout les marchés et préfère laisser la tâche à ses entreprises associées. C’est pour ça qu’ils s’en fichent d’augmenter le prix de leurs modèles.
Ensuite tu parles de la fonctionnalité LHR qui serait un vice caché, puis après une “fonction facilement désactivable”. Au delà du côté paradoxal de ces déclarations, tu as vu un produit pour le confirmer ? Ces modèles ne sont pas encore sorties, attendons tout petit peu avant de crier au scandale.
Le 19/05/2021 à 15h 10
Quel est le lien entre revente à perte et retour SAV de cartes ? Et puis si nVidia vendaient leurs cartes moins chères via leur site qu’ils ne les vendent aux revendeurs tu peux être sûr que ça aurait bougé depuis longtemps.
Le 19/05/2021 à 08h 13
Révision B2 des Ryzen 5000 : pour AMD, aucun changement sur les performances
19/05/2021
Le 19/05/2021 à 20h 41
Arduino Connect, Wio mini Dev Board : le Raspberry RP2040 passe au sans fil
18/05/2021
Le 19/05/2021 à 06h 50
Même dans la catégorie bidouilleur tu as un large spectre. Certains voudront aller vite sans s’embêter (ou tout simplement débuter, faire de la pédagogie pour des enfants etc…) et prendront un arduino-like pour ses fonctions de bases et son offre logiciel hyper accessible. D’autres voudront quelque chose d’efficace (ou découvrir, aller plus loin que d’habitude, respecter des contraintes que l’Arduino ne permet pas etc…) et seront prêts à mettre les mains dans le cambouis.
D’ailleurs ton exemple est paradoxal car l’ESP mis en avant dans le tuto est un modèle incorporant plein de fonctionnalités pour un prix équivalent à de l’arduino au final.
Le 18/05/2021 à 13h 56
Domotique : CHIP devient Matter, la Zigbee Alliance renommée Connectivity Standards Alliance
12/05/2021
Le 17/05/2021 à 14h 03
C’est le nom du consortium, le public s’en fiche, ce serait comme dire USB-IF à la place d’USB tout court. Le nom qui sera utilisé pour marketer la techno c’est Matter.
Tiger Lake-H et ses 6 à 8 cœurs gravés en 10 nm se dévoilent
06/05/2021
Le 11/05/2021 à 13h 22
Dans la théorie oui.
Donc il aurait suffit de plus de transistors pour faire de Bulldozer une bonne architecture ? La finesse seule ne permet pas de miracles.
L’inverse n’a jamais été dit.
Dans les faits, sur le moyen et haut de gamme, il n’y a eu aucune conccurence. AMD sortait des produits pour faire acte de présence mais les parts de marchés étaient acquises à Intel qui n’avait aucun effort à faire (volontairement ou non). Sans parler des quelques affaires ou Intel a été reconnu coupable d’abus de position dominante.
Le 10/05/2021 à 18h 47
C’est ce que je dit, ARM arrivera en entreprise en passant par des puces hyper spécifiques pour commencer, avant de devenir suffisamment polyvalent pour être un processeur “classique”. On peut imaginer par exemple des baies SAN en ARM, vu que la seule chose à savoir faire c’est gérer beaucoup d’I/O.
C’est justement ce que prépare Intel avec des gammes de processeurs avec des FPGA intégrés à la demande du client : https://www.intel.fr/content/www/fr/fr/products/details/fpga.html
Le 10/05/2021 à 11h 37
Et Fugaku alors ?
ARM arrive tout doucement dans le monde pro, mais sûrement.
Si l’ARM doit arriver dans nos ordinateurs, ça sera en passant d’abord par les serveurs. Ces machines sont le plus souvent dédiées à une tâche particulière, il est alors plus simple de designer une puce destinée à l’accomplir. Puis le scope s’élargira au fur et à mesure.
Les grandes distro Linux sont compatibles ARM grâce à la popularité du Raspberry Pi et le monde Linux connait très bien l’ARM grâce à Android. Les logiciels les plus populaires sont compatibles (On peut installer une distro desktop complète sur Pi, ça répond à toutes les utilisations basiques d’un ordinateur) aussi et la compatibilité des plus petits arrivera là aussi à mesure que la plateforme devient populaire (dans le sens “d’autres machines que des cartes de dev”).
SI Apple a réussi sa transition c’est parce qu’ils maitrisent cette plateforme depuis des années grâce à l’iPhone et ont donc pu fournir tout les outils et explications nécessaires aux dev. Linux est exactement dans le même cas : plateforme connue, système compatible, outils fonctionnels.
Pour le coup je te rejoins, On ne manque pas de news de Brian Krzanich qui torpille des projets ou vire des membres clés de la R&D car pas d’accord avec lui.
AMD a réussi, et pas uniquement grâce à une gravure plus fine. Je ne dis pas qu’il est possible d’avoir +20⁄30% chaque année, mais Intel aurait pu sortir une nouvelle archi bien plus tôt et réussir leur transition vers le 10/7/5nm bien plus vite. Si le plus gros fondeur historiquement en avance de 2⁄3 ans finit par avoir un retard sur ses concurrents, ce n’est pas parce que la techno est inaccessible, sinon les concurrents aussi galèreraient.
Le plus flagrant est de voir à quelle vitesse Intel a retourné sa veste vis à vis de sa gamme grand public passant de “i7 4 coeurs ou rien pour les 10 ans à venir et le reste c’est du bridage logiciel” à “oh regardez nous aussi on sait faire du 8⁄10 coeurs (enfin presque)”.
On se monte un serveur 4U : 16 cœurs, 64 Go de RAM, 2 GPU, 5 + 5 SSD/HDD, 2 alimentations
07/05/2021
Le 08/05/2021 à 22h 12
Le 08/05/2021 à 00h 14
même avec une seule source d’énergie ce n’est pas totalement idiot, ça permet de changer à chaud l’une des deux alimentations si elle a rendu l’âme.
Dell présente son Latitude 7320 détachable de 13″ avec stylet, à partir de 1 483 euros
29/04/2021
Le 04/05/2021 à 17h 26
Vu la ressemblance énorme, même ergonomie qu’une Surface (enfin j’espère pour eux sinon c’est un échec commercial direct) : le clavier ne tient rien, d’où la présence du pied intégré dans la coque de l’écran. Le pied peut se positionner à l’angle souhaité (de plutôt droit à presque à plat) suffit pour rendre l’ensemble très stable. Par contre utiliser le clavier sur les genoux il faut oublier et l’utiliser comme une tablette (replié dans le dos le clavier se désactive).
Limiteur de hashrate renforcé, nouveaux modèles lancés mi-mai : NVIDIA confirme
30/04/2021
Le 30/04/2021 à 11h 34
Par contre le changement de preuve de l’ETH on l’attend depuis un moment, à se demander si ça va arriver un jour.
ASRock Rack TRX40D8-2N2T : 2x 10 Gb/s + 2,5 Gb/s et Ryzen Threadripper dans un serveur
28/04/2021
Le 30/04/2021 à 09h 48
En vrai le problème vient forcément de ma grappe car le proco se tourne les pouces mais le load explose régulièrement sans raison apparente (me semble avoir atteint un load de 5000 un jour, j’ai halluciné).
Le 29/04/2021 à 14h 15
Oui bon moi c’est du 4*2To donc bon :hap:
Le 29/04/2021 à 11h 05
Si tu veux installer le système sur un RAID il peut être préférable de le faire sur matériel. Selon l’OS ça varie de impossible à prise de tête.
Dans nos serveurs du taf on a des PERC h710 (si je ne m’abuse), elles le permettent. Par contre l’interface de gestion est pas la plus claire du monde.
J’avais pas vu ça comme ça. Effectivement en cas de charges lourdes ça doit bien influer sur le système. Je me demande si j’ai pas un serveur en souffrance à cause de ça (raid5 ZFS qui sert de cible de backup ET de BDD pour un Centreon notamment).
UniFi Switch Flex XG d’Ubiquiti : 4x 10 Gb/s dans un format compact
29/04/2021
Le 29/04/2021 à 14h 17
Le 29/04/2021 à 13h 49
Vu qu’on a réusi à générer une tempête de broadcast l’autre soir au taf (parce qu’on a débranché/rebranché d’un switch à l’autre sans réfléchir) sur des switchs baies administrables récents, j’ai comme un doute pour un petit switch comme ça :‘)
Le 29/04/2021 à 11h 23
Je trouve ça idiot qu’ils aient mis le PoE sur un port 1Gb. Ca signifie faire une croix sur le PoE si on veut relier le switch à un autre en 10Gig car, vu le format, il est plutôt destiné aux petites structures qui n’ont pas forcément le matos adapté contre les boucles réseaux. Du coup c’est vraiment pour une partie isolée du LAN et sans trop de possibilité d’upgrade.
Mis à part ce détail il est chouette.
le DAC est au dessus de la fibre malgré “l’absence” de transceiver ?
PM1653 : Samsung annonce un SSD SAS-4 (24G SAS) : jusqu’à 30,72 To et 4,3 Go/s
27/04/2021
Le 27/04/2021 à 06h 54
Je trouve pas d’info claire concernant le Dual-Domain. Quand il est dit que le périphérique a deux connecteurs c’est deux connecteurs physiques ou bien c’est ce qu’on voit sur la dernière photo ? Parce que sur l’avant dernière il semble y avoir une petite connectique à gauche du circuit imprimé.
Pilotes Adrenalin 21.4.1 d’AMD : de nombreuses nouveautés mais pas de Super Resolution
20/04/2021
Le 20/04/2021 à 21h 22
Le 20/04/2021 à 18h 09
quel rapport entre une màj Windows avec le driver ?
Free intègre le support de SMBv2/v3 à ses Freebox
20/04/2021
Le 20/04/2021 à 12h 03
menu démarrer > tape “activer” > Activer ou désactiver des fonctionnalités Windows > décoche “Support de partage de fichiers SMB 1.0/CIFS”
Dingue qu’il faille attendre 2021 pour avoir enfin une évolution de ce genre. Encore plus dingue qu’ils n’y soient pas arriver sans que cela coupe le partage d’imprimante.
QuTScloud : transformons un HPE ProLiant Microserver Gen10 Plus en NAS QNAP
14/04/2021
Le 16/04/2021 à 18h 12
Après il faut aussi réfléchir à l’utilisation que l’on veut faire du système et comment on le met en fonction. Si l’on prend le montage tel que décrit dans l’article on est bien plus proche du homelab pour faire ses expériences personnelles qu’un outil en production sur lequel on doit compter.
Maintenant je pense que dans tout les cas les hyperviseurs sont assez avancés pour masquer aux VM qu’il y a eu un problème. Au taf notre serveur de fichiers est une VM WinServer sous HyperV et il arrive souvent que la machine soit brutalement mise en pause par manque d’espace disque (oui on a mal jaugé). Je fait de la place sur le disque puis relance la VM qui reprend comme si de rien n’était. Il y a relativement peu d’accès simultanés à ce serveur mais je n’ai pas remarqué jusqu’à maintenant de corruption dans les fichiers à cause de ses coupures (ni pour les autres machines coupés de la même façon, y compris les VM Linux dont je doute de l’installation des extra tools HyperV).
Tout à fait, le ZFS n’est qu’une première couche de sûreté contre les coupures inopinées, en rajouter sera toujours mieux. Et dans la pratique tout système aura une faille. La question est donc de savoir quel niveau de sécurité on vise et surtout si ça vaut le coup.
Alors notre 1er serveur de fichiers (au taf encore) a dû dépasser les 1000 jours si on enlève les coupures électriques prévues. Et pourtant il est fait un peu à l’arrache (l’ancien responsable info était électronicien avant tout et surtout n’avait aucune orga. le serveur tournait sous un vieux Suse, le système était installé sur un RAID 1 de 2x2To et les données étaient SUR LA PARTITION SYSTEME. La doc d’époque en cas de plantage : “tu réinstalles et tu mets la backup de la veille”…).
Je serais très curieux d’avoir des articles là-dessus. J’aimerais bien essayer ça au taf mais “malheureusement” on a des techniciens d’astreintes qui peuvent intervenir h24 donc la majorité de nos serveurs doivent être dispo à toute heure.
le raid logiciel c’est le feu. A part pour installer un système sur un raid sans avoir à devenir fou je ne vois plus d’intérêt au raid matériel. Et OpenZFS peut aussi récupérer des pools d’un autre système facilement.
C’est du mdadm et du lvm. Normalement rien d’insurmontable mais de ce que je lis c’est un poil retors quand même.
J’imagine qu’ils proposent uniquement sous forme d’appliance pour se faciliter grandement la tâche à l’optimisation et stabilisation du système.
Le 16/04/2021 à 09h 17
HyperV, qui est loin d’être une référence dans le genre, mets les VM en standby à l’extinction et les redémarre comme si de rien n’était après. Ça m’étonnerait qu’ESXI ne soit pas capable d’en faire autant.
Si tu perds tes données après une coupure sur un ZFS il y a un souci sur la machine. ZFS est pensé pour ne jamais supprimer la vieille version d’un fichier tant qu’il n’est pas sûr à 100% d’avoir écrit la nouvelle. Au pire tu perds la modification en cours.
Le 16/04/2021 à 07h 16
Parce qu’ils avaient les pièces à disposition, tout simplement. L’installation montrée est juste une possibilité parmi tant d’autre, il faut cesser de voir ces articles comme “la méthode à appliquer”.
Ici on peut découvrir :
Chaque partie est intéressante séparément et c’est ça qui compte.
Les Xeon Scalable de 3e génération passent au 10 nm (Ice Lake-SP), jusqu’à 40 cœurs
08/04/2021
Le 09/04/2021 à 07h 42
Comment débrider facilement le Core i7-11700 et son TDP de 65 watts
06/04/2021
Le 08/04/2021 à 07h 29
Intel n’est pas la Justice et n’a sans doute pas envie de voir le parc de processeurs Intel baisser parce qu’il a arrêté de fournir un fabricant, possiblement gros (comme dit David, faire la gueule à Asus c’est pas la meilleure idée).
Je ne dit pas que rien ne sera fait pour corriger le tir niveau Bios et que le fabricant ne va pas avoir un peu plus de mal à marchander ses prix d’achats mais rien de tout ça ne met en danger leur relation commerciale avec Intel.
Et puis ça peut faire le jeu d’Intel aussi, d’avoir des news qui tournent que leurs processeurs peuvent en réalité fonctionner mieux que prévu.
Le 07/04/2021 à 15h 29
MasterCase EG200 : un boîtier externe Cooler Master pour carte graphique et HDD/SSD
01/04/2021
Le 05/04/2021 à 06h 06
ça dépend du boitier, Win10 le gère : https://www.journaldulapin.com/2019/01/28/du-trim-en-usb-sous-windows-10-mais-pas-sous-macos/
Le 02/04/2021 à 07h 09
Néanmoins le problème reste le même, ajouter une seconde connectique pour déporter l’USB ne change pas ses fonctionnalités et le but visé. Rajouter un ethernet accessible via ce port micro USB aurait été tout à fait possible.
Le 01/04/2021 à 13h 28
non je plussoie Digaboy. Ce genre de boitier exploite du Thunderbolt qui permet tout à fait de faire transiter autre chose que le signal PCIe de la CG en plus (ils ont bien mis 3 USB 5Gb et un SATA). On est complètement dans une optique de dock et donc un port réseau est totalement logique ici.
Rocket Lake-S et partie graphique Xe : Intel publie un premier pilote
04/04/2021
Le 04/04/2021 à 17h 10
Passthrough GPU sur GeForce : qu’est-ce que c’est, comment en profiter ?
31/03/2021
Le 01/04/2021 à 13h 48
En vrai la bonne question est : pourquoi faire un GPU au niveau des IGP ?
Le but des IGP est d’apporter une base stable pour le quotidien et un tout petit peu plus si possible. Qu’apporterait un GPU avec sa bande passante meilleure ? Les performances 3D resteraient trop faible pour être une vraie station de travail/jeu et le décodage/encodage vidéo est déjà délégué à des circuits dédiés pour augmenter l’efficacité. En plus une puce supplémentaire demande effectivement un câblage supplémentaire sur la carte mère et donc des composants électroniques, mécaniques et de refroidissements, supplémentaires. l’IGP apporte des avantages incontestables pour le design de la carte mère et le refroidissement de la machine pour une perte de performances limité vis à vis d’un petit GPU.
Si le but est d’avoir un GPU dédié capable de se brider tout seul au niveau d’un IGP et de se débloquer au besoin je pense que les constructeurs doivent plancher dessus depuis un moment mais que ça reste hors de portée pour l’instant.
En tout cas Optimus j’en vois l’intérêt au taf. Une personne qui fait de la CAO a un portable équipé d’un GPU, la différence d’autonomie quand il lance son soft avec l’IGP ou le GPU n’est pas négligeable, il gagne facile une heure avec l’IGP.
Le 01/04/2021 à 12h 17
les IGP AMD sont basé sur Vega, ce sont donc des modèles “castrés” de leurs cartes graphiques, pareil pour Xe qui est la base technologique des futures cartes Intel.
Le 31/03/2021 à 17h 42
ASRock Rack dévoile deux serveurs AMD, une carte mère B550 et sa TOMMY
29/03/2021
Le 29/03/2021 à 09h 25
Le 29/03/2021 à 08h 36
Franchement la B550D4ID-2L2T je pourrais tomber amoureux direct… Si ils avaient mis du SFP+ à la place du RJ 10Gb :c
Y’a une raison précise qui pousse les constructeurs à mettre du RJ à la place du SFP+ ? Autant les cartes grand public c’est compréhensible mais pour du matos pro c’est un peu bête je trouve.
Le prix des SSD toujours en baisse : 83 € pour 1 To en PCIe, 143 € pour 2 To en S-ATA
22/03/2021
Le 26/03/2021 à 09h 26
Que pour le x2.
Le 25/03/2021 à 16h 49
Pas forcément, une donnée peut très bien être écrite au même emplacement que celui d’origine, sur un DD ou SSD. C’est le système de fichiers qui va déterminer ça, pas le disque.
U8-111 : TerraMaster lance un serveur 2U à 1 100 euros avec 8 baies et du 10 Gb/s
19/03/2021
Le 24/03/2021 à 15h 19
Cherry annonce ses switchs MX Ultra Low Profile (3,5 mm), Alienware les intègre à un PC portable
22/03/2021
Le 24/03/2021 à 09h 41
rien dans la com’ de Cherry sur le sujet à part “in combination with the long-lasting mechanics, ensures superior durability with consistent actuation quality.”.
Après si le ressort est effectivement la pièce la plus à risque je trouve aussi que c’est la plus facile à réparer. Il est accessible et c’est quelque chose de très standard.
Synopsys passe déjà au PCI Express 6.0
22/03/2021
Le 24/03/2021 à 09h 05