votre avatar

Soraphirot

est avec nous depuis le 29 mai 2018 ❤️

459 commentaires

Le 01/06/2021 à 07h 30


(reply:57451:Scivolema) d’après le schéma les coeurs ne sont pas recouverts par le cache, ils ajoutent du silicium “vide” pour mettre le tout à la même hauteur et faire contact avec le shield. On peut peut-être s’attendre à une très légère hausse des températures des cores je crains oui.


Le 01/06/2021 à 06h 43


(reply:57440:Tophe) Intel a la gamme Optane pour ça, de la flash avec les avantages de la RAM en terme de vitesse/latence. Par contre je sais pas si c’est compatible avec tout les CPU Intel ou reservé au plus gros. Ils en font au format DIMM pour les serveurs.


Le 27/05/2021 à 07h 09


(reply:57354:NSACloudBackup) facture énergétique, matérielle et bâtiment. Tu peux avoir les mêmes perfs que pour le double de baies/disques classiques. Je ne vois pas vraiment de point noir à ce produit pour les entreprises, c’est tout bénéf’.


Le 22/05/2021 à 21h 37


(reply:57297:Idiogène) J’ai absolument rien compris. Ce que dit Alxnd c’est que le haut de gamme d’avant c’était 2/3/4 CG contre une seule aujourd’hui. Il y avait des configs à 1500~2000€ avant, il y en a aujourd’hui. Les choses n’ont pas beaucoup changé.


Le 19/05/2021 à 22h 04


(quote:57243:Idiogène)
Il y a un gouffre entre revendiquer et confirmer.


Totalement d’accord, néanmoins la pression a été suffisante pour que Sony et MS revoient leurs plans. Il n’y a pas forcément besoin d’aller jusqu’à l’acte, le risque de perdre un partenaire commercial peut aussi faire peur aux grands constructeurs. C’est un équilibre.




Je ne conteste pas cette logique. Nvidia devient cependant dangereux en sortant une pseudo gamme qui risque de présenter des scènes comme :




  • “meh elle coûte mille la 3080 et c’est 600 la 3080 LHR”


On sait tous pertinemment que le marché ne va pas se redresser en un jour par magie. D’autant plus que les modèles LHR n’ont pas vocation à être marketés là dessus, c’est juste une révision. Le prix des 3060 n’a pas baissé quand nVidia a sorti sa protection (avant qu’elle ne soit contournée).




Nvidia peut refuser le retour. Il fera la vierge : sale mineur. :mdr:


Si nVidia le refuse alors le revendeur aussi. Les règles sont les mêmes concernant les garanties.



Et puis soyons honnêtes : est-ce que le géant des GPU voudra prendre le risque de se mettre tout le monde sur le dos à cause d’une erreur et de voir ses ventes futures fondre ? Parce que le gamer il aime bien sa marque fétiche mais il y a quelque chose qu’il déteste par dessus tout : perdre en performance. Regarde la grogne qu’il peut y avoir pour des problèmes triviaux comme l’histoire de la ram de la GTX 970.

Le 19/05/2021 à 21h 24


(quote:57240:Idiogène)
Jusqu’ici Sony n’a pas revendiqué publiquement vendre moins cher ses feuilles pliées.


PS5 : https://www.phonandroid.com/la-ps5-est-vendue-a-perte-sony-le-confirme.html
Xbox Serie X : https://xboxsquad.fr/news/2019/12/daniel-ahmad-estime-le-cout-de-fabrication-de-la-xbox-series-x/
PS3 : https://www.numerama.com/magazine/3585-playstation-3-le-cout-reel-de-la-console-de-sony.html
Xbox One : https://www.jeuxvideo.com/news/2013/00069292-le-cout-de-production-de-la-xbox-one.htm
Switch : https://www.melchior.fr/exercice/document-5-le-cout-de-production-d-une-nintendo-switch
etc etc…



La PS4 semble avoir été une exception passagère pour Sony qui a pu la vendre un peu au dessus de son coût de production et la Xbox 360 a elle aussi couté un peu moins chère que son prix conseillé mais a coûté énormément à Microsoft lors de l’arrivée du Red Ring of Death qui a malgré tout décidé d’éponger les frais et continuer l’aventure.




Cela reste à voir ce qu’en pensent les revendeurs.


Tant qu’ils font une marge, ils sont contents. Et si la boutique nVidia était suffisamment dangereuse pour eux t’inquiètes pas qu’ils le feraient savoir. les boutiques JV avaient bien menacé Sony et MS de ne pas vendre leurs consoles et jeux si ils décidaient de se tourner totalement vers le démat’, alors pour les revendeurs informatiques se séparer d’un produit alors qu’ils en vendent une quinzaine d’autre à côté, ça leur va.




A priori, ici c’est justement l’inverse par la prémisse du vice caché qui incombe au revendeur.


Et ? Tant que le produit est sous garantie constructeur les revendeurs vont vite réexpédier ça vers eux, certains n’hésitant pas à mettre une garantie plus longue que le minimum légal pour le haut de gamme. Au final nVidia reste le plus emmerdé.

Le 19/05/2021 à 20h 37


(reply:57223:Idiogène) Vendre à perte c’est vendre en dessous du coût de revient, pas de la valeur estimée par le marché à un moment T.


Rien n’interdit un fabricant de vendre son produit plus bas que son coût de revient. Ca marche comme ça depuis des années dans l’industrie pour le commerce B2B, les consoles sont vendues à perte depuis des années aussi sans que ce soit un secret pour personne. Les fabricants y trouvent leur compte en vendant derrière les services et produits qui vont avec (Les consoliers font leur beurre avec les jeux et rien d’autre).



Dans le cas de nVidia (et d’autres fabricants passant par leurs boutiques propres) ce n’est pas de la vente à perte non plus. Le prix conseillé est peut-être défini par le fabricant mais il est toujours supérieur au prix d’achat des revendeurs, sinon quel serait leur intérêt dans la vente de ces produits ? Ainsi, vendre son propre produit soit même, tant que l’on respecte le prix conseillé convenu avec ses revendeurs (et les taxes/règles de chaque pays, cela va de soit), n’est pas de la vente à perte, ni du dumping, ni dommageable pour ces même revendeurs.



La boutique nVidia est une vitrine. nVidia seul n’a pas l’infrastructure nécessaire pour vendre sur tout les marchés et préfère laisser la tâche à ses entreprises associées. C’est pour ça qu’ils s’en fichent d’augmenter le prix de leurs modèles.



Ensuite tu parles de la fonctionnalité LHR qui serait un vice caché, puis après une “fonction facilement désactivable”. Au delà du côté paradoxal de ces déclarations, tu as vu un produit pour le confirmer ? Ces modèles ne sont pas encore sorties, attendons tout petit peu avant de crier au scandale.

Le 19/05/2021 à 15h 10


(quote:57220:Idiogène)
Nvidia pourrait très bien se voir attaqué pour son store pour cette évidente raison à force de retours de cartes…


Quel est le lien entre revente à perte et retour SAV de cartes ? Et puis si nVidia vendaient leurs cartes moins chères via leur site qu’ils ne les vendent aux revendeurs tu peux être sûr que ça aurait bougé depuis longtemps.

Le 19/05/2021 à 08h 13


(reply:57201:Winderly) ca va juste miner à une vitesse dérisoire mais ça reste du minage gratuit pour eux, aucune raison qu’ils arrêtent. Pour ne pas miner pour eux il suffit d’arrêter de fréquenter des sites louches :D


Le 19/05/2021 à 20h 41


(reply:57233:Idiogène)
C’est effectivement le fonctionnement des gammes pour les CPU/GPU depuis un moment. Quand AMD a lancé ses Athlon X3/X4 (si je ne m’abuse) les gens avaient trouvé une méthode qui permettait de réactiver les cœurs coupés par le fabricant car ne passant par les tests de qualité. C’était un peu le loto, si tu avais de la chance le cœur réactivé fonctionnait bien, sinon il plantait tout.


Le 19/05/2021 à 06h 50


brazomyna a dit:


sauf que la c’est justement un produit dont la raison d’être est déjà à la base de cibler le bidouilleur, passablement geek.


Même dans la catégorie bidouilleur tu as un large spectre. Certains voudront aller vite sans s’embêter (ou tout simplement débuter, faire de la pédagogie pour des enfants etc…) et prendront un arduino-like pour ses fonctions de bases et son offre logiciel hyper accessible. D’autres voudront quelque chose d’efficace (ou découvrir, aller plus loin que d’habitude, respecter des contraintes que l’Arduino ne permet pas etc…) et seront prêts à mettre les mains dans le cambouis.



D’ailleurs ton exemple est paradoxal car l’ESP mis en avant dans le tuto est un modèle incorporant plein de fonctionnalités pour un prix équivalent à de l’arduino au final.

Le 18/05/2021 à 13h 56


(reply:57174:vVDB) les ESP sont tout nus, ces produits ont plusieurs fonctionnalités et headers de présents dès le début. C’est une autre philosophie.


Le 17/05/2021 à 14h 03

C’est le nom du consortium, le public s’en fiche, ce serait comme dire USB-IF à la place d’USB tout court. Le nom qui sera utilisé pour marketer la techno c’est Matter.

Le 11/05/2021 à 13h 22


OlivierJ a dit:


Le marché est concurrentiel et personne n’a intérêt à “s’endormir”.


Dans la théorie oui.




OlivierJ a dit:


Évidemment que ça sert et que ça a énormément servi : plus de transistors (plus de cache et de logique et de prédictions), plus de vitesse, moins de consommation.


Donc il aurait suffit de plus de transistors pour faire de Bulldozer une bonne architecture ? La finesse seule ne permet pas de miracles.




OlivierJ a dit:


Si AMD était “à l’ouest”, c’est bien que ce n’est pas facile de faire des progrès


L’inverse n’a jamais été dit.




OlivierJ a dit:


Et il y a toujours eu de la concurrence (sinon AMD n’existerait plus).


Dans les faits, sur le moyen et haut de gamme, il n’y a eu aucune conccurence. AMD sortait des produits pour faire acte de présence mais les parts de marchés étaient acquises à Intel qui n’avait aucun effort à faire (volontairement ou non). Sans parler des quelques affaires ou Intel a été reconnu coupable d’abus de position dominante.

Le 10/05/2021 à 18h 47


Steez a dit:


Pour Fukagu c’est encore autre chose. Il est bon mais uniquement dans son domaine


C’est ce que je dit, ARM arrivera en entreprise en passant par des puces hyper spécifiques pour commencer, avant de devenir suffisamment polyvalent pour être un processeur “classique”. On peut imaginer par exemple des baies SAN en ARM, vu que la seule chose à savoir faire c’est gérer beaucoup d’I/O.




Steez a dit:


Je pense que le futur passera par ce genre de solution pour accélérer les performances, à moins que quelqu’un sorte une architecture miracle qui solutionne tous les problèmes (ce dont je doute assez fortement).


C’est justement ce que prépare Intel avec des gammes de processeurs avec des FPGA intégrés à la demande du client : https://www.intel.fr/content/www/fr/fr/products/details/fpga.html

Le 10/05/2021 à 11h 37


Pat_Hator a dit:


Pour être franc, j’avais exclu Linux de l’équation, pour la simple raison que dans le monde pro, je doute que l’on passe avant (à minima) 5 à 10 ans sur de l’archi ARM,


Et Fugaku alors ? :D
ARM arrive tout doucement dans le monde pro, mais sûrement.




Pat_Hator a dit:


Et je n’ai pas l’impression que Linux arrive à s’imposer en quoique ce soit sur la partie desktop, dans le pro comme chez le particulier.


Si l’ARM doit arriver dans nos ordinateurs, ça sera en passant d’abord par les serveurs. Ces machines sont le plus souvent dédiées à une tâche particulière, il est alors plus simple de designer une puce destinée à l’accomplir. Puis le scope s’élargira au fur et à mesure.




Pat_Hator a dit:


Même si c’est le cas, il faudra tout de même que les applis utilisées en desktop soit portées sur ARM.


Les grandes distro Linux sont compatibles ARM grâce à la popularité du Raspberry Pi et le monde Linux connait très bien l’ARM grâce à Android. Les logiciels les plus populaires sont compatibles (On peut installer une distro desktop complète sur Pi, ça répond à toutes les utilisations basiques d’un ordinateur) aussi et la compatibilité des plus petits arrivera là aussi à mesure que la plateforme devient populaire (dans le sens “d’autres machines que des cartes de dev”).



SI Apple a réussi sa transition c’est parce qu’ils maitrisent cette plateforme depuis des années grâce à l’iPhone et ont donc pu fournir tout les outils et explications nécessaires aux dev. Linux est exactement dans le même cas : plateforme connue, système compatible, outils fonctionnels.




Pat_Hator a dit:


Ce n’est évidemment pas trivial, mais le fait est qu’Intel s’est endormi sur ses lauriers pendant sa trop longue phase de monopole, et a enchaîné les décisions foireuses, et notamment les projets tués dans l’œuf parce que le développement n’allait pas assez vite selon le CEO de l’époque.


Pour le coup je te rejoins, On ne manque pas de news de Brian Krzanich qui torpille des projets ou vire des membres clés de la R&D car pas d’accord avec lui.




OlivierJ a dit:


Et si c’était si facile de faire mieux que 10 %, pourquoi personne ne l’a fait ?


AMD a réussi, et pas uniquement grâce à une gravure plus fine. Je ne dis pas qu’il est possible d’avoir +2030% chaque année, mais Intel aurait pu sortir une nouvelle archi bien plus tôt et réussir leur transition vers le 10/7/5nm bien plus vite. Si le plus gros fondeur historiquement en avance de 23 ans finit par avoir un retard sur ses concurrents, ce n’est pas parce que la techno est inaccessible, sinon les concurrents aussi galèreraient.



Le plus flagrant est de voir à quelle vitesse Intel a retourné sa veste vis à vis de sa gamme grand public passant de “i7 4 coeurs ou rien pour les 10 ans à venir et le reste c’est du bridage logiciel” à “oh regardez nous aussi on sait faire du 810 coeurs (enfin presque)”.

Le 08/05/2021 à 22h 12


(reply:57032:popi_le_clown) Je suis d’accord qu’une alim qui lâche c’est rare, mais on peut toujours vouloir ne pas prendre le risque. Et puis ‘ai envie de dire que tout l’intérêt d’un homelab, c’est de faire tes expérimentations. Perso j’ai commencé à envisager un cluster Proxmox à la maison, because reasons. C’est pas raisonnable et ça n’apporte pas grand chose à mon niveau, mais c’est une manière de découvrir.


Le 08/05/2021 à 00h 14

même avec une seule source d’énergie ce n’est pas totalement idiot, ça permet de changer à chaud l’une des deux alimentations si elle a rendu l’âme.

Le 04/05/2021 à 17h 26

Vu la ressemblance énorme, même ergonomie qu’une Surface (enfin j’espère pour eux sinon c’est un échec commercial direct) : le clavier ne tient rien, d’où la présence du pied intégré dans la coque de l’écran. Le pied peut se positionner à l’angle souhaité (de plutôt droit à presque à plat) suffit pour rendre l’ensemble très stable. Par contre utiliser le clavier sur les genoux il faut oublier et l’utiliser comme une tablette (replié dans le dos le clavier se désactive).

Le 30/04/2021 à 11h 34


(reply:56916:Drepanocytose) dans le sens “rentabilité” ce n’est plus minable je pense.


Par contre le changement de preuve de l’ETH on l’attend depuis un moment, à se demander si ça va arriver un jour.

Le 30/04/2021 à 09h 48


patos a dit:


T’aura jamais de problème avec les disques dur sous les 6 disques. Avec les SSDs, sous les 4 disques.


En vrai le problème vient forcément de ma grappe car le proco se tourne les pouces mais le load explose régulièrement sans raison apparente (me semble avoir atteint un load de 5000 un jour, j’ai halluciné).

Le 29/04/2021 à 14h 15

Oui bon moi c’est du 4*2To donc bon :hap:

Le 29/04/2021 à 11h 05


(quote:56858:Narutokun)
Avec un bon processeur, et un système ondulé, le seul cas ou je vois l’avantage de la carte RAID c’est si ton OS plante, les données restent consistantes.


Si tu veux installer le système sur un RAID il peut être préférable de le faire sur matériel. Selon l’OS ça varie de impossible à prise de tête.




(quote:56858:Narutokun)
Je n’ai pas encore eu en main une carte RAID qui permet d’ajouter un disque utile


Dans nos serveurs du taf on a des PERC h710 (si je ne m’abuse), elles le permettent. Par contre l’interface de gestion est pas la plus claire du monde.




patos a dit:


L’ordre d’IO ne passe qu’une seule fois dans le bus avant d’atteindre le cache qui l’acquitte.


J’avais pas vu ça comme ça. Effectivement en cas de charges lourdes ça doit bien influer sur le système. Je me demande si j’ai pas un serveur en souffrance à cause de ça (raid5 ZFS qui sert de cible de backup ET de BDD pour un Centreon notamment).

Le 29/04/2021 à 14h 17


(reply:56878:fry) Le PoE peut venir d’un injecteur tout bête aussi. Bon un injecteur 10Gig je suis pas sûr que ça existe encore non plus :hap:


Le 29/04/2021 à 13h 49


fry a dit:


edit 2 : je viens de percuter que le souci c’est les boucles réseau, mais est-ce que les switch poe ont pas déjà ce genre de protection en fait ?


Vu qu’on a réusi à générer une tempête de broadcast l’autre soir au taf (parce qu’on a débranché/rebranché d’un switch à l’autre sans réfléchir) sur des switchs baies administrables récents, j’ai comme un doute pour un petit switch comme ça :‘)

Le 29/04/2021 à 11h 23

Je trouve ça idiot qu’ils aient mis le PoE sur un port 1Gb. Ca signifie faire une croix sur le PoE si on veut relier le switch à un autre en 10Gig car, vu le format, il est plutôt destiné aux petites structures qui n’ont pas forcément le matos adapté contre les boucles réseaux. Du coup c’est vraiment pour une partie isolée du LAN et sans trop de possibilité d’upgrade.



Mis à part ce détail il est chouette.




(quote:56872:Kazer2.0)
(La fibre consommant le moins et le DAC étant entre les deux)


le DAC est au dessus de la fibre malgré “l’absence” de transceiver ?

Le 27/04/2021 à 06h 54

Je trouve pas d’info claire concernant le Dual-Domain. Quand il est dit que le périphérique a deux connecteurs c’est deux connecteurs physiques ou bien c’est ce qu’on voit sur la dernière photo ? Parce que sur l’avant dernière il semble y avoir une petite connectique à gauche du circuit imprimé.

Le 20/04/2021 à 21h 22


(reply:56740:Shadowman_2k3) My bad, ça m’apprendra à répondre plusieurs heures après l’avoir lu.


Le 20/04/2021 à 18h 09

quel rapport entre une màj Windows avec le driver ?

Le 20/04/2021 à 12h 03

menu démarrer > tape “activer” > Activer ou désactiver des fonctionnalités Windows > décoche “Support de partage de fichiers SMB 1.0/CIFS”



Dingue qu’il faille attendre 2021 pour avoir enfin une évolution de ce genre. Encore plus dingue qu’ils n’y soient pas arriver sans que cela coupe le partage d’imprimante.

Le 16/04/2021 à 18h 12


aurejac a dit:


Mais la complexité du montage ici fait qu’il faut que la VM QuTS cloud soit aussi “informée” de la perte de courant et qu’elle s’éteigne proprement avant que les batteries soient vides…


Après il faut aussi réfléchir à l’utilisation que l’on veut faire du système et comment on le met en fonction. Si l’on prend le montage tel que décrit dans l’article on est bien plus proche du homelab pour faire ses expériences personnelles qu’un outil en production sur lequel on doit compter.



Maintenant je pense que dans tout les cas les hyperviseurs sont assez avancés pour masquer aux VM qu’il y a eu un problème. Au taf notre serveur de fichiers est une VM WinServer sous HyperV et il arrive souvent que la machine soit brutalement mise en pause par manque d’espace disque (oui on a mal jaugé). Je fait de la place sur le disque puis relance la VM qui reprend comme si de rien n’était. Il y a relativement peu d’accès simultanés à ce serveur mais je n’ai pas remarqué jusqu’à maintenant de corruption dans les fichiers à cause de ses coupures (ni pour les autres machines coupés de la même façon, y compris les VM Linux dont je doute de l’installation des extra tools HyperV).




aurejac a dit:


Ben ça c’est la théorie mais d’une part si le système peut s’éteindre proprement et l’éviter, c’est quand même mieux non ? et la théorie c’est une chose, mais même sans panne hardware, il y a des bugs.


Tout à fait, le ZFS n’est qu’une première couche de sûreté contre les coupures inopinées, en rajouter sera toujours mieux. Et dans la pratique tout système aura une faille. La question est donc de savoir quel niveau de sécurité on vise et surtout si ça vaut le coup.




aurejac a dit:


Que celui qui a un NAS qui a 1500j d’uptime (même dans son garage) sans coupure de courant me jette la première pierre :)


Alors notre 1er serveur de fichiers (au taf encore) a dû dépasser les 1000 jours si on enlève les coupures électriques prévues. Et pourtant il est fait un peu à l’arrache (l’ancien responsable info était électronicien avant tout et surtout n’avait aucune orga. le serveur tournait sous un vieux Suse, le système était installé sur un RAID 1 de 2x2To et les données étaient SUR LA PARTITION SYSTEME. La doc d’époque en cas de plantage : “tu réinstalles et tu mets la backup de la veille”…).




aurejac a dit:


L’autre critère aussi, même en entreprise, c’est de pouvoir mettre la machine en veille la nuit, voire l’éteindre (et la réveiller le matin ou sur paquet WOL).



L’air de rien, ça divise par jusqu’à 3 la consommation electrique et multiplie par 3 la durée de vie réelle des HDD !


Je serais très curieux d’avoir des articles là-dessus. J’aimerais bien essayer ça au taf mais “malheureusement” on a des techniciens d’astreintes qui peuvent intervenir h24 donc la majorité de nos serveurs doivent être dispo à toute heure.




aurejac a dit:


Et perso, il y a une chose que je constate c’est que des données enregistrees sur un système de fichiers BTRFS ou EXT4 sur du raid5 logiciel mdadm, le disatster recovery plan c’est facile


le raid logiciel c’est le feu. A part pour installer un système sur un raid sans avoir à devenir fou je ne vois plus d’intérêt au raid matériel. Et OpenZFS peut aussi récupérer des pools d’un autre système facilement.




aurejac a dit:


Par contre des données enregistrées via une VM QuTS cloud (donc format de fs propriétaire), sur un datastore VMFS, ça, c’est peut être un petit peu moins marrant en cas de pépin, ça rajoute des couches de complexité et de logiciel propriétaire.


C’est du mdadm et du lvm. Normalement rien d’insurmontable mais de ce que je lis c’est un poil retors quand même.




aurejac a dit:


ça m’aurait beaucoup intéressé que QNAP propose son OS en natif


J’imagine qu’ils proposent uniquement sous forme d’appliance pour se faciliter grandement la tâche à l’optimisation et stabilisation du système.

Le 16/04/2021 à 09h 17


aurejac a dit:


est-ce qu’en cas de coupure de courant, sur onduleur, l’ESXi va bien donner l’ordre à la VM QuTS de s’éteindre ?


HyperV, qui est loin d’être une référence dans le genre, mets les VM en standby à l’extinction et les redémarre comme si de rien n’était après. Ça m’étonnerait qu’ESXI ne soit pas capable d’en faire autant.




aurejac a dit:


Je dis ça parce que j’ai vu beaucoup de NAS “maison” (comme ici) qui, à la moindre coupure (freenas en ZFS par ex), si on a pas un onduleur en bon état qui envoie proprement l’info de purger les caches et les ecritures en attente, se couper gentiment -> byebye les données…


Si tu perds tes données après une coupure sur un ZFS il y a un souci sur la machine. ZFS est pensé pour ne jamais supprimer la vieille version d’un fichier tant qu’il n’est pas sûr à 100% d’avoir écrit la nouvelle. Au pire tu perds la modification en cours.

Le 16/04/2021 à 07h 16


aurejac a dit:


Où est l’intérêt d’acheter le microserver de base et l’upgrader ?


Parce qu’ils avaient les pièces à disposition, tout simplement. L’installation montrée est juste une possibilité parmi tant d’autre, il faut cesser de voir ces articles comme “la méthode à appliquer”.



Ici on peut découvrir :




  • les possibilités d’upgrade du Microserver

  • l’intérêt de iLO

  • la gestion du Passthrough ESXI (modulo la bonne volonté du matériel)

  • l’installation de QuTS Cloud



Chaque partie est intéressante séparément et c’est ça qui compte.

Le 09/04/2021 à 07h 42


(reply:56529:DayWalker) les Ryzen 9 ils comptent pour du beurre ?


Le 08/04/2021 à 07h 29


ashlol a dit:


Intel peut leur mettre une amende ou suspendre les livraisons de tout chipset,


Intel n’est pas la Justice et n’a sans doute pas envie de voir le parc de processeurs Intel baisser parce qu’il a arrêté de fournir un fabricant, possiblement gros (comme dit David, faire la gueule à Asus c’est pas la meilleure idée).



Je ne dit pas que rien ne sera fait pour corriger le tir niveau Bios et que le fabricant ne va pas avoir un peu plus de mal à marchander ses prix d’achats mais rien de tout ça ne met en danger leur relation commerciale avec Intel.



Et puis ça peut faire le jeu d’Intel aussi, d’avoir des news qui tournent que leurs processeurs peuvent en réalité fonctionner mieux que prévu.

Le 07/04/2021 à 15h 29


(reply:56493:ashlol) Y’a eu pas mal de cas dans le passé où les fabricants de mobo outrepassaient la limite imposée par Intel ou AMD. Ca leur permet de se différencier des concurrents et c’est plus important pour eux que d’avoir Intel qui les boude (après j’imagine qu’ils tentent leurs coups une fois qu’ils ont sécurisé leur stock de chipset au cas où).


Le 05/04/2021 à 06h 06


(reply:56399:DantonQ-Robespierre)


ça dépend du boitier, Win10 le gère : https://www.journaldulapin.com/2019/01/28/du-trim-en-usb-sous-windows-10-mais-pas-sous-macos/

Le 02/04/2021 à 07h 09


(reply:56389:Chocolat-du-mendiant) my bad, pas vu non plus le port micro usb.


Néanmoins le problème reste le même, ajouter une seconde connectique pour déporter l’USB ne change pas ses fonctionnalités et le but visé. Rajouter un ethernet accessible via ce port micro USB aurait été tout à fait possible.

Le 01/04/2021 à 13h 28

non je plussoie Digaboy. Ce genre de boitier exploite du Thunderbolt qui permet tout à fait de faire transiter autre chose que le signal PCIe de la CG en plus (ils ont bien mis 3 USB 5Gb et un SATA). On est complètement dans une optique de dock et donc un port réseau est totalement logique ici.

Le 04/04/2021 à 17h 10


(reply:56394:grsbdl) ah j’ai eu ce bug récemment, merci de l’info je vais regarder ça.


Le 01/04/2021 à 13h 48

En vrai la bonne question est : pourquoi faire un GPU au niveau des IGP ?



Le but des IGP est d’apporter une base stable pour le quotidien et un tout petit peu plus si possible. Qu’apporterait un GPU avec sa bande passante meilleure ? Les performances 3D resteraient trop faible pour être une vraie station de travail/jeu et le décodage/encodage vidéo est déjà délégué à des circuits dédiés pour augmenter l’efficacité. En plus une puce supplémentaire demande effectivement un câblage supplémentaire sur la carte mère et donc des composants électroniques, mécaniques et de refroidissements, supplémentaires. l’IGP apporte des avantages incontestables pour le design de la carte mère et le refroidissement de la machine pour une perte de performances limité vis à vis d’un petit GPU.



Si le but est d’avoir un GPU dédié capable de se brider tout seul au niveau d’un IGP et de se débloquer au besoin je pense que les constructeurs doivent plancher dessus depuis un moment mais que ça reste hors de portée pour l’instant.



En tout cas Optimus j’en vois l’intérêt au taf. Une personne qui fait de la CAO a un portable équipé d’un GPU, la différence d’autonomie quand il lance son soft avec l’IGP ou le GPU n’est pas négligeable, il gagne facile une heure avec l’IGP.

Le 01/04/2021 à 12h 17


Burn2 a dit:



Je suis persuadé qu’un gpu récent “bridé” (et pas poussé à fond pour sortir quelques mhz de plus comme on fait souvent maintenant) pour avoir un bon ratio perf/conso pourrait permettre d’avoir un truc beaucoup plus perf qu’un igp, avec une consommation négligeable sup en usage léger. Oui la notion de “négligeable” est subjectif, mais je demande vraiment à voir.


les IGP AMD sont basé sur Vega, ce sont donc des modèles “castrés” de leurs cartes graphiques, pareil pour Xe qui est la base technologique des futures cartes Intel.

Le 31/03/2021 à 17h 42


(reply:56325:Fab’z)
ça existe des KVM pour de l’USB uniquement et aliexpress est plein de kvm HDMI+USB.


Le 29/03/2021 à 09h 25


(reply:56240:ben51) même la X570D4I-2T avec 2 OCulink ? ça fait 8 SATA c’est pas négligeable.



(reply:56239:David_L) Je suis pas persuadé que le prêt à l’emploi soit un critère très recherché quand tu installes un serveur en baie, et puis entre brancher un RJ et brancher un DAC…
(Je remarque que lorsqu’on édite un message pour rajouter une citation/réponse ça ne déclenche pas de notification :chinois: )


Le 29/03/2021 à 08h 36

Franchement la B550D4ID-2L2T je pourrais tomber amoureux direct… Si ils avaient mis du SFP+ à la place du RJ 10Gb :c



Y’a une raison précise qui pousse les constructeurs à mettre du RJ à la place du SFP+ ? Autant les cartes grand public c’est compréhensible mais pour du matos pro c’est un peu bête je trouve.

Le 26/03/2021 à 09h 26


MayeulC a dit:


MLC=multi-level cell, par opposition au SLC (single-level cell). Cela inclut les TLC (3x) et les QLC (x4). À moins que le marketting ne l’utilise que pour x2?


Que pour le x2.

Le 25/03/2021 à 16h 49


(quote:56206:brice.wernet)Car mes dosqies dur écrive’t les infos exactement où elles ont été lues, donc on use toujours les mêmes endroits en écriture. Ce n’est pas le cas sur un SSD


Pas forcément, une donnée peut très bien être écrite au même emplacement que celui d’origine, sur un DD ou SSD. C’est le système de fichiers qui va déterminer ça, pas le disque.

Le 24/03/2021 à 15h 19


(reply:56188:dvr-x) Ah bah ça après faut regarder ce que ça vaut dans la pratique. C’était juste pour réagir au DIY versus ces machines.


Le 24/03/2021 à 09h 41

rien dans la com’ de Cherry sur le sujet à part “in combination with the long-lasting mechanics, ensures superior durability with consistent actuation quality.”.



Après si le ressort est effectivement la pièce la plus à risque je trouve aussi que c’est la plus facile à réparer. Il est accessible et c’est quelque chose de très standard.

Le 24/03/2021 à 09h 05


(reply:56159:fry) Oui en lecture ça va aussi vite que le CMR mais si on stocke plus de bandes on devrait donc avoir moins besoin de s’écarter du bord et donc plus de débit. Or on va “aussi vite” que le CMR, c’est donc que le gain relatif de débit doit être réduit par une correction d’erreur plus poussée. C’est mon hypothèse, elle vaut ce qu’elle vaut.