votre avatar Abonné

David_L

est avec nous depuis le 13 septembre 2002 ❤️

15083 commentaires

Le 29/08/2024 à 00h 49

👀

Le 04/01/2023 à 17h 19

Dans l’article :




La RTX 4070 Ti n’étant proposée que par des constructeurs tiers, chacun fait ici comme bon lui semble.


Pour les tarifs on verra, normalement il y aura pas mal de modèles aux alentours des 900920 euros, mais je préfère attendre de voir ce que diront les stocks à la mise en ligne :chinois: Pour le reste, la spéculation et les racontars ne servent jamais à grand chose, surtout pour des accords commerciaux de cette ampleur dont peu de personnes ont réellement connaissance (mais les constructeurs et partenaires savent très bien “dealer” ce genre de changement).

Le 26/09/2022 à 05h 02

Ca n’a aucun sens ces remarques. Encore heureux qu’on a mieux que la génération précédente, sauf que l’entrée de gamme augmente tout autant à chaque fois, et toute la suite aussi. Il suffit de suivre un peu l’actualité et de voir qu’ils ont mis les prix très haut pour pouvoir entre autre vider les stocks de 3xxx, et si Nvidia se comportait correctement EVGA n’aurait pas abandonné le marché des GPUs peut-être.
Mais comme d’habitude, à défendre ces grosses boîtes qui ont des comportement limites, avec comme justification que ce sont des “sociétés à but lucratif”. J’espère que le marché de l’occas va cartonner suite à la chute du minage et que ça va les calmer un peu.



Entre les prix et la conso ça devient du délire les GPUs maintenant.

Pour le moment on a uniquement le catalogue haut de gamme annoncé, attendons la suite avant d’émettre des remarques concernant l’entrée de gamme ;)



Je ne nie pas le rôle du marketing, bien au contraire. Je me désole qu’il fonctionne aussi bien, même sur un public plus “éduqué” sur ces sujets que la moyenne. Et je dis simplement que j’aimerai qu’il intervienne moins dans les analyses que je lis ici ou là post-lancement.



D’ailleurs j’ai du mal à comprendre ta remarque sur la 4090, puisque c’est clairement la plus intéressante du lot, alors que ce n’était pas du tout le cas de la 3090. Au contraire, tu as une carte deux fois plus perf/\(, avec un tarif similaire (hors hausse du €/\) sur lequel NVIDIA ne peut rien) au pire en euros elle se cale sur la 3090 Ti qui était sortie à un tarif plus élevé et le même TDP.



Après si tu as besoin de cartes avec 48 Go de mémoire, on sort des GeForce et c’est que tu as un besoin professionnel. Ce n’est pas tant le pouvoir d’achat qui t’intéresse que ta productivité et une telle carte est vite rentabilisée (ou alors tu as un souci de modèle économique). Et il y a les RTX 6000 ou même la L40 pour ça. Après oui une RTX 4090 avec 48 Go de RAM à 999 $ ce serait cool. Une Ferrari électrique à 10 000 euros aussi :D



Après comme dit, si telle ou telle carte ne correspond pas à un besoin précis, il y a d’autres modèles, la concurrence, chacun est libre de ses solutions. Ce n’est pas comme si on était obligé d’acheter ces produits.

Le 24/09/2022 à 04h 58

Encore heureux qu’il ne stagne pas, c’est dans l’ordre des choses. Si les fabricants augmentaient les prix des composants en accord avec le gain de performances à chaque génération, le seul moyen de se payer une nouvelle config aujourdh’hui serait d’hériter d’un tonton millionaire.



Donc oui le rapport perf / euro s’améliore, mais si NV n’était pas si gourmand ce ratio pourrait être encore meilleur. Alez j’ose rêver, peut être même que les tarifs pourraient être stables d’une génération à l’autre, hors inflation ?



Un doux rêve…même EVGA a dit stop, d’ailleurs l’article d’Anandtech à ce sujet est assez intéressant.



Marges de cochon

J’ai du mal à comprendre la remarque. Tu dis qu’il pourrait baisser… alors qu’il baisse puisque l’on a autant ou plus de TFLOPS pour moins cher que sur la génération précédente, inflation comprise (et même parité €/$ comprise sur la 4090). Pour rappel au lancement des RTX 30 j’écrivais :




Voici d’ailleurs le coût en euro de chaque TFLOPS selon les modèles :



RTX 3070 : 25,95 euros par TFLOPS
RTX 3080 : 23,97 euros par TFLOPS
RTX 3090 : 43,03 euros par TFLOPS


C’était avec les prix de lancement, avant la phase d’inflation du marché des GPU (indépendante de la phase d’inflation actuelle). Actuellement, on est entre 19,3 et 24,5 $ du TFLOPS sur les RTX 40, le moins cher étant sur la 4090, la moins intéressante de ce point de vue étant la 4080 16 Go.



Le modèle le moins intéressant n’est plus le même, mais on reste sur un TFLOPS/$ en baisse, alors même que les modèles les plus accessibles (en général ceux avec le meilleur sweet spot) ne sont pas encore annoncés. On a aussi un écart réduit qui était assez pénalisant pour la 3090 à sa sortie, ce qui n’est pas le cas ici pour la 4090 qui se détache bien des autres modèles.



Pour le reste, ce qui fait la compétitivité, c’est la concurrence. On verra dans quelle mesure AMD et Intel arrivent à mettre la pression sur NVIDIA de ce point de vue. Et le passé l’a bien montré, ce n’est pas que la question du coût qui entre en jeu, sinon le marché serait favorable au cassage de prix, ce qui n’est pas le cas. C’est toujours plus complexe que ça.



Et une fois de plus (la réflexion se veut ici générale), j’ai du mal à comprendre ces discussions sans fin à chaque lancement, comme si chacun défendait l’oeuvre de sa vie en étant pour machin ou contre bidule, ayant un avis sur la politique prix/marge de sociétés à but lucratif.



Si une carte vous intéresse, achetez là, sinon, achetez autre chose, ou rien. Le marché est divers et personne ne vous en voudra ici de préférer votre carte actuelle ou une RX 6950XT à une RTX 4090. Défendre ou s’opposer à une marque n’a pas de sens, une marque se moque bien de votre capacité à argumenter dans les commentaires, ce n’est que le fruit d’un marketing plus ou moins efficace. Ce qui importe (ou devrait importer) ce sont les produits, s’ils conviennent à un besoin et un budget à un instant “t”. Tout le reste, c’est du vent servant à faire de la page vue.

Le 22/09/2022 à 15h 09

Avant pour avoir les TFLOPS d’une 4080 de 12 Go (soit 40 TFLOPS) il fallait une 3090 Ti. Je vois mal comment le Perf/euro serait en train de stagner ? Et on ne parle là que des TFLOPS bruts, sans les optimisations de l’architecture et ses nouvelles fonctionnalités.

Le 22/09/2022 à 12h 57

Non, mais on peut se contenter de FSR 12 sans problème. Et on voit bien la tendance, l’écart ne va faire que se creuser, AMD devra de toutes façons implémenter des unités Tensor/IA pour s’adapter aux innovations à venir qui viendront en partie de là (comme sur CPU où ils s’y mettent). Ils le font de toutes façons déjà dans les architectures CDNA, ne manque que la couche logicielle.



Pour Intel c’est différent puisque XeSS aura un fonctionnement similaire aux versions initiales de DLSS, on verra en pratique le résultat lorsque les cartes seront réellement testées via des patchs publiquement disponibles. Mais le résultat et les possibilité devraient être similaires.




Br31zh a dit:


Faut quand même admettre que pour 300 € on a plus grand-chose, voire moins bien que par le passé.


C’est vrai surtout du fait de la situation depuis deux ans (et la parité euro/dollar ne va rien arranger malheureusement). Mais la RTX 3050 a été annoncée à 279 euros par exemple. On verra quel sera l’état du marché à l’arrivée des séries 40 d’entrée de gamme. Mais bon, on reste dans un monde où c’est la loi de l’offre et la demande. On peut s’en désoler, ça reste un fait.



Par contre pour le rapport prix/perfs en baisse, à mon avis, il faut refaire les calculs mais ça me parait difficile, surtout avec Ampere qui a consisté à doubler le FP32 (après si c’est dans Minecraft en 720p, forcément… :D)

Le 22/09/2022 à 08h 04

AMD fait du super sampling classique, avec prise en compte du Temporal dans la version 2 pour affiner. Cela n’a rien à voir si avec DLSS 1, 2 ou 3 (ce que même AMD dit). FSR est une alternative à DLSS qui est plus large dans sa compatibilité (puisque pas d’IA/Tensor) mais moins précis et qui ne peut pas reconstruire des images intermédiaires entières.



Les deux ont une stratégie/approche différente, chacune ayant ses avantages et ses inconvénients. Chacun choisi donc selon ses besoins et critères (et préférences). Mais un conseil : on ne combat pas le “bullshit” en racontant n’importe quoi.

Le 22/09/2022 à 07h 13

L’entrée de gamme est remplacé par les APU comme le 5700g par exemple. Ça permet de jouer au jeux compétitif dans de bonnes conditions a très bas prix. Donc nvidia n’a aucun intérêt à sortir des cartes moins puissantes que la 3050 car elle ne les vendrait tout simplement pas.

Oui et non. Il y a toujours un marché pour une petite carte simple slot principalement pour la bureautique et la partie vidéo, pour équiper des machines dépourvues (serveurs, vieux PC, machines avec gros CPU mais pas de GPU intégré, etc.). NVIDIA a fait le choix de ne pas trop se mettre à jour sur ce terrain laissant de vielles générations s’en occuper (GT 710730 par exemple). Mais avec Intel qui va s’y placer, je suppose que ça changera via du Ampere ou Ada.

Le 22/09/2022 à 06h 26

Pour info j’ai complété l’article avec les infos données à l’occasion des briefs techniques destinés à la presse hier après-midi :chinois:

Le 22/09/2022 à 04h 15


Berbe a dit:


Ce qui “marche”, c’est surtout de ne sortir les cartes les plus accessibles que (très) longtemps après. La production des “anciennes” 30603070 sera-t-elle continuée après la sortie des 4000 ?


Parfois c’est comme ça, parfois c’est l’inverse, tout dépend de la stratégie de production. Spoiler : on ne peut pas fabriquer 6 gammes de GPU en simultanée. Pour le reste, j’ai du mal à comprendre le point. Des 40604070 seront disponibles, il faudra juger de leur pertinence lorsqu’elles seront sur le marché. Mais cela change quoi pour ceux qui ne sont pas intéressés par des cartes à plus de 1 500 euros, quel que soit leur nom ?



Pour le reste, je l’ai déjà dit : spéculer c’est le mal.




Berbe a dit:


Je viens de réaliser que la gamme 50 n’existait pas pour les 2000 mais est apparue avec les 3000 : le sens de la marche est donc bien vers une plus grande segmentation. Et si des 4040 apparaissaient ?


Les GeForce 750 Ti c’est quoi ? (Les premières à sortir de la génération Maxwell pour rappel). Mais la segmentation suit le besoin de la gamme. Si un jour NVIDIA a besoin de sortir une 4010 ou une 5010, elle sortira. Comme répété à longueur de lancement, ce ne sont que des noms marketing, ils n’ont pas de sens sinon un ordre au sein d’une génération. Il n’y a donc pas beaucoup d’enjeu.



La seule règle que NVIDIA respecte à travers les générations, c’est que la xx60 doit être une carte “sweet spot” au niveau de son ratio perf/prix. Mais on sait très bien qu’avec les décalages successifs de gamme, ça risque de devoir glisser à un moment ou un autre.




hwti a dit:


Un bus mémoire de 192bits sur la 4080 12Go à 899$/1099€, ça doit être une première.


Oui, mais la question c’est : est-ce que la BP mémoire est suffisante ? On verra en pratique ;)




Sinon l’article parle de l’absence de PCIe 5.0, mais ce qui m’étonne le plus c’est l’absence de DP 2.0, pour éviter les “double DP 1.4a + DSC” : NVIDIA serait donc en retard sur les cartes Intel et les futures cartes AMD.


De ce que j’en comprends PCIe 5.0 est présent dans Ada mais pas utilisé sur les cartes grand public, à vérifier (déjà qu’on doit être loin de saturer le PCIe 4.0…). Pour DP 2.0 c’est plus étonnant oui surtout que, comme tu dis, ça reste un avantage pratique que de l’intégrer. Mais là aussi on verra ce que l’on arrivera à savoir sur les raisons qui ont mené à ce choix au final.

Le 21/09/2022 à 19h 20

Le fabricant défini des gammes au sein d’une génération. NVIDIA n’a jamais dit “les 4080 c’est l’équivalent des anciennes 3080” (bien au contraire). Après on peut se raconter les histoires que l’on veut, mais ce qui fait le choix, c’est le perf/prix, l’enveloppe




Liam a dit:


Le haut de gamme, à la base, c’était 500-600€. Désolé de constater qu’à 1500€ la 4080, y a eu un peu d’inflation… Même la 1080Ti FE est sortie à 825€… la 980Ti à 749€.


Comme dit plus haut, ce sont des chiffres et du marketing. Mais effectivement, on le voit à chaque annonce puisqu’on a toujours les mêmes rengaines : ça marche. Comme quoi…

Le 21/09/2022 à 12h 57

Les briefs de NVIDIA se font cet après-midi ;)




(reply:2094408:GérardMansoif)


Non et ce ne sera sans doute pas tout de suite



On le dit à chaque fois, mais NVIDIA décale ses gammes au fil des générations. Une 4080 n’est pas comparable à une 3080. C’est du marketing.



Après chacun analyse comme il veut, même si ça n’a pas de sens.



Je ne comprendrais jamais ce genre de réaction. Mettons que tu as un budget GPU de 500 euros, la question c’est « est-ce que la RTX 40 à 500 sera mieux que la génération précédente ». La réponse sera très certainement oui. Tout le reste n’a guère d’intérêt en pratique, sauf à aimer se plaindre 😅

Le 21/09/2022 à 08h 38


(quote:2094375:Sgt Tagazou)
Apparemment je lis un peu partout que le DLSS3 ne sera compatible qu’avec les 4xxx, j’imagine quand même que les jeux qui passent au DLSS 3 sans avoir eu le 2 auront une rétrocompatibilité avec les anciennes Gen


Voir ce que j’en dit dans l’article. On verra bien sur la durée. Il est fort possible que ce ne soit pas le cas au lancement, peut être que ça changera ensuite, ou pas. Avant d’en avoir parlé en détail avec NVIDIA, personne ne peut rien affirmer, juste spéculer (et spéculer, c’est mal).




durthu a dit:


Mouais …



J’attends de voir les tests de ces monstres, ça fait longtemps que je me méfie des annonces de performances x2, x3, …


Vu la croissance des CUDA Cores et donc des FP32/Int, l’évolution x2 sera là au minimum, à voir selon les besoins des jeux, la définition, mais rien que ceux qui font du calcul verront les avantages. Après ce sera dépendant des usages RTX/Tensor et des nouveautés type DLSS 3. L’important sera aussi le FPS/Watt dans les différentes situations, et l’apport du 4 nm.




Perso, j’ai acheté sur un coup de bol une 6900XT au MSRP (je voulais une 6800XT à la base) soit aux alentours de 990€ et ça m’a fait très mal. J’en suis très content mais je ne pense pas remettre une telle somme dans un composant avant longtemps.


On analyse pas une tendance de marché sur un cas personnel. La question pour NVIDIA c’est : est-ce qu’il y aura assez de clients pour ces cartes aux tarifs annoncés. Vu les marchés/publics visés (dont tu ne fais pas parti selon ce que tu en dis) il y a de grandes chances. On verra bien.



C’est comme pour des machines comme le Mac Studio. Perso j’ai un Mac mini à la maison, ce n’est pas pour autant que personne n’achète le Studio malgré ses prix délirants. Certains ont le besoin, et l’apport de cette machine est supérieur à son coût pour leur business.

Le 20/09/2022 à 14h 42

Et c’est bien dommage, cela fait des années que je regrette qu’on ne puisse pas avoir ce genre de processeur pour des machines fixes.

Bah tu l’as sur des machines fixes, mais ce sont des processeurs BGA, donc soudés.

Le 20/09/2022 à 14h 17

Le mobile ce n’est jamais en socket classique. Après on verra comment s’organise l’entrée de gamme Desktop, mais ce sera plutôt à horizon 2023, là le focus sera sur le milieu/haut de gamme.

Le 13/09/2022 à 03h 36

Ton SAN en général c’est du SAS attaché ou iSCSI qui n’est pas fait pour le Flash. Là c’est exactement la même chose en pratique, mais avec un protocole d’accès/découverte natif au NVMe.

Le 12/09/2022 à 12h 08


(reply:2092813:Fab’z)


Comment ça des solutions “tierces” ? Tu attaches le SSD à ton client, tu gères ton RAID comme si c’était local. Après on peut considérer mdadm comme tiers, mais bon.

Le 12/09/2022 à 11h 19

Non, pas de mélange ;) Et c’était même un produit/papier sur lequel j’ai commencé à travaillé bien avant mon départ et mon intégration à Clever (qui n’utilise pas d’OpenFlex). Mais travailler sur des solutions Pro ça prend du temps et ce n’est pas toujours simple, surtout quand il faut recevoir trois palettes à la maison :D (Et pour mon Home Lab je vise plus accessible :transpi:)

Le 01/09/2022 à 04h 49


micromy a dit:


Comme avec la précédente génération je vois qu’AMD ne sort pas de Ryzen 3, du moins pour l’instant… Même si perso je suis plutôt client des Ryzen 5 ou 7 pour du gaming moyenne gamme, je trouve dommage que le segment moyen / entrée de gamme bureautique soit ainsi abandonné. Qui n’a pas dans son entourage un parent ou un.e ami.e dont le besoin est un simple quad core avec IGP pour du surf Web confortable, de la bureautique de base, un solitaire de temps à autre, et le classement des photos de vacances ? À moins qu’ils réservent cette gamme aux OEM à cause d’une demande trop faible pour les PC sur mesure ?


Il n’est pas abandonné, mais ce n’est pas la priorité d’un lancement. Intel lancera aussi ses modèles “K” avant le reste de la gamme. Ce qu’il faudra voir, c’est si AMD décline sa gamme ou se repose sur AM4/Zen 3 pour occuper ce terrain. C’est ce qu’ils ont fait sur la génération précédente, mais c’était surtout parce qu’ils n’avaient pas de quoi produire assez et donc la production allait en priorité aux marchés haut de gamme/pro. C’est une des limites de la stratégie “one die fits all” utilisée depuis Zen.




the_Grim_Reaper a dit:


David est humain ? :eeek2: akka “David peut faire des erreurs de frappe comme tout le monde”


Disons que ça m’arrive même souvent, quand les annonces sont à 4h du mat :transpi:

Le 31/08/2022 à 05h 29


misocard a dit:


Merci, c’est un peu ce que j’avais en tête, le TDP n’est pas forcément une indication de la consommation finale.


Ce n’est pas un indicateur de consommation, c’est un outil pour le design du refroidissement. Après pour le CPU c’est une enveloppe à ne pas dépasser dans le cadre de sa gestion du couple fréquence/tension, donc plus c’est haut plus les performances sont potentiellement hautes. Plus c’est bas, plus le CPU sera obligé de se contraindre d’un point de vue efficacité énergétique. S’il est bien conçu, il essaie constamment de trouver un sweet spot selon les tâches à effectuer.




BlackLightning a dit:


J’aurais préféré plus d’unités de calculs et un accélérateur pour l’IA plutôt que l’introduction de l’AVX-512. Will see.


VNNI c’est quoi du coup ?




Guinnness a dit:


Pareil, gâchis de silicium pour rien et qui pourrait éventuellement être employé pour quelque chose de plus utile (plus de cache ou autre) et conso supplémentaire inutile, à moins qu’il soit possible de couper totalement le jus à cette partie si on ne l’utilise pas mais j’en doute
Pour ceux qui veulent vraiment/ont besoin d’un IGP il y a les séries G chez AMD


AMD a surtout perdu des marchés à ne pas avoir d’IGP dans l’entièreté de ses puces, sans parler des problèmes que ça pose de devoir avoir deux gammes, dont un entrée de gamme Desktop qui repose en fait sur des puces conçues pour le mobile.



Problèmes qui ont été renforcés avec la crise de dispo des composants. Surtout qu’à un moment où le moindre GPU était cher, AMD imposait d’en avoir un pour utiliser ses CPU de dernière génération qui n’avaient pas d’IGP, même pour une machine bureautique. Pour celui qui veut 8 cœurs mais qui s’en fout de la 3D… c’est une source de surcoût et donc une perte d’intérêt pour l’offre d’AMD.



Là AMD intègre un élément vital pour un système de base avec un coût silicium minimal, ce qui lui permet de simplifier son offre, de gagner plus de marchés et d’être au niveau d’Intel sur un point supplémentaire. L’erreur c’est que cela n’a pas été fait plus tôt alors que c’était dans les critiques de Zen depuis la première génération.



Pour le reste, on sait aisément éteindre des portions de puce qui ne sont pas utilisées, le gating c’est un peu la base dans les processeurs modernes pour disposer d’une bonne gestion de l’énergie en toutes circonstances. On jugera des Ryzen 7000 là-dessus comme sur le reste, la consommation au repos étant (enfin), par la force des choses, devenu un critère important.

Le 30/08/2022 à 23h 21


Albirew a dit:


damn… je détourne le regard un moment, et on passe du 10mn au 5mn et de la DDR4 à la DDR5… je me fait vieux :craint:


Un moment… presque 8 ans en fait depuis l’arrivée de la DDR4 sur le marché :D

Le 30/08/2022 à 23h 19

Oui c’était une ancienne version de mes notes du listing qui n’a pas été mise à jour dans le texte final, my bad. Cela a été corrigé (la capture AMD donnait les bonnes références).

Le 26/08/2022 à 11h 53

Après tout dépend des CPU. En plateforme AMD, j’avais relevé une machine Lenovo à 5 watts au repos par exemple. Mais c’était une puce prévue pour le mobile : nextinpact.com Next INpact

Le 25/08/2022 à 19h 52


(reply:2090082:Master Of Bandwidth)


Cette référence chez Newegg c’est plus de 800 $ ;) En france on la trouve référencée à 670 euros TTC, mais bon, sans dispo.

Le 25/08/2022 à 06h 12

Pour ceux qui se posent la question. La consommation du serveur ici présenté (R9 5950X, 32 Go de RAM, un SSD en S-ATA) à la prise, au repos, sans modifications, sous Proxmox :




  • 26 watts

  • 31 watts ventirad à fond

  • 56 watts avec le GPU et la carte réseau 25G installées

Le 25/08/2022 à 04h 19


durthu a dit:


Question bête, si j’installe Proxmox sur mon serveur qui a une carte graphique, ai je besoin (ou puis je) faire du passthrough avec une autre carte graphique pour des VM ?


Tu n’as besoin de rien. Une VM peut fonctionner sans GPU, le passthrough ne servant qu’à dédier une carte PCIe à une VM comme si elle lui était physiquement attachée dans un PC.




OB a dit:


Tests DPDK avec https://www.fs.com/fr/products/160017.html


C’est pour ça que je parlais de “besoin concret” dans ma question :D



Après l’E810 CAM1 est x16 parce qu’elle fonctionne aussi bien en PCIe 3.0 que 4.0, tu n’as pas besoin d’autant de lignes en PCIe 4.0 pour sortir 100G (source).



Mais dans tous les cas les ports PCIe de la carte sont en 4.0, c’est simplement le M.2 qui est en 3.0 :chinois:




gouge_re a dit:


Mais en soi, le fait que la carte SiFive Unmatched soit dans un format standard (mini-ITX, pouvant donc être mise dans un boitier), a des E/S courantes et tout de même 16GB de DDR4, peut-elle ne pas constituer un home-lab de base ?


Non. Pour comprendre pourquoi : nextinpact.com Next INpact




Quant à l’exemple que j’avais donné en ARM (les SolidRun), je viens de retrouver la gamme en question : https://www.solid-run.com/arm-servers-networking-platforms/honeycomb-lx2/ ; mais effectivement de mémoire ça ne poussait pas aussi loin niveau performances que du Ampere.


Ils présentent ça comme du Workstation pas serveur (même s’ils proposent un kit 1U avec deux cartes). Du coup il n’y a pas d’IPMI/BMC ce qui limite pas mal l’usage dans un contexte de gestion distante, tout se fait en USB/UART de ce que j’ai compris.



Pour le reste, c’est 16 coeurs ARM, un Ampere Altra c’est 80 ou 128, effectivement, ce n’est pas la même chose :D Et à 800 $ la carte… Mais bon, c’est présenté comme une carte de dév, donc produite en petite quantité, c’est toujours assez cher (comme celles de SiFive).




ragoutoutou a dit:


Je suis très curieux de savoir comment ces chiffres sont obtenus… est-ce qu’il utilise des fonctions d’auto-diagnostique de la CM ou du processeur? ou un système de sonde normalisée?


C’est de l’extraction de données software donc tu es dépendant de la fiabilité de la source et ce n’est dans tous les cas pas strictement comparable. Ce qui fait foi au mieux dans ce genre de cas c’est la consommation à la sortie de la prise, parce que c’est ce que tu paies :D

Le 24/08/2022 à 05h 16


BlackLightning a dit:


Merci David pour l’article !



Petite question : As-tu connaissance de CM similaires avec des dual sockets pour de l’AMD pour du grand public ? Je sais qu’on peut en trouver chez SuperMicro mais je n’ai toujours pas compris comment faire pour en acheter. Je dois être un peu idiote :mad2:.


Dual Socket = forcément EPYC. Tu peux trouver des revendeurs qui proposent des cartes, mais plutôt en ASRock Rack/Gigabyte qu’en SuperMicro qui est plus focus sur les intégrateurs/partenaires que la vente à l’unité (tu trouves quelques références via Amazon mais bon). Tu peux aussi regarder du côté des serveurs complets mais ça aura forcément un coût. PCSpecialist en propose de mémoire, avec un peu de personnalisation possible.




ben51 a dit:


La même en mini itx.


Tu as des réfs sur des designs compacts, genre la X570D4I-2T d’ASrock Rack




(quote:2089806:Fab’z)
Pas mal du tout. Dommage qu’on puisse pas faire un RAID 1 natif de M.2…


NVMe/TCP est ton ami :D




ZoZo a dit:


J’aimerais bien une avec au minimum un header Thunderbolt pour pouvoir brancher des boîtier 6 ou 8 HDD en TB.


Bonne chance sur de l’AMD. Certains l’on fait mais ça reste rare et c’est tout sauf la priorité sur une carte serveur. Mais là aussi : NVMe/TCP et iSCSI sont tes amis :D




jom a dit:


Intéressant en effet pour un homelab. Sur leurs spécifications seul Windows 10 est supporté. Ceci ferme pas mal de portes et le parait étonnant vu la cible. Aucune idée du support pour GNU/Linux (et proxmox en particulier) ?


Un conseil : lire l’article attentivement :transpi:




Khepesh a dit:


question probablement con, mais ce genre de carte permet d’overclocker (ou downclocker) ou pas … ? Boot possible sans GPU ? (j’imagine que oui mais bon..)


OC oui tu as des options, après l’intérêt pratique… Je l’ai déjà expliqué dans de précédents articles, mais l’intérêt sur des Ryzen est que ce genre de carte n’a pas besoin de GPU puisqu’il y en a un intégré sur le BMC pour l’accès Remote (la puce ASPeed). C’est aussi pour ça que tu peux passer le GPU principal en passthrough PCIe.




BlackLightning a dit:


Tu penses qu’on peut leur faire confiance à ce site ? J’en ai bien sûr trouver des sites comme ça. Mais au vu du prix de ses bestioles je veux être sûr de ne pas me faire avoir.


Senetic est un site qui revend pas mal aux PME mais qui est accessible à tous. Je n’ai jamais commandé chez eux à titre perso mais normalement c’est un site sérieux :chinois:




LordZurp a dit:


yeah ! le retour du homelab de @david \o/


C’est plutôt ça mon Home Lab du moment :D




OB a dit:


Pas de PCIE Gen4… dommage pour moi :-(



C pour ça que je parts plutôt sur la ASRock Rack X570D4U (dispo sur ldlc)


Tu parles du NVMe ? Je serais curieux de savoir ce qui te pousse à viser le PCIe 4.0 spécifiquement, côté besoin concret je veux dire ?




BlackLightning a dit:


Perso, quand je sais que la machine va rester idle pendant un temps (genre la nuit) et que je ne peux pas l’éteindre, j’interagis directement avec le pilote (chez Intel, mais je pense que c’est le cas aussi chez AMD) pour bloquer la fréquence à la fréquence min. du CPU, désactiver le turbo, mettre le gouverneur au minimum et parfois, désactiver l’HT. Je dis pas que c’est aussi bien que la mise en veille ou autres, mais j’ai noté une baisse de la consommation de quelques dizaines de watts (désolé, j’ai plus les valeurs en tête).


Si tu peux économiser plusieurs dizaines de watts sur une machine Intel, c’est que tu as un souci de gestion de ton passage au repos. Une plateforme Intel ça consomme à peine 20 watts au repos pour info.




gouge_re a dit:


Je serais personnellement intéressé par quelque chose de similaire avec CPU ARM ou RISC-V, pour une chauffe/conso électro plus adaptée à un home lab :)



J’avais entendu parler des Solidrun en ARM et des SiFive HiFive Unmatched en RISC-V, mais ça me semblait difficile d’accès depuis la France…


En ARM ce sera forcément du Ampere Computing, donc serveur complet uniquement. Par contre en RISC-V aucune chance de voir ça à court terme. Pour rappel, les cartes SiFive (j’en avais testé une) c’est du dev board assez cher avec très peu de perf et pas du tout orienté serveur (avec IPMI/BMC & co).




xlp a dit:


Quelqu’un peut m’expliquer comment la partie kVm (video) fonctionne ? Sans GPU ? Et si je mets un GPU, comment je récupère la vidéo ? (Ie comment la puce de management la récupère ?)


Pour faire court : parce qu’il y a un GPU ;)

Le 25/07/2022 à 14h 26

Oui comme précisé dans l’article, tu peux faire 5 VLAN, 3 SSID chacun, 15 quand tu croises (le double si tu sépares 2,4 GHz et 5 GHz).

Le 01/07/2022 à 15h 09

Pour répondre sur ce point, malgré mon retrait dans les commentaires du fait de mon départ : il m’est arrivé de recevoir des demandes du genre et la réponse a toujours été d’accorder une remise ou un code cadeau, parfois d’offrir un abonnement. Cela a toujours été notre politique. Mais il m’arrivait aussi de zapper de répondre à des mails (pas que de lecteurs) face à la masse que ça représente chaque jour :transpi: Tu me vois désolé que cela ait été perçu ainsi.



Pour le reste, courage à l’équipe. Vous avez tout mon soutient dans cette période difficile :chinois: :love:

Le 04/05/2022 à 02h 33


NiCr a dit:


Attention, contrairement à ce qu’indique la brève, ce n’est pas OVHCloud qui a envoyé l’email mais Shadow.



Ce n’est pas très clair (d’où le nom Shadow ?) mais OVHCloud/Hubic/Shadow, si c’est lié à Oles, il ne me semble pas que toutes ces entités soient reliées administrativement.


Pour rappel (voir l’ensemble de mes articles sur le sujet) : Octave Klaba a récupéré HubiC avant l’entrée en bourse d’OVHcloud en son nom propre (via son fond d’investissement). C’est la société Hubic qui a récupéré les assets de Blade (société éditrice de Shadow) dans la procédure de redressement qui a mené à une reprise. Hubic est devenu Blade SAS il y a quelques mois.



Le plan depuis le départ est que ce soit Shadow qui porte les nouveaux services, dont sans doute la solution de stockage qui sera proposée prochainement. Ils doivent faire des annonces dans le courant du mois, on verra si ce sera annoncé à cette occasion :chinois:

Le 30/03/2022 à 17h 48

Qui fait 13 des perfs d’une RTX 3070 (sans même parler de la conso, RT/Tensor, etc.). Comparons ce qui est comparable. Des cartes comme les RTX 3090 (Ti) n’avaient pas d’équivalent à l’époque si ce n’est dans le domaine Pro qui était de fait inaccessible.

Le 28/03/2022 à 04h 30

Pas forcément : tu peux passer les cartes Quadro en mode TCC (compute only), si tu utilises une autre carte pour gérer l’affichage, et dans ce cas tu récupères 100% de la puissance de calcul brute.



Après sur les specs de base des version PCIe vs. SXM2, sur la génération Volta il y avait effectivement un écart de performance de 10% (7 TFLOPS vs. 7,8 TFLOPS en FP64).



La génération Ampere faisait disparaître cet écart avec la A100 : 9,7 TFLOPS dans les 2 versions.



J’ai de bons espoirs pour la génération Hopper. Au pire, si un ratio revient et qu’il est similaire, passer de 30 à 27 TFLOPs mais faire un bond de 7 à 27 TFLOPS à prix équivalent ça sera déjà monstrueux.

Ce n’est pas la même architecture et pas le même but. Une option dans les pilotes n’y change rien ;) A100 et ses dérivés ont des spécificités que n’ont pas les gammes RTX A (ex-Quadro), notamment sur le FP64 et inversement. Hopper est du même acabit.

Le 23/03/2022 à 22h 11

Tu auras une version PCIe. Mais “Quadro” = graphique et station de travail, dérivé de GeForce, donc sans la même performance FP64

Le 22/03/2022 à 16h 43

Ah, mais, Nvidia ne sortent pas d’abord l’architecture sur de l’embarqué, puis après sur PC?

ll n’y a pas de règle, et il faut distinguer les lancements et les annonces. Par exemple Orin était du Ampere pour véhicule autonome avant l’heure, mais n’est sorti dans des produits que bien après l’A100 ou les RTX. Sur ces marchés de long terme les annonces se font très en avance. Sur Ampere A100 a été annoncé d’abord, les RTX 3000 ensuite.



Ici ce sera aussi le cas sans doute. Mais vu les nouveautés annoncées dans Hopper qui visent des accélération très HPC/Supercalculateur, il y a de grandes chances que les RTX 4000 soient très différentes. Encore plus que pour la série Ampere (d’où un nom de code peut être différent)

Le 22/03/2022 à 16h 34

Le perf/€ des RTX 4000 sera > à celui des RTX 3000 ;) Après ici on parle de Hopper qui est une solution pour DC, rien à voir avec les GeForce qui arrivent.

Le 23/03/2022 à 22h 28

Tu t’excuses pour quoi. Zéro news annonçant ça (j’ai cherché, pas trouvé, et au passage on peut pas filtrer les entrées du blog, il manque un filtre dans catégories/rubriques). Par contre y’a une news chez Clever Cloud trouvable facilement avec Google : https://www.clever-cloud.com/blog/company/2022/03/15/clever-cloud-announces-the-arrival-of-david-legrand/



Bref. Je garde pour moi le fond de ma pensée. :fumer:

Sans doute parce que le savoir vivre.



:chinois:

Le 23/03/2022 à 05h 01

Désolé mais je n’ai eu un retour d’AMD que hier soir, l’article a été revu avec leur réponse (et oui le 24C est bien moins cher que le 16C, la suite va vous étonner :D).



Je ne vais pas revenir là-dessus 200x, mais mon départ pour n’être plus que pigiste désormais a été annoncé dans plusieurs billets de blog, sur mes comptes personnels où j’ai aussi évoqué mon arrivée chez Clever qui est précisée dans le disclaimer des articles, etc. C’est bien suffisant.

Le 22/03/2022 à 13h 03

Aucun, c’est une opération organisée à part sur des offres annuelles :chinois:

Le 16/03/2022 à 04h 44


jom a dit:


Intéressant. 4600G : noté comme un Ryzen 3 et 4c/8t dans le texte mais Ryzen 5 6c/12t sur la diapo. Pourquoi cette différence ?


Il y avait quelques soucis dans la liste au départ, ça a rapidement été corrigé :chinois:




eglyn a dit:


Du coup Zen 4 et DDR5, il faut oublier ? Car j’attends l’arrivée d’AMD pour comparer avec Intel (en espérant que la DDR5 baisse un peu…)


Pourquoi oublier ? Zen4/DDR5 c’est la prochaine plateforme, tout comme Rocket Lake arrive chez Intel sur la plateforme LGA1700 actuelle (pour la fin d’année dans les deux cas, plus ou moins vite chez tel ou tel on verra quand le calendrier s’affinera).




Tirnon a dit:


Donc finalement toujours pas de petit processeur entre 50 et 100€ avec parti graphique. Il ne faut pas s’étonner que malgré les contre performances d’intel depuis quelques années ils vendent toujours autant …


Oui ça reste le manque de l’offre, les modèles comme le 5300G restant OEM uniquement et surtout il n’y a plus d’Athlon au catalogue pour aller chercher les Celeron. Sur ces marchés ça fait des différences de taille et je suppose qu’AMD ne veut/peut pas aller batailler sur ce terrain avec sa production actuelle. Déjà proposer de tels modèles doit être un effort et il faudra voir la dispo réelle (puisqu’il peut être intéressant de garder le gros de la prod pour des CPU plus coûteux).




xillibit a dit:


ZEN4 c’est prévu au 2éme semestre de cette année à priori juillet/aout


Disons au moins le lancement presse. Pour la dispo réelle on verra, surtout que vu le contexte actuel, il faut éviter de s’engager sur des dates trop fermes :transpi: De toutes façons tout sera sans doute plus précis aux alentours du Computex.




MoonRa a dit:


Tu vas payer plus cher que 99$, c’est certain


Surtout vu le $/€ actuel :D

Le 12/03/2022 à 05h 02


OlivierJ a dit:


Je me pose la question, car déjà 6 canaux DRAM c’est considérable, ça signifie qu’il faut au moins 6 barrettes (et garder un multiple de 6) pour profiter de la plateforme à son optimum.


Oui




J’en étais resté à du 4 canaux à vrai dire :-) alors 8 ou 12 canaux ça me paraît énorme


68 c’est assez courant désormais, 12 ça va le devenir (notamment EPYC Zen 4 chez AMD)




(faut avoir obligatoirement 12 emplacements mémoire dans ce dernier cas, et les remplir si on veut avoir la puissance nominale).


Non, il n’y a rien d’obligatoire. Ce n’est pas tellement une question de “puissance” ou même de performances nominales. Tout dépend de tes besoins. Si tu as des workloads très dépendants de la BP mémoire ça peut être un critère premier. Mais comme c’est rarement le premier problème à résoudre, sauf dans certains cas très Pro/Serveur, ça n’est pas un souci d’avoir moins.

Le 09/03/2022 à 11h 47

Si on peut s’éviter les analyses géopolitiques de comptoir (dans un sens ou dans l’autre), ce n’est pas trop le sujet ici merci :chinois:

Le 25/02/2022 à 15h 21

Peut être, mais personne ne le fait ;)

Le 25/02/2022 à 11h 55

Si c’est ça que tu veux tu peux déjà faire un démarrage par le réseau via PXE & co comme évoqué plus haut. Là l’idée c’était de permettre une installation même quand un tel dispositif (que personne n’a chez soi, hors usage pro ou presque) n’est disponible.

Le 25/02/2022 à 08h 43

Pour le RPi c’est d’une certaine manière la même chose : si pas de TFTP & co sur le réseau, il va chercher l’image de boot sur internet (qui contient RPi Imager). On pourrait très bien avoir une live image ensuite plutôt qu’un transfert d’image sur un périphérique de stockage.

Le 25/02/2022 à 03h 15


Corpo a dit:


Une fois qu’on a démarré une fois le Pi sur la carte avec le bootloader, il est flashé dans le Pi ou il faut quand même conserver la SD pour les boots suivants ?


Il est flashé, sinon ce serait problématique pour mettre une microSD vide ensuite :D

Le 24/02/2022 à 17h 27

Comme dit dans un autre article, IH est figé et va être réintégré à NXi :chinois:

Le 24/02/2022 à 17h 17

On en a parlé dans les échanges suite à mon passage en pigiste, mais de toutes façons l’équipe reviendra sans doute bientôt sur le calendrier de remigration d’IH :chinois:

Le 24/02/2022 à 11h 38

Parce que tout revient sur NXi comme évoqué il y a quelques temps (c’est pour ça qu’IH est “figé”).

Le 18/02/2022 à 08h 51

C’est pas vraiment une bascule d’un trimestre, après chacun lit ça comme ça l’arrange, qu’importe. Sur le fond, ça fera un bon souffle sur le marché, et ça ferait déjà une bonne pdm pour le début (d’ailleurs tu parles bien de 100M en discrete GPU ? De mémoire on est à moins que ça, mais ça peut être différent avec ou sans les laptops, à vérifier)

Le 18/02/2022 à 08h 32

Parce qu’ils sont sur des process, IP et marchés différents, où Intel n’est pas présent ou que partiellement (par exemple l’automobile, où il n’existent surtout qu’à travers Mobileye et ce qui va avec). Voir ici. C’est le même secteur mais des besoins/marchés différents et qui permettent de bonne synergies sur la durée (on verra en pratique bien entendu).