Pour tester les capacités de traitement et la scalabilité des processeurs multicores. Je verse ce script de mon ami Zentoo qui traîne ici aussi. https://framagit.org/Wax/zenbench
HTTP 502
Attention quand même, certaines optimisations sont utilisées sans forcément être très mises en avant, même dans des usages classiques (de mémoire les derniers Xeon ont quelques optimisations compression & co qui devraient être exploitées pour Gzip par exemple).
Après comme dit, ces machines sont surtout appréciées pour leur densité (160 cœurs physiques par serveur 2S), tous avec le même niveau de performance qqsoit la charge du CPU. Mais il ne faut pas oublier qu’un cœur Altra ne sera pas équivalent à un cœur EPYC/Xeon ou autre.
Attention aussi à ne pas tirer de fausse conclusion (surtout quand c’est explicité dans l’article, lire avant de commenter sur la base des seuls graphiques peut être utile). La baisse de performance côté Zen (parce que je ne teste pas d’Intel ici), c’est principalement du au Turbo, pas à un problème de gestion des threads. Idem pour 7Zip ou comme expliqué, cela peut aussi venir de la manière dont les threads sont répartis sur les cœurs physiques/logiques pas d’une mauvaise gestion du //isme.
La solution utilisée par ARM est intéressante de ce point de vue, mais elle peut être aussi mise en place côté x86 (en désactivant le Turbo et le Multi-threading). On verra sur une machine complète comment Altra scale et gère la problématique de l’échauffement.
Le
08/06/2021 à
02h
30
Je dis que l’écart s’amenuise lorsque l’on monte en threads et effectivement il est plus faible à 16T qu’à 1T (et c’est normal puisque les CPU ont des conceptions/fonctionnements qui vont dans ce sens). Ce que je comprends, c’est que de ton point de vue la baisse n’est pas progressive.
Pou les graphiques en barre, c’est une habitude (puis on voit tout de même bien la tendance se dessiner), le nuage de points sur de telles données ça fait plus “vide”
Pour x264, comme dit, ça peut venir de la façon dont il gère les threads. Il suffit que certains soient des cœurs logiques sur EPYC ou que ça se ballade de cœurs physiques en cœurs logiques pour que ça ait un impact direct. C’est aussi pour ça que ce serait intéressant de comparer les CPU à plein (mais en fait comme c’est une machine physique je dois aussi pouvoir désactiver le MT pour vérifier).
Sinon, c’est aussi que la part non //isable du calcul prend une part croissante du temps de compression par rapport au reste avec la montée en threads. Tu arrives donc à un minimum qu’il est difficile de dépasser. Pour le comprendre il faudra attendre de voir le comportement à partir de 16T sur l’Altra. Sur l’EPYC on réduit le temps de compression jusqu’à 64T à peu près, est-ce que ce sera aussi le cas sur Altra ?
Le
07/06/2021 à
19h
24
Lasout a dit:
Blender Il est vrai qu’en augmentant le nombre de threads l’écart se réduit, mais pas autant que ce que vous semblez entendre, en effet voilà les ratios en fonction du nombre de threads: 1T:1,9x; 2T:1,9x; 4T:1,9x; 8T:1,9x; 16T:1,8x.
Je ne sais pas ce que tu calcule comme ratio exactement (Altra/EPYC ?) mais je dis simplement que l’écart s’amenuise, ce qui est le cas. Ton calcul le montre d’ailleurs :)
De toutes façons, l’important à regarder c’est le rapport entre l’évolution du nombre de threads et les perfs. Globalement sur Altra le ratio suit le nombre de threads (il est conçu pour ça). Sur EPYC dans le cas de la machine testée c’est la même chose jusqu’à 8 ensuite ça se réduit, d’où le ration final à 14,7x contre 15,9x pour Altra (et ça empire avec la montée jusqu’à 256 #Spoiler)
x264 La tendance est en fait assez différente de ce qu’on voit pour Blender, voilà les ratios en fonction du nombre de threads: 1T:1,9x; 2T:1,4x; 4T:1,1x; 8T:1x; 16T:1,1x.
Oui c’est exactement ce que je dis : au fil du temps les scores se rejoignent (mais comme on le voit sur le graphique ce n’est pas linéaire). Je ne comprends du coup pourquoi tu dis “en fait c’est assez différent de Blender” puisque je ne dis pas que c’est similaire, mais tout l’inverse.
C’est assez logique puisqu’une charge de compression libx264 n’étant pas //sable, le temps de compression se tasse avec la montée en threads. Les deux CPU ne le font pas au même rythme sans doute parce que pour l’un 1C=1T et pas l’autre comme expliqué.
Ce n’est pas un fork d’Ubuntu à proprement parler, c’est un Ubuntu avec des modules spécifiques installés de base pour les calculs sur GPU, (et avec L4T côté noyau, dont les sources sont publiées comme indiqué au-dessus)
Le
04/06/2021 à
16h
28
Non, comme dit tu mélanges deux problématiques différentes. Je sais que la tentation du “nvidia ça pue c’est pas libre” est toujours forte, mais ici le souci ne vient pas des pilotes.
Sur le fond, NVIDIA a adapté Ubuntu à ses Jetson pour constituer un OS maison exploitable tant par ses clients industriels que les développeurs, ils arrivent au bout d’une phase de développement et indiquent que le support des cartes existantes sera possible dans d’autres distributions via du code qui sera envoyé au noyau. C’est une bonne chose, on jugera sur pièce.
Les sources de L4T sont disponibles, certains l’utilisant déjà à leur sauce. Bien entendu, il aurait été idéal que tout le code soit directement préparé pour être envoyé au noyau (qui supporte déjà des SoC Tegra de mémoire). Où même que des distributions s’en emparent.
On peut toujours tout améliorer faire mieux, plus vite, autrement (surtout quand on a simplement à le dire plutôt qu’à le faire). L’important, c’est que le boulot soit fait et que les utilisateurs y trouvent leur compte. Dans tous les cas, le souci à régler n’a rien à voir avec un pilote ne supportant plus les SoC.
Le
04/06/2021 à
11h
33
Pas les mêmes SoC, et ce n’est pas AOSP, du coup y’a “quelques” trucs à revoir
Le
04/06/2021 à
10h
45
Oui et comme dit, ce que tu évoques (les pilotes) n’a rien à voir avec ce dont il est question.
Le
04/06/2021 à
09h
15
C’est surtout que tu rentres dans la magie de l’écosystème ARM où il faut adapter pas mal pour chaque SoC/Architecture, du coup l’idée est d’upstream des éléments travaillés pour JetPack. Rien à voir avec d’éventuels pilotes proprio ou non (qui de toutes façons sont très bien gérés par Ubuntu & co).
Les deux projets n’ont rien à voir. Pour rappel, Larrabee ce n’était pas un GPU à proprement parler. Et d’une certaine manière, ça a connu son petit succès sur le tard ;)
Depuis le temps que Raja Koduri fait du teasing sur le sujet, l’engouement du début a laissé la place à un scepticisme propre aux vaporwares …
Je ne suis pas spécialement un grand défenseur de RK, ni de son goût pour le teasing, mais sur le fond : Xe est sorti, il a été intégré à des produits. Il y a un timing clair annoncé pour la suite. Le produit est en phase de finalisation et les délais sont à peu près tenu (malgré le contexte).
Ensuite, pour ce qui est d’être positif ou pas par rapport à ce qui en est attendu, je suis en général méfiant des “bruits ambiants” tant qu’ils ne reposent sur rien de concret. Parce que parfois, ce genre d’analyse est franchement à l’ouest par rapport à la réalité du projet.
On connait à peu près l’organisation globale de Xe, son efficacité technique, les specs de DG2, on voit à peu près où ça va. Le succès ne tiendra pas tant à ces sujet qu’à des questions logicielles (mais malgré les moqueries, c’est un sujet qu’Intel maitrise très bien, surtout côté Linux), et pricing.
Il ne faut pas oublier qu’Intel ne vise pas que le petit nombril des joueurs avec ce projet. Xe, c’est une aventure industrielle d’importance pour l’entreprise, qui traverse toute sa stack logicielle (OneAPI), matérielle (GPU/XPU), qui va des millions de puces intégrées pour PC à des supercalculateurs Ponte Vecchio.
Du coup, sortir une analyse globale issue de l’air ambiant m’apparaît un peu léger. Les choses avancent, on jugera sur pièce. Les perfs, l’efficacité, le prix, la dispo. Pour le marché grand public, c’est l’ensemble qui fera le succès ou la déroute, Intel le sait très bien. Ils ont les cartes en main et sont plutôt dans une phase de conquête que d’avoir un positionnement à garder. C’est, d’une certaine manière, “plus simple”.
Côté pro, l’enjeu est du côté de la stack logicielle, et ça monopolise énormément de monde depuis quelques années, pour apporter une conversion CUDA, une intégration à tous les outils, une refonte de l’existant, un support de l’ensemble des archi Intel fonctionnant de manière global, le tout en OSS.
Je connais peu de boites qui auraient les reins pour un travail de cette ampleur. Assez ingrat, puisqu’il ne se fait pas à coup de slides marketing et de promesse de gains dans les jeux.
Après, on est d’accord que le succès sur ces solutions ne se fait pas en une génération, et qu’il y a suffisamment d’enjeux pour Intel pour ne pas laisser tomber le projet après un semi-échec probable …
Tu sais, Zen n’était pas une réussite à son lancement (IPC, stratégie, écosystème). C’était mieux qu’avant mais pas forcément une révolution sur tous les aspects (contrairement à Zen 2, puis 3). Mais les prix ont rapidement été cassés par AMD et il y avait un plan à long terme, du coup ça s’est vendu comme des petits pains. Et maintenant que les produits sont meilleurs, les prix grimpent au-delà d’Intel.
Un succès commercial (réel, celui qui se voit dans le bilan financier) ce n’est pas qu’une question de réussite architecturale. C’est un ensemble, une alchimie qu’il faut savoir créer (qui nous dépasse souvent en tant que journalistes qui regardons les choses plus factuellement en général). Et ça prend du temps.
Mais la frénésie de communication de M. Koduri risque de jouer contre lui.
Ca n’est pas nouveau. Et ça peut coûter cher quand ça déconne sec (coucou Vega), d’autant que Gelsinger n’est pas du genre tendre derrière son côté sympa apparent. Mais si les promesses sont tenues, ça peut aussi s’avérer payant. RK est de ce qui sont dans le “all-in” permanent, c’est tout ;)
Le
04/06/2021 à
02h
39
On verra, de toutes façons un tel projet ne pourra se résumer aux performances d’une première génération, c’est un travail de longue haleine, sur la durée, pour faire du GPU une composante de leur portefeuille de solutions (notamment via OneAPI). Le reste c’est de la stratégie.
Je n’ai pas connaissance d’une volonté d’intégrer FSR dans Blender (pas plus que DLSS d’ailleurs, même si certaines applications de rendu l’utilisent déjà). D’ailleurs il y a déjà des solutions de gestion du scaling pour le viewport, notamment chez AMD avec Image Boost
Ce n’est pas un Soc Custom mais bien un Tegra, une légère variation du X1 (ou X2 pour les Switch v2).
Non la fonctionnalité présente dans les Shield TV c’est un système d’upscaling, qui fonctionne donc sans connaissance préalable du contenu. Tandis que DLSS se base sur les données des jeux, ce qui lui permets d’être très largement plus performant.
Dans les deux cas c’est de l’upscaling “dopé à l’IA”, c’est juste que dans le cas de DLSS c’est implémenté dans les jeux pendant le rendu, pour la Shield c’est en bout de chaine donc forcément moins fin sur certains aspects (et surtout pour de la vidéo).
Le
03/06/2021 à
09h
37
Une solution du même genre est présente au sein des Shield TV récentes (qui utilise une base similaire à la Switch de mémoire et gère la 4K depuis un moment), à voir ensuite en quoi ce serait adapté à un modèle Pro (avec des Tensor Cores notamment.
histoire de bien enfumer le monde encore une fois.
Non, c’est juste qu’elles sont LHR by design, ce qui n’était pas le cas des cartes antérieures. Pour éviter la confusion, les nouveaux modèles des anciennes cartes sont taggués LHR.
Il y a eu une confusion, qui peut un peu rendre les choses complexes à comprendre. Mais elle est surtout du fait de sites/personnes qui répètent n’importe quoi sans vérifier/comprendre (je ne te vise pas hein, plutôt ceux qui délivrent ce genre d’information à large audience qui font n’importe quoi).
Nerg34 a dit:
La 3060 offre des prestations entre une 2060 et une 2060S.
Pour rappel, le principe général de branding de la série 30 c’est “on prend l’équivalent perf en série 20, on prend le numéro d’en dessous). Donc la 3060 vise plutôt la 2070 (ce qui semble être le cas en pratique même si on peut trouver des cas spécifique ou elle sera plus ou moins performante pour telle ou telle raison).
Le
03/06/2021 à
06h
19
Tu trouves la 3060 décevante (pourquoi d’ailleurs ?) et donc tu regardes du côté d’une Xbox (qui ne semble pas plus disponible d’ailleurs) ? J’ai du mal à saisir la logique, je dois bien l’avouer.
woodcutter a dit:
J’attends le test de la RTX3070Ti de la semaine prochaine 😊 C’est elle qui m’intéresse, même si ça va être très compliqué d’en trouver une.
Oui, elle devrait être plus équilibrée, même si elle semble assez proche de la 3070 plus que de la 3080 selon ses caractéristiques. On verra lors des tests (je n’ai pas encore testé la carte).
Le
03/06/2021 à
05h
59
Le
02/06/2021 à
18h
40
Quadro n’existe plus ;) Mais les cartes pour station de travail on jusqu’à 96 Go de mémoire, un pilote spécifique, des fonctionnalités spécifiques, un support spécifique. Certains peuvent se contenter des GeForce, d’où les 3080 Ti / 3090 et le pilote Studio, pour d’autres ça ne suffit pas.
Le
02/06/2021 à
16h
32
Comme dit, à moins que le boitier soit une fournaise, il n’y a pas de risque (attention aussi à la 3090 qui est assez imposante), les trois cartes sont assez silencieuses. Pas totalement, parce que dissiper 350 watts quand la charge est continue, ça fait toujours un peu de bruit, mais ça reste très modéré. Et si le silence est un critère premier, ça peut de toutes façons se régler assez facilement via un PrecisionX ou autre.
Le
02/06/2021 à
16h
21
Tu as les deux profils certains en auront besoin, d’autres non. C’est comme pour le NVLink. Certains le veulent absolument avec deux cartes, ce ne sera pas le cas de tous ceux qui ont une 3090. Il n’y a qu’une vérité : rien n’est absolu en ce bas monde, jamais ;)
Le
02/06/2021 à
15h
39
C’est le même que pour toutes les FE : 12 broches, l’adaptateur étant fourni dans le bundle. Mais sur les cartes de partenaires c’est souvent des connecteurs classiques.
CryoGen a dit:
Je ne comprend pas trop le test sur le LHR … nvidia a annoncé il y a une dizaine de jour que le LHR ne serait pas activé sur les FE.
NVIDIA n’a jamais dit ça (en tous cas pas à moi et c’est faux en pratique, donc…). La règle sur LHR c’est :
lancé avant la 3060 : Seuls des modèles taggués LHR sont limités 3060 et plus récent : le limiteur est natif, donc pas de mention LHR dans le nom
De mémoire, seule la 3090 n’aura pas de modèle LHR (parce qu’acheter une 3090 pour miner efficace, faut être un peu con vu le tarif )
Le
02/06/2021 à
14h
50
Par respect qu’on passe sur ce genre de papier, au moins prendre le temps de le lire avant de troller dans les commentaires serait la moindre des choses
Ce n’est pas une pêche aux données (les données bancaires ne sont jamais stockées telles que). Par contre il font une offre avec gratuité, et exigent des contreparties (notamment une CB permettant d’éviter une bonne partie des bots et autres dérives vu que c’est lié à une ID). Après chacun est libre de faire ou non. On peut refuser et être contre ce type de procédure, mais de là à présenter ça comme un abus…
Oui, parce qu’ils empilent sur un CPU, avec un petit détail à prendre en compte : le TDP et le besoin de le dissiper
Le
01/06/2021 à
10h
16
Disons que in fine c’est le CPU qui sera à relier au socket, donc ça parait logique qu’il soit en bas. Mais n’ayant pas tous les détails, difficile d’en juger
Le
01/06/2021 à
08h
36
Aucune idée ils n’ont pas détaillé. Mais s’ils le font, ils doivent sans doute avoir une raison ;) (sans doute pour faciliter les interconnexion du cache sur le CPU plutôt que l’inverse)
Le
01/06/2021 à
08h
19
De toutes façons si l’objectif c’est de réduire la densité 2D par la 3D, tu auras un même TDP sur moins de surface, donc mécaniquement… C’est pas pour rien qu’Intel a commencé avec Lakefield sur sa technologie de stacking 3D
J’ai rien compris de ton histoire de conversion (un tensor core c’est une unité spécialisée dans le calcul matriciel, il n’y a pas de “conversion” possible). Il n’y a rien de chiplet dans les GPU NVIDIA, ils sont monolithiques, c’est une même puce, avec différents types d’unités.
Le
01/06/2021 à
10h
17
C’est fait pour et annonce tel que. C’est d’ailleurs surtout là que ce sera intéressant, comme ça on pourra dire que les consoles peuvent faire de la 4K60 sans (enfin, trop) mentir Après il faudra voir quels seront les jeux supportés, mais il y a de grande chances que ce soit natif sur les prochains portages. Sans parler ensuite des solutions qui seront natives au moteurs comme l’UE 5.0
Le
01/06/2021 à
09h
18
Oui ça passera forcément par les shaders, mais à voir sur quelle implémentation. C’est surement ce qui explique les quatre niveau de qualité, pour reporter le choix sur l’utilisateur. Mais si au final on a les perfs de DLSS sans la qualité ou la qualité de DLSS sans le gain de perf… ça se verra vite (même sur quelques jeux)
De mémoire pas directement, mais de toutes façons ça passe par la poste, donc avec une mise à dispo en bureau de poste si la livraison ne se fait pas (je ne sais pas s’ils permettent de choisir au moment de la livraison comme c’est parfois proposé ailleurs).
C’est surtout une comparaison de format, les produits n’ont rien à voir en termes de conception, tarif, possibilités, besoin. A une époque je mettais une pile ou une peluche à côté des produits, ce n’est pas pour autant que c’était pour en faire des comparaison techniques ;) (et sur le fond, d’expérience, même sans photo ça arrive systématiquement).
Oui c’était une erreur du fait de la confusion pendant la conférence ce matin et la capture pas claire (corrigée depuis). Voir la liste mise en lien pour tous les détails de toutes façons
Le
01/06/2021 à
10h
14
onde2choc a dit:
Tu ne découvres quand même pas que plus on monte en gamme, plus le perf/€ descend ? Non parce que c’est le cas sur tous les produits du marché
Dadkill a dit:
Bien intéressé par la 3080 Ti… on a l’heure de sortie ou pas ?
En général c’est 14h/15h chez les revendeurs.
lololasticot a dit:
oui mais beaucoup de gens vont t’expliquer que c’est le prix normal des cartes graphiques grâce à l’évolution des technologies, des perfs et conso W/H et bla bla bla.
Je répète ici depuis la sortie des nouvelles générations de cartes que les prix ont explosé comparé aux sortie des anciennes générations de cartes haut de gamme, mais non on me rétorque que c’est normal
Il n’y a pas de normal ou d’anormal, il y a une offre et une demande. Et ce que l’on t’explique depuis le début, c’est que baser une analyse sur des noms de produit qui ne sont que du marketing (qui peut être changeant d’une génération à l’autre) n’a aucun intérêt (et fait le jeu des constructeurs).
Et oui, entre la génération RTX 20 et RTX 30, à tarif similaire (hors effet de pénurie, forcément) tu as une meilleure perf (en jeu et dans les usages pro), une consommation réduite. La gamme s’est étendue du fait de la disparition des Titan (et de la montée en puissance de Studio et des besoins inhérents).
Après le marché du GPU est concurrentiel (en ce moment plus que bien souvent). Les prix sont libres, les consommateurs aussi. Intel arrivera bientôt sur ce marché également. Souffle un bon coup, ça ira mieux (parce que s’énerver en boucle dans les commentaires ne sert à rien).
Le
01/06/2021 à
09h
16
Vu qu’elles sont bridées pour le minage ça devrait aider à éviter l’inflation, mais la demande reste forte. On verra ce qu’il en sera une fois que ce sera chez les revendeurs
Pourtant le champ lexical utilisé dans les communications est quand même très centré sur ça. Octave utilise le mot “suicidaire” dans son tweet, et le stream de Yannis l’autre jour c’était 40 minutes passées à dire qu’il y avait vraiment pas le choix, c’était la seule solution pour la survie de la boîte.
Pour les engagements annuels ils ont pas trop le choix, même s’ils nous ont fait croire le contraire au départ (j’espère qu’ils permettront aux clients qui ont déjà demandé la résiliation de faire marche arrière !), par contre le mois gratuit pour les précommandes ils avaient aucune obligation.
C’est surtout que tu as un point de vue et que tu tords les choses pour que ça colle. Mais sur le fond, ils disent que 30 euros c’est leur prix plancher. Ce qui ne les exonère pas de devoir gérer la transition en prenant en compte les contraintes légales.
Ceux qui ont déjà payé un mois et vont être activé n’auront donc pas à repayer (logique) et passeront ensuite sur le nouveau tarif s’ils ne coupent pas leur abonnement). Ceux qui sont engagés ne verront pas leur tarif bouger d’ici la fin de l’engagement (logique), sauf à le demander volontairement pour casser l’engagement.
Le
01/06/2021 à
09h
52
Ce que tu évoques découle des engagements contractuels, ils font avec. Et la boite n’est pas à l’agonie puisqu’elle vient d’être reprise et financée. C’est juste que comme le dit Octave, l’objectif visé est celui de la rentabilité.
Oui forcement les très gros modèles, mais quand tu es sur des baies de taille intermédiaire qui n’ont pas vocation à finir en DC, il y en a (pas que chez Ubiquiti)
15083 commentaires
Instances Ampere Altra chez Oracle Cloud : quelles performances ?
07/06/2021
Le 08/06/2021 à 06h 28
HTTP 502
Attention quand même, certaines optimisations sont utilisées sans forcément être très mises en avant, même dans des usages classiques (de mémoire les derniers Xeon ont quelques optimisations compression & co qui devraient être exploitées pour Gzip par exemple).
Après comme dit, ces machines sont surtout appréciées pour leur densité (160 cœurs physiques par serveur 2S), tous avec le même niveau de performance qqsoit la charge du CPU. Mais il ne faut pas oublier qu’un cœur Altra ne sera pas équivalent à un cœur EPYC/Xeon ou autre.
Attention aussi à ne pas tirer de fausse conclusion (surtout quand c’est explicité dans l’article, lire avant de commenter sur la base des seuls graphiques peut être utile). La baisse de performance côté Zen (parce que je ne teste pas d’Intel ici), c’est principalement du au Turbo, pas à un problème de gestion des threads. Idem pour 7Zip ou comme expliqué, cela peut aussi venir de la manière dont les threads sont répartis sur les cœurs physiques/logiques pas d’une mauvaise gestion du //isme.
La solution utilisée par ARM est intéressante de ce point de vue, mais elle peut être aussi mise en place côté x86 (en désactivant le Turbo et le Multi-threading). On verra sur une machine complète comment Altra scale et gère la problématique de l’échauffement.
Le 08/06/2021 à 02h 30
Je dis que l’écart s’amenuise lorsque l’on monte en threads et effectivement il est plus faible à 16T qu’à 1T (et c’est normal puisque les CPU ont des conceptions/fonctionnements qui vont dans ce sens). Ce que je comprends, c’est que de ton point de vue la baisse n’est pas progressive.
Pou les graphiques en barre, c’est une habitude (puis on voit tout de même bien la tendance se dessiner), le nuage de points sur de telles données ça fait plus “vide”
Pour x264, comme dit, ça peut venir de la façon dont il gère les threads. Il suffit que certains soient des cœurs logiques sur EPYC ou que ça se ballade de cœurs physiques en cœurs logiques pour que ça ait un impact direct. C’est aussi pour ça que ce serait intéressant de comparer les CPU à plein (mais en fait comme c’est une machine physique je dois aussi pouvoir désactiver le MT pour vérifier).
Sinon, c’est aussi que la part non //isable du calcul prend une part croissante du temps de compression par rapport au reste avec la montée en threads. Tu arrives donc à un minimum qu’il est difficile de dépasser. Pour le comprendre il faudra attendre de voir le comportement à partir de 16T sur l’Altra. Sur l’EPYC on réduit le temps de compression jusqu’à 64T à peu près, est-ce que ce sera aussi le cas sur Altra ?
Le 07/06/2021 à 19h 24
Je ne sais pas ce que tu calcule comme ratio exactement (Altra/EPYC ?) mais je dis simplement que l’écart s’amenuise, ce qui est le cas. Ton calcul le montre d’ailleurs :)
De toutes façons, l’important à regarder c’est le rapport entre l’évolution du nombre de threads et les perfs. Globalement sur Altra le ratio suit le nombre de threads (il est conçu pour ça). Sur EPYC dans le cas de la machine testée c’est la même chose jusqu’à 8 ensuite ça se réduit, d’où le ration final à 14,7x contre 15,9x pour Altra (et ça empire avec la montée jusqu’à 256 #Spoiler)
Oui c’est exactement ce que je dis : au fil du temps les scores se rejoignent (mais comme on le voit sur le graphique ce n’est pas linéaire). Je ne comprends du coup pourquoi tu dis “en fait c’est assez différent de Blender” puisque je ne dis pas que c’est similaire, mais tout l’inverse.
C’est assez logique puisqu’une charge de compression libx264 n’étant pas //sable, le temps de compression se tasse avec la montée en threads. Les deux CPU ne le font pas au même rythme sans doute parce que pour l’un 1C=1T et pas l’autre comme expliqué.
NVIDIA JetPack : la version 4.6 sera la dernière pour les Jetson Nano, TX1 et TX2, la 5.0 en 2022
04/06/2021
Le 07/06/2021 à 06h 35
Ce n’est pas un fork d’Ubuntu à proprement parler, c’est un Ubuntu avec des modules spécifiques installés de base pour les calculs sur GPU, (et avec L4T côté noyau, dont les sources sont publiées comme indiqué au-dessus)
Le 04/06/2021 à 16h 28
Non, comme dit tu mélanges deux problématiques différentes. Je sais que la tentation du “nvidia ça pue c’est pas libre” est toujours forte, mais ici le souci ne vient pas des pilotes.
Sur le fond, NVIDIA a adapté Ubuntu à ses Jetson pour constituer un OS maison exploitable tant par ses clients industriels que les développeurs, ils arrivent au bout d’une phase de développement et indiquent que le support des cartes existantes sera possible dans d’autres distributions via du code qui sera envoyé au noyau. C’est une bonne chose, on jugera sur pièce.
Les sources de L4T sont disponibles, certains l’utilisant déjà à leur sauce. Bien entendu, il aurait été idéal que tout le code soit directement préparé pour être envoyé au noyau (qui supporte déjà des SoC Tegra de mémoire). Où même que des distributions s’en emparent.
On peut toujours tout améliorer faire mieux, plus vite, autrement (surtout quand on a simplement à le dire plutôt qu’à le faire). L’important, c’est que le boulot soit fait et que les utilisateurs y trouvent leur compte. Dans tous les cas, le souci à régler n’a rien à voir avec un pilote ne supportant plus les SoC.
Le 04/06/2021 à 11h 33
Pas les mêmes SoC, et ce n’est pas AOSP, du coup y’a “quelques” trucs à revoir
Le 04/06/2021 à 10h 45
Oui et comme dit, ce que tu évoques (les pilotes) n’a rien à voir avec ce dont il est question.
Le 04/06/2021 à 09h 15
C’est surtout que tu rentres dans la magie de l’écosystème ARM où il faut adapter pas mal pour chaque SoC/Architecture, du coup l’idée est d’upstream des éléments travaillés pour JetPack. Rien à voir avec d’éventuels pilotes proprio ou non (qui de toutes façons sont très bien gérés par Ubuntu & co).
#Flock est sur écoute
05/06/2021
Le 06/06/2021 à 05h 40
Voir ici
Xe HPG : Raja Koduri montre une puce DG2 « mais il reste encore beaucoup de travail »
03/06/2021
Le 05/06/2021 à 03h 37
Les deux projets n’ont rien à voir. Pour rappel, Larrabee ce n’était pas un GPU à proprement parler. Et d’une certaine manière, ça a connu son petit succès sur le tard ;)
Je ne suis pas spécialement un grand défenseur de RK, ni de son goût pour le teasing, mais sur le fond : Xe est sorti, il a été intégré à des produits. Il y a un timing clair annoncé pour la suite. Le produit est en phase de finalisation et les délais sont à peu près tenu (malgré le contexte).
Ensuite, pour ce qui est d’être positif ou pas par rapport à ce qui en est attendu, je suis en général méfiant des “bruits ambiants” tant qu’ils ne reposent sur rien de concret. Parce que parfois, ce genre d’analyse est franchement à l’ouest par rapport à la réalité du projet.
On connait à peu près l’organisation globale de Xe, son efficacité technique, les specs de DG2, on voit à peu près où ça va. Le succès ne tiendra pas tant à ces sujet qu’à des questions logicielles (mais malgré les moqueries, c’est un sujet qu’Intel maitrise très bien, surtout côté Linux), et pricing.
Il ne faut pas oublier qu’Intel ne vise pas que le petit nombril des joueurs avec ce projet. Xe, c’est une aventure industrielle d’importance pour l’entreprise, qui traverse toute sa stack logicielle (OneAPI), matérielle (GPU/XPU), qui va des millions de puces intégrées pour PC à des supercalculateurs Ponte Vecchio.
Du coup, sortir une analyse globale issue de l’air ambiant m’apparaît un peu léger. Les choses avancent, on jugera sur pièce. Les perfs, l’efficacité, le prix, la dispo. Pour le marché grand public, c’est l’ensemble qui fera le succès ou la déroute, Intel le sait très bien. Ils ont les cartes en main et sont plutôt dans une phase de conquête que d’avoir un positionnement à garder. C’est, d’une certaine manière, “plus simple”.
Côté pro, l’enjeu est du côté de la stack logicielle, et ça monopolise énormément de monde depuis quelques années, pour apporter une conversion CUDA, une intégration à tous les outils, une refonte de l’existant, un support de l’ensemble des archi Intel fonctionnant de manière global, le tout en OSS.
Je connais peu de boites qui auraient les reins pour un travail de cette ampleur. Assez ingrat, puisqu’il ne se fait pas à coup de slides marketing et de promesse de gains dans les jeux.
Tu sais, Zen n’était pas une réussite à son lancement (IPC, stratégie, écosystème). C’était mieux qu’avant mais pas forcément une révolution sur tous les aspects (contrairement à Zen 2, puis 3). Mais les prix ont rapidement été cassés par AMD et il y avait un plan à long terme, du coup ça s’est vendu comme des petits pains. Et maintenant que les produits sont meilleurs, les prix grimpent au-delà d’Intel.
Un succès commercial (réel, celui qui se voit dans le bilan financier) ce n’est pas qu’une question de réussite architecturale. C’est un ensemble, une alchimie qu’il faut savoir créer (qui nous dépasse souvent en tant que journalistes qui regardons les choses plus factuellement en général). Et ça prend du temps.
Ca n’est pas nouveau. Et ça peut coûter cher quand ça déconne sec (coucou Vega), d’autant que Gelsinger n’est pas du genre tendre derrière son côté sympa apparent. Mais si les promesses sont tenues, ça peut aussi s’avérer payant. RK est de ce qui sont dans le “all-in” permanent, c’est tout ;)
Le 04/06/2021 à 02h 39
On verra, de toutes façons un tel projet ne pourra se résumer aux performances d’une première génération, c’est un travail de longue haleine, sur la durée, pour faire du GPU une composante de leur portefeuille de solutions (notamment via OneAPI). Le reste c’est de la stratégie.
Microsoft Azure ND A100 v4 : 96 cœurs CPU, 900 Go de mémoire et 8 GPU dans une VM
04/06/2021
Le 04/06/2021 à 11h 22
“Temporary storage” ;)
Le 04/06/2021 à 09h 41
(entre autres)
Le 04/06/2021 à 07h 53
Oui, mais ça va un poil plus vite
Blender 2.93 LTS est là, cap sur Blender 3.0
03/06/2021
Le 04/06/2021 à 08h 59
Je n’ai pas connaissance d’une volonté d’intégrer FSR dans Blender (pas plus que DLSS d’ailleurs, même si certaines applications de rendu l’utilisent déjà). D’ailleurs il y a déjà des solutions de gestion du scaling pour le viewport, notamment chez AMD avec Image Boost
Cloud de confiance et licences US : Catherine Morin-Desailly questionne, l’écosystème réagit
03/06/2021
Le 04/06/2021 à 04h 54
Elle se résume aux documents cités et aux positions exprimées par le gouvernement pour le moment.
Le 03/06/2021 à 10h 21
Il y a un bouton pour signaler les erreurs ;)
Un Nintendo Direct le 15 juin, de nouvelles rumeurs sur la Switch Pro
03/06/2021
Le 04/06/2021 à 03h 57
Dans les deux cas c’est de l’upscaling “dopé à l’IA”, c’est juste que dans le cas de DLSS c’est implémenté dans les jeux pendant le rendu, pour la Shield c’est en bout de chaine donc forcément moins fin sur certains aspects (et surtout pour de la vidéo).
Le 03/06/2021 à 09h 37
Une solution du même genre est présente au sein des Shield TV récentes (qui utilise une base similaire à la Switch de mémoire et gère la 4K depuis un moment), à voir ensuite en quoi ce serait adapté à un modèle Pro (avec des Tensor Cores notamment.
Gigabyte mise sur Ampere Computing pour renouveler son offre ARM
31/05/2021
Le 03/06/2021 à 16h 08
ARM est une société privée qui appartient à un fonds Japonais (Softbank).
GeForce RTX 3080, 3080 Ti ou 3090 : que choisir ?
02/06/2021
Le 03/06/2021 à 08h 48
Non, c’est juste qu’elles sont LHR by design, ce qui n’était pas le cas des cartes antérieures. Pour éviter la confusion, les nouveaux modèles des anciennes cartes sont taggués LHR.
Il y a eu une confusion, qui peut un peu rendre les choses complexes à comprendre. Mais elle est surtout du fait de sites/personnes qui répètent n’importe quoi sans vérifier/comprendre (je ne te vise pas hein, plutôt ceux qui délivrent ce genre d’information à large audience qui font n’importe quoi).
Ah ?
Pour rappel, le principe général de branding de la série 30 c’est “on prend l’équivalent perf en série 20, on prend le numéro d’en dessous). Donc la 3060 vise plutôt la 2070 (ce qui semble être le cas en pratique même si on peut trouver des cas spécifique ou elle sera plus ou moins performante pour telle ou telle raison).
Le 03/06/2021 à 06h 19
Tu trouves la 3060 décevante (pourquoi d’ailleurs ?) et donc tu regardes du côté d’une Xbox (qui ne semble pas plus disponible d’ailleurs) ? J’ai du mal à saisir la logique, je dois bien l’avouer.
Oui, elle devrait être plus équilibrée, même si elle semble assez proche de la 3070 plus que de la 3080 selon ses caractéristiques. On verra lors des tests (je n’ai pas encore testé la carte).
Le 03/06/2021 à 05h 59
Le 02/06/2021 à 18h 40
Quadro n’existe plus ;) Mais les cartes pour station de travail on jusqu’à 96 Go de mémoire, un pilote spécifique, des fonctionnalités spécifiques, un support spécifique. Certains peuvent se contenter des GeForce, d’où les 3080 Ti / 3090 et le pilote Studio, pour d’autres ça ne suffit pas.
Le 02/06/2021 à 16h 32
Comme dit, à moins que le boitier soit une fournaise, il n’y a pas de risque (attention aussi à la 3090 qui est assez imposante), les trois cartes sont assez silencieuses. Pas totalement, parce que dissiper 350 watts quand la charge est continue, ça fait toujours un peu de bruit, mais ça reste très modéré. Et si le silence est un critère premier, ça peut de toutes façons se régler assez facilement via un PrecisionX ou autre.
Le 02/06/2021 à 16h 21
Tu as les deux profils certains en auront besoin, d’autres non. C’est comme pour le NVLink. Certains le veulent absolument avec deux cartes, ce ne sera pas le cas de tous ceux qui ont une 3090. Il n’y a qu’une vérité : rien n’est absolu en ce bas monde, jamais ;)
Le 02/06/2021 à 15h 39
C’est le même que pour toutes les FE : 12 broches, l’adaptateur étant fourni dans le bundle. Mais sur les cartes de partenaires c’est souvent des connecteurs classiques.
NVIDIA n’a jamais dit ça (en tous cas pas à moi et c’est faux en pratique, donc…). La règle sur LHR c’est :
lancé avant la 3060 : Seuls des modèles taggués LHR sont limités
3060 et plus récent : le limiteur est natif, donc pas de mention LHR dans le nom
De mémoire, seule la 3090 n’aura pas de modèle LHR (parce qu’acheter une 3090 pour miner efficace, faut être un peu con vu le tarif )
Le 02/06/2021 à 14h 50
Par respect qu’on passe sur ce genre de papier, au moins prendre le temps de le lire avant de troller dans les commentaires serait la moindre des choses
Synology DSM 7.0 : la Release Candidate (RC) disponible
01/06/2021
Le 02/06/2021 à 14h 49
Ce n’est pas géré sous la forme d’un délai, ça dépend parfois des solutions matérielles utilisées. Mais ici la gamme 2013 a des modèles compatibles
Oracle Cloud déclare son amour d’ARM et Ampere Computing : instances à petit prix, gratuité, etc.
02/06/2021
Le 02/06/2021 à 14h 47
Ce n’est pas une pêche aux données (les données bancaires ne sont jamais stockées telles que). Par contre il font une offre avec gratuité, et exigent des contreparties (notamment une CB permettant d’éviter une bonne partie des bots et autres dérives vu que c’est lié à une ID). Après chacun est libre de faire ou non. On peut refuser et être contre ce type de procédure, mais de là à présenter ça comme un abus…
3D V-Cache : AMD dévoile sa solution pour des performances CPU encore meilleures dans les jeux
01/06/2021
Le 02/06/2021 à 08h 11
Oui, parce qu’ils empilent sur un CPU, avec un petit détail à prendre en compte : le TDP et le besoin de le dissiper
Le 01/06/2021 à 10h 16
Disons que in fine c’est le CPU qui sera à relier au socket, donc ça parait logique qu’il soit en bas. Mais n’ayant pas tous les détails, difficile d’en juger
Le 01/06/2021 à 08h 36
Aucune idée ils n’ont pas détaillé. Mais s’ils le font, ils doivent sans doute avoir une raison ;) (sans doute pour faciliter les interconnexion du cache sur le CPU plutôt que l’inverse)
Le 01/06/2021 à 08h 19
De toutes façons si l’objectif c’est de réduire la densité 2D par la 3D, tu auras un même TDP sur moins de surface, donc mécaniquement… C’est pas pour rien qu’Intel a commencé avec Lakefield sur sa technologie de stacking 3D
Le 01/06/2021 à 08h 18
Rien. Voir ici.
Le 01/06/2021 à 07h 10
Il y a un chiplet où il est exposé (pour montrer le résultat) et pas l’autre (pour montrer que physiquement rien ne change).
Non, on applaudit pas ce genre de choses !
AMD Fidelity FX Super Resolution pour le 22 juin : les GeForce compatibles, peu de jeux concernés
01/06/2021
Le 02/06/2021 à 08h 10
J’ai rien compris de ton histoire de conversion (un tensor core c’est une unité spécialisée dans le calcul matriciel, il n’y a pas de “conversion” possible). Il n’y a rien de chiplet dans les GPU NVIDIA, ils sont monolithiques, c’est une même puce, avec différents types d’unités.
Le 01/06/2021 à 10h 17
C’est fait pour et annonce tel que. C’est d’ailleurs surtout là que ce sera intéressant, comme ça on pourra dire que les consoles peuvent faire de la 4K60 sans (enfin, trop) mentir Après il faudra voir quels seront les jeux supportés, mais il y a de grande chances que ce soit natif sur les prochains portages. Sans parler ensuite des solutions qui seront natives au moteurs comme l’UE 5.0
Le 01/06/2021 à 09h 18
Oui ça passera forcément par les shaders, mais à voir sur quelle implémentation. C’est surement ce qui explique les quatre niveau de qualité, pour reporter le choix sur l’utilisateur. Mais si au final on a les perfs de DLSS sans la qualité ou la qualité de DLSS sans le gain de perf… ça se verra vite (même sur quelques jeux)
Dons défiscalisables à Next INpact en 2021 : ce soir il sera trop tard
30/12/2021
Le 02/06/2021 à 03h 04
De mémoire pas directement, mais de toutes façons ça passe par la poste, donc avec une mise à dispo en bureau de poste si la livraison ne se fait pas (je ne sais pas s’ils permettent de choisir au moment de la livraison comme c’est parfois proposé ailleurs).
Le 01/06/2021 à 19h 43
Lenovo ThinkCentre M75n : un Ryzen Pro dans 350 ml, dès 386 euros
26/05/2021
Le 02/06/2021 à 02h 53
C’est surtout une comparaison de format, les produits n’ont rien à voir en termes de conception, tarif, possibilités, besoin. A une époque je mettais une pile ou une peluche à côté des produits, ce n’est pas pour autant que c’était pour en faire des comparaison techniques ;) (et sur le fond, d’expérience, même sans photo ça arrive systématiquement).
NVIDIA officialise ses GeForce RTX 3080 Ti et 3070 Ti, Doom Eternal bientôt en ray tracing
01/06/2021
Le 01/06/2021 à 13h 46
Oui c’était une erreur du fait de la confusion pendant la conférence ce matin et la capture pas claire (corrigée depuis). Voir la liste mise en lien pour tous les détails de toutes façons
Le 01/06/2021 à 10h 14
Tu ne découvres quand même pas que plus on monte en gamme, plus le perf/€ descend ? Non parce que c’est le cas sur tous les produits du marché
En général c’est 14h/15h chez les revendeurs.
Il n’y a pas de normal ou d’anormal, il y a une offre et une demande. Et ce que l’on t’explique depuis le début, c’est que baser une analyse sur des noms de produit qui ne sont que du marketing (qui peut être changeant d’une génération à l’autre) n’a aucun intérêt (et fait le jeu des constructeurs).
Et oui, entre la génération RTX 20 et RTX 30, à tarif similaire (hors effet de pénurie, forcément) tu as une meilleure perf (en jeu et dans les usages pro), une consommation réduite. La gamme s’est étendue du fait de la disparition des Titan (et de la montée en puissance de Studio et des besoins inhérents).
Après le marché du GPU est concurrentiel (en ce moment plus que bien souvent). Les prix sont libres, les consommateurs aussi. Intel arrivera bientôt sur ce marché également. Souffle un bon coup, ça ira mieux (parce que s’énerver en boucle dans les commentaires ne sert à rien).
Le 01/06/2021 à 09h 16
Vu qu’elles sont bridées pour le minage ça devrait aider à éviter l’inflation, mais la demande reste forte. On verra ce qu’il en sera une fois que ce sera chez les revendeurs
Shadow va reprendre les activations
01/06/2021
Le 01/06/2021 à 10h 08
C’est surtout que tu as un point de vue et que tu tords les choses pour que ça colle. Mais sur le fond, ils disent que 30 euros c’est leur prix plancher. Ce qui ne les exonère pas de devoir gérer la transition en prenant en compte les contraintes légales.
Ceux qui ont déjà payé un mois et vont être activé n’auront donc pas à repayer (logique) et passeront ensuite sur le nouveau tarif s’ils ne coupent pas leur abonnement). Ceux qui sont engagés ne verront pas leur tarif bouger d’ici la fin de l’engagement (logique), sauf à le demander volontairement pour casser l’engagement.
Le 01/06/2021 à 09h 52
Ce que tu évoques découle des engagements contractuels, ils font avec. Et la boite n’est pas à l’agonie puisqu’elle vient d’être reprise et financée. C’est juste que comme le dit Octave, l’objectif visé est celui de la rentabilité.
Ryzen 5000G(E) : AMD annonce des APU Zen 3 pour le 5 août, dès 259 dollars
01/06/2021
Le 01/06/2021 à 09h 17
Oui mais ce sont des puces OEM récupérées et vendues seules, ce n’est pas prévu pour être commercialisé de la sorte.
Ubiquiti prépare ses nouveautés : baie 6U, Wi-Fi 6, switchs de 2,5 Gb/s à 25 Gb/s
31/05/2021
Le 01/06/2021 à 06h 21
Oui forcement les très gros modèles, mais quand tu es sur des baies de taille intermédiaire qui n’ont pas vocation à finir en DC, il y en a (pas que chez Ubiquiti)
ASRock PG Riptide : une première carte mère X570S passive dévoilée
31/05/2021
Le 31/05/2021 à 16h 36
Non, c’est juste qu’ils ont racheté la marque Killer ;)