Tu confonds le marché desktop avec celui de la vente au détail, qui n’est qu’une partie du marché desktop ;)
Le
13/10/2021 à
11h
47
(quote:60523:brice.wernet) Non, on y perd sur la conso à vide
La conso à vide ne dépend pas du nombre de cœurs ou très peu. Les cœurs secondaires sont le plus souvent totalement éteints lorsqu’ils ne sont pas utilisés (le gating étant généralisé depuis un moment). Par contre tu as des différences entre les modèles APU/CPU ou les HEDT (Core X, Threadripper), où la plateforme consomme aussi plus en général.
Le
13/10/2021 à
03h
08
Ceux qui voient du parti pris dans ces propos c’est ceux qui ont quelque chose à défendre à travers tel ou tel. Comme je le dis souvent, je suis dur avec tous les constructeurs, dans mes propos comme mes analyses. J’ai 20 ans de background où j’ai tapé sur tout le monde selon les périodes, donc tu peux sans problème garder ton “” ;) Et me voir en défenseur d’Intel (ça doit les faire marrer) : LOL
Mais objectivement, le point fort d’AMD c’est la densité à pas cher en 1S/2S. Malheureusement sans réel écosystème autour du CPU (si ce n’est leur GPU et Xilinx désormais). Quand tu vois l’étendue d’Intel et NVIDIA sur les différents marchés, AMD n’est pas leur problème principal ni à court ni à long terme.
Pour rappel, au bout de 5 ans de Ryzen Intel est toujours largement majoritaire sur le marché avec un bénéfice trimestriel équivalent au CA d’AMD (qui dépend de TSMC). Je sais qu’on a tendance à les mettre à égalité parce qu’ils vendent du CPU, mais il faut bien avoir ça en tête. Et si ARM perce, ce sera à travers… la densité à pas cher (voir Graviton et Ampere Computing). Ils s’attaqueront à la place d’AMD, pas d’Intel.
AMD va mieux et c’est tant mieux. Mais ils ont aussi montré des points de faiblesse ces dernières années comme je le dis dans cet article. Dans les mois à venir on verra s’ils sont à nouveau en mode combatif ou s’ils continuent sur le trend actuel, qui transpire bien dans cette vidéo : “on est les meilleurs, on va gagner” qui explique leur comportement à différent niveaux, leur politique tarifaire, etc.
ADL va faire bouger les lignes (mais pas renverser Ryzen sur certains points), SPR va introduire pas mal de choses de long terme assez intéressantes, on va sans doute revenir à une concurrence plus équilibrée dans les produits, même si Zen 4 remettra une couche côté densité package. On verra ce que sera Xe pour les GPU (sans doute pas une révolution), mais à la place d’AMD, je ferai tout de même attention à ce que je déclare… quand Apple annonce une conférence où on risque de découvrir un nouveau SoC.
Parce qu’à dire “on a la meilleure fréquence, le meilleur IPC, la meilleure efficacité énergétique” quand ce n’est pas vrai, on risque de finir par y croire, et c’est comme ça que tous les constructeurs à la mode (dont Intel à une époque) tombent de leur piédestal.
Le
12/10/2021 à
20h
26
(reply:60495:Aristide Rutilant)
Intel à surtout fait le choix du monolithique alors qu’AMD a opté pour le multi-die, ca change tout. Va faire 64 cœurs « Core » en monolithique. 7 nm ou 14 nm, c’est coton.
A court terme c’est AMD qui a le plus à perdre face à ARM, sa position de numéro notamment. Mais à long terme le match ce sera Intel VS NVIDIA, notamment dans les serveurs. Tout ce qui se prépare actuellement les en prévision de ca, chez l’un comme chez l’autre
Le
12/10/2021 à
16h
49
Les évolutions de connectique concernent aussi les modèles Pro, la question des TDP étant moins un problème pour les serveurs. Pour le reste, on verra, spéculer dans le vide n’a aucun intérêt. D’autant plus en utilisant des termes comme “surement” quand on sait que dalle
Le
12/10/2021 à
15h
06
(reply:60484:Aristide Rutilant)
Non et pas en tous points. Mais on est clairement plus dans la situation d’il y a quelques années. Le souci majeur d’AMD reste d’ailleurs toujours le même par rapport à Intel et NVIDIA : l’écosystème.
La mémoire ça marche par 8 canaux maintenant. Les SSD c’est déjà du massivement multi-canal pour atteindre les débits annoncés (sans toujours vraiment les tenir). Pour info un Threadripper Pro c’est 135 Go/s de BP en DDR4, avec une lacente de quelques dizaines de ns. Va faire ça avec un SSD
yvan a dit:
512 GO par barrette j’ai relu deux fois pour m’assurer qu’il n’y avait pas d’erreur d’unité
Voilà qui va encore encourager les devs à ne rien optimiser en termes d’accès aux données et de structuration des BDD
Un mauvais développeur trouvera toujours une excuse. Mais quand tu dois mettre plusieurs To de données en RAM pour les traiter, 512 Go par barrette c’est utile. Il n’y a pas que le poste client, Electron et les navigateurs dans la vie ;) Et ces derniers consomment beaucoup notamment du fait de l’isolation des processus mise en place pour des questions de sécurité.
Le
13/10/2021 à
07h
53
Oui my bad c’était l’épaisseur totale (du bas du PCB à la partie haute de la puce
Elle continue de fonctionner et a un pilote, mais de toutes façons, même avec de nouveaux pilotes, rien ne concernait ces cartes, donc l’intérêt des mises à jour… (surtout que de la 710 c’est pas les pilotes Game Ready qui allaient lui changer la vie ). On verra si de nouvelles références sortent à terme, l’arrivée de Xe va sans doute en partie faire bouger les choses, même si comme dit par linconnu, l’intégré fait le job dans la plupart des cas (reste les Ryzen, mais avec Zen 4 ce enfin sera réglé je suppose).
Le
13/10/2021 à
14h
02
Tu entends quoi par prolifique ? Ils publient régulièrement des nouveaux pilotes sous Linux, ne serait-ce que parce que tous leurs utilisateurs “Pro” sont là. Ils ont porté DLSS (via Proton) et RTX (Vulkan), travaillent sur la couche ARM64, etc.
Le
13/10/2021 à
13h
50
Attention ce sont les 750 pour la série 700 (900 sinon, j’ai reprécisé pour éviter la confusion)
Le workload IRL c’est toujours mieux que n’importe quel benchmark “automatique”. CDM en 64 Go peut être une solution, mais ça va en partie lisser les résultats, si le cache est gros il ne le verra pas et au moins avec une copie tu as en temps réel ce qui se passe côté débit. Dans tous les cas j’aime bien la complémentarité pour le test de ce genre de produit : CDM pour la comparaison (d’autres tests, d’autres sites) avec une diversité de résultats, et la copie pour voir la gestion des caches.
Le mieux de toutes façons c’est de faire de l’ioping/fio, mais sur ce genre de produit ça na pas vraiment d’intérêt puisque les limites sont assez vites trouvées.
Et à l’inverse on peut bosser pour des boites mal perçues tout en étant quelqu’un de bien (on en connait pas mal). D’ailleurs, ceux qui utilisent du logiciel libre doive en général beaucoup à de tels profils (parce que si t’enlève les grosses boites des contributions kernel par exemple et que tu gardes que les participations de ceux qui ont un avis à donner, ça fait un sacré trou).
PS : quant à définir le bien et le mal, on va s’éviter les cours de philo de comptoir ;)
Le
13/10/2021 à
10h
16
J’ai déjà des choses en cours là dessus
Le
13/10/2021 à
09h
49
Je doute que qui que ce soit utilise Windows pour les usages visés En tous cas les tests de ce genre de composants se fait le plus souvent sous Linux via fio, surtout pour du 512B RR donc je ne penses pas qu’on puisse répondre simplement à la question. Je testerai si je récupère un Optane
Mais sur le fond, l’idée est plus d’obtenir de gros scores avec une lib native du kernel sans avoir à passer par des couches spécialisées comme SPDK par exemple (qui est plus complexe à mettre en œuvre).
L’astuce de registre de MS pour TPM 1.2 est spécifique, on l’a déjà évoquée en en précisant les limites dans un précédent article.
L’astuce ici évoquée ou d’autres modifications du registre fonctionnent même sans TPM. Je l’ai testé ici avec une machine dont TPM a été totalement désactivé (donc pas plus de version 1.2 que 2.0) : sans la modification de Rufus, ça coince, avec ça fonctionne
Si tu as un autre problème, ne pouvant en connaître la raison, je ne peux que t’inviter à opter pour la méthode du registre qu’on a détaillée dès août pour tenter de le résoudre. Mais merci de ne pas accuser les articles qui prennent bien toutes les précautions nécessaires, surtout quand je passe du temps à faire des tests avant de les publier justement pour éviter ce genre de ratés ;)
Le
11/10/2021 à
15h
51
Comme dit par d’autres dans une autre news sur le sujet moi je vois plutôt MS tout verrouiller pour faire plaisir aux diffuseurs et éditeurs de médias (films/musique) en leur “offrant” une “plateforme de consommation” plus sécurisée sur laquelle l’utilisateur a de moins en moins de prises pour pouvoir passer outres les DRM et autres conneries du genre. La sécurité informatique au sens premier du terme par contre je ne pense pas que ce soit leur préoccupation principale même si des progrès immenses ont été faits depuis quelques années. (faut dire que ça partait de loin )
MS n’a pas besoin de ça pour permettre les DRM. Si TPM est là ils peuvent l’utiliser (comme n’importe quel dispositif de sécurité) mais ce n’est pas essentiel à la chaîne (protégée via HDCP) et de toutes façons les fuites sont ailleurs.
Guinnness a dit:
La sécurité informatique au sens premier du terme par contre je ne pense pas que ce soit leur préoccupation principale même si des progrès immenses ont été faits depuis quelques années. (faut dire que ça partait de loin )
Il faut vraiment être à côté de ses pompes (ou troller) pour dire ça par contre. La sécurité est forcément importante pour MS, comme pour tout éditeur d’OS ou de service utilisé au quotidien. Mais la surface d’attaque d’un OS comme Windows est assez large, et l’héritage du PC implique tout de même pas mal de trous dans la raquette qu’ils bouchent avec le temps.
Le sujet n’est de toutes façons pas s’il faut utiliser TPM, SB ou VBS, il le faut. Mais la manière de les mettre en place et de faire bouger l’écosystème (et ça c’est mal fait).
Le
11/10/2021 à
12h
33
Je me demande si en gros Windows 11 peut fonctionner sur QEMU+KVM avec du PCI Passtrough pour le GPU, sachant qu’il n’y a pas TPM 2.0, ni Secure Boot, et qu’en outre, ça peut être considéré partiellement comme de la virtualisation. :-)
W11 c’est W10, donc ça ne change rien là dessus (VT + Passthrough). Pour le reste, si pas de TPM 2.0/SB, pas d’installation possible dans les bidouilles évoquées au fil des articles;
Le
11/10/2021 à
12h
21
J’ai du mal à comprendre le sens exact de la question ?
Le
11/10/2021 à
11h
43
le plus gros problème c’est que les mise a jour type “Feature Update” ne pourront pas se faire donc reinstall du système a chaque grosse mise à jour
Rien de ferme n’a été annoncé dans ce sens. MS a dit que c’était une possibilité, mais on a toujours les mises à jours sur ces systèmes pour le moment (j’en ai un qui tourne pour surveiller ça notamment).
Bah disons que ton smartphone, le SFP+, il va pas trop aimer Et pour la qualité du Wi-Fi des box, même récentes, j’espère que tu n’es pas sérieux ?
PS : je ne dis pas que ce kit est au bon tarif, il ne l’est pas. Mais on peut le faire remarquer sans pour autant raconter n’importe quoi sur le sujet des réseaux et du sans-fil
Le
12/10/2021 à
15h
08
Il y a toujours un public, même à ces tarifs là. Mais oui c’est pas du mass market et celui qui veut du 10G, du Wi-Fi 6E et geeker ira sans doute voir ailleurs.
CXL c’est quand même la prochaine techno intégrée aux plateformes d’AMD, ARM et Intel, en plus de tout l’écosystème qu’il y a autour, en étant basé sur PCIe, on est loin de la “verrue” faite dans le coin de l’esprit d’un constructeur isolé. D’autant que comme tu le dis, il y a pour le moment une corrélation directe entre la capacité et le nombre/type de CPU, que certains aimeraient bien dépasser.
Pour le reste comme évoqué, des modules tiers n’iront jamais au débit/latence de la DIMM, mais entre des centaines de Go/s à 50 ns et quelques Go/s en dizaines de µs il y a la place pour des éléments intermédiaires. Reste à voir lesquels et comment les gérer, avec quel coût au To (qui reste le point faible de la mémoire, même si certains sont plus contraints par la physique des serveurs que l’aspect coût).
Le
12/10/2021 à
07h
32
Oui c’est un peu le but et l’usage typique qui est visé par tout ce qui touche à la désagrégation mémoire, pouvoir opérer une bonne partie des données en RAM ou équivalent sans forcément avoir besoin de X CPU par volume de RAM si ce n’est pas nécessaire (ou parce que c’est le GPU ou un accélérateur qui traite par exemple). Et du coup faire un peu remonter le “data lake” dans la chaine alimentaire du stockage de données, que ce soit via de la RAM (pour les riches) ou des solutions intermédiaires (pour les autres).
Le
11/10/2021 à
18h
01
Ah ah, c’est pas nécessaire pour le coup, c’est PCIe, hot plug, facile à adapter et 4x/8x ready. Rien que pour les fabricants de NAS ce serait un choix intéressant. Mais il faudrait attendre que ça se démocratise, donc sans doute pas tout de suite
Le
11/10/2021 à
17h
49
C’est pas impossible mais improbable à court terme je pense. Les DIMM restent proche du CPU donc à faible latence (50 ns environ, ça dépend des plateformes) avec un gros débit. La latence répond aussi à des contraintes physiques.
Mais on peut imaginer que ce soit vu comme un cache de niveau 4 avec le pool mémoire qui serve pour le gros du traitement des données à plusieurs To comme ça peut être le cas du stockage actuellement. La question ce sera alors de quoi se compose le pool : de modules à la Samsung ou d’Optane ?
Mais oui, le PCIe c’est déjà l’usb du serveur. D’ailleurs je serais pas contre qu’on remplace les clés USB par des modules E1.S dans le grand public cA une époque on avait des HDD extractible dans presque tous les PC, ça manque
Outre le fait que la pratique soit inintéressante, c’est faux : U.2 = PCI Express, donc tu peux très bien en mettre autant que du as de lignes PCIe via des adaptateurs si ta build est inadaptée à l’usage visé.
Le
12/10/2021 à
07h
40
Le particulier n’est pas vraiment le public visé Après certains font le calcul avec le DWPD, si tu fais beaucoup d’écritures le ratio n’est pas déconnant (en DC certains en arrivent à limiter les écriture pour éviter l’usage prématuré par exemple, ce qui est nécessaire sur de la QLC ou même de la TLC dans une certaine mesure). Et oui à l’échelle d’une infra complète de toutes façons…
Quand j’écris une pres type powerpoint, je prends soin de toujours définir la première utilisation d’un acronyme, et je trouve assez irrespectueux de répondre t’as qu’à chercher sur google.
Ce n’est pas une présentation PPT, c’est un site Internet, avec des archives. Comme expliqué, on ne définit pas tous les acronymes, c’est une question de contexte. Comme expliqué aussi, il manquait un lien détaillant ce marché, on l’a ajouté ensuite. Tout y est expliqué.
Si vous avez peur du côté guirlande de liens (c’est déjà un peu le cas en fait)
C’est pour ça qu’on essaie de limiter le phénomène.
vous pouvez mettre un glossaire en fin d’article.
Non, parce que notre secteur est bourré d’acronymes et qu’on ne peut pas tous les détailler. Donc comme expliqué plusieurs fois : on le fait selon le contexte (et pas selon les connaissances des lecteurs, qui peuvent varier d’un lecteur à l’autre).
Bah justement non, si tu prends une thèse il y’a une partie importante qui est la bibliographie
Ce n’est pas une thèse, c’est un site Internet
On jargonne tous dans nos métiers, les acronymes n’ont pas tous le même sens, et j’ai perso un peu de mal a tout retenir (anecdote : je prépare une certif, j’ai extrait de mes formations PDF un glossaire de 2pages arial 8 d’acronymes à bachoter). Et pourtant je ne travaille pas loin du réseau / cloud (je suis en couche OSI 7 quoi :) ) donc cet article m’intéresse !
C’est pour ça que je précise que notre choix de ne pas détailler concerne essentiellement les acronymes de base des différents secteurs que l’on couvre, pas la totalité de ceux que l’on peut rencontrer.
Le
11/10/2021 à
03h
17
Citan666 a dit:
1/ “ON s’adresse à une partie cible du lectorat” justement NON. Le principe de NXI et un des piliers de son attractivité est que vous couvrez plein de sujets différents qui font que le lecteur lambda va forcément juste en suivant l’actu “sortir de sa zone de confort” et découvrir de nouveaux domaines.
Oui, mais justement, on ne peut pas parler de cette diversité de sujets comme si on s’adressait à un utilisateur avec 0 connaissances. Il y a des dossiers où on le fait parce que c’est particulièrement nécessaire, mais d’autres où ça n’est pas le cas et où l’on ne détaille pas le “jargon”.
Comme dit, c’est le cas sur tous les sujets depuis toujours et c’est assez logique. Parce que même si un utilisateur débutant arrive ici et ne sait pas ce qu’est un CPU, ce n’est pas le rôle d’une actu qui traite d’Alder Lake-S que de lui expliquer ce que c’est, ni tout l’historique récent d’Intel.
Soit dit en passant, ça tient d’autant moins que le seul mot-clé associé à la news est “composants”. Si c’était vraiment public ciblé ce serait un truc beaucoup moins générique genre “infrastructure big data”, “datacenter”, whatever.
Non, la règle est la même tant pour IH que NXi, sur les composants grand public que pour Pro (donc du SoHo aux DC) ou même des systèmes plus complets.
2/ Les acronymes, peu importe si ça désigne des produits similaires ça donne déjà une petite indication de sens et ça permet de faire une recherche beaucoup plus efficace sur google en surlignant l’expression. Teste par toi même “DPU” ça renvoie à plein de trucs différents.
Oui mais comme dit, il y a des règles. Quand l’acronyme est récurrent, il n’est pas redétaillé. Ici c’est le cas puisque l’on parle des DPU/IPU depuis un peu plus d’un an et qu’on a déjà fait des articles pour les détailler. Sinon ça revient à détailler CPU à chaque fois que je l’utilise. Ou à définir une limite abstraite, et chaque lecteur pensera que la limite n’est pas bonne de son point de vue (qui diffère de l’un à l’autre).
3/ Je suis navré de te l’apprendre mais outre le fait que j’ai pas que ça à faire de compléter par moi-même un déficit de contexte immédiat, votre moteur de recherche n’est pas efficace donc je vais certes pas y aller intuitivement, je préfère google. Au delà du fait que je suis pas censé forcément me douter que vous avez déjà traité le sujet.
Tu peux préférer Google ou un autre sans problème, même si pour une recherche sur DPU/IPU le moteur interne sera tout à fait suffisant (mais oui, on n’est pas Google).
Je suis par contre en désaccord sur le point de fond : si je vais lire un article sur la physique nucléaire dans un média spécialisé, je ne vais pas reprocher au site en question de ne pas m’apprendre les basses de la fusion/fission. Si cela m’intéresse et qu’il y a des choses que je ne comprends, pas, je m’informe (sur le site ou ailleurs) pour mieux comprendre de quoi il en retourne. Tu n’as pas le temps ? Je comprends tout à fait, j’en manque aussi. Mais ne me reproche pas ton empressement.
Quand un lecteur vient lire un article pour apprendre ce qui compose le dernier DPU de Marvell qui vise essentiellement le marché des SmartNIC, s’il ne sait pas ce qu’est un SmartNIC ou un DPU, il peut aller lire notre article consacré au sujet ou simplement chercher une définition dans son moteur de recherche préféré. De mon point de vue s’il fait ce dernier choix il lui manquera les clés de compréhension essentielles, mais comme tu le fais remarquer, ça ira vite.
4/ Remarque pour la route, il n’y a pas que le public d’habitués sur NXI, tu as aussi (du moins je l’espère pour vous) de nouveaux lecteurs chaque jour qui peuvent découvrir le site par un article puis butiner quelques autres pour se faire une idée et voir si ça vaut le coup de s’abonner.
Oui et comme dit, c’est une partie de l’enjeu ; mais je le répète, on ne peut pas écrire tout article comme s’il s’adressait à un débutant complet. D’ailleurs je doute qu’un débutant complet vienne s’intéresser au marché des DPU puisse y comprendre quelque chose sans avoir déjà les bases sur tout le reste.
Et à nouveau vu la diversité de sujets traités (et à nouveau, c’est une force), la probabilité est non nulle qu’ils connaissent rien à ce sujet, tout comme d’autres maîtrisent à fond mais seraient en galère sur les articles “d’analyse juridique” de Marc ou ceux d’Hardware sur les technos graphiques ou de stockage…
C’est pour ça qu’on fait des papiers pour expliquer ces notions et enjeu. Ce qui nous permet notamment de ne pas avoir à mettre 3 pavés de contexte dans la moindre actualité d’annonce d’un produit.
Sans déconner, plutôt d’admettre platement que t’as fait une boulette par fatigue / manque de temps / whatever tu t’obstines à te draper derrière une argumentation foireuse.
J’ai admis la boulette dès ma première réponse : on a oublié de mettre le lien du dossier (ça nous arrive et il reste le moteur interne en backup le temps qu’on corrige). Je ne me drape derrière rien, je t’explique juste ce que sont les choix d’une rédaction au quotidien et ce qui guide nos décisions.
Navré ça prend pas avec moi. J’ai fait du droit, de la communication en entreprise, de la veille, de la pige, des dossiers, des analyses en presse spécialisée. Je connais “un minimum” le job.
Moi j’ai un BTS Electrotechnique, mais je fais ce métier depuis 20 ans. Je pense que du coup, je connais aussi un peu le métier. Mais ce n’est pas une question de savoir imposer sa connaissance à l’autre, je ne cherche pas à te convaincre que j’ai raison, je t’explique juste comment on bosse.
Un “oups, c’est vrai sorry je corrige et hop on n’a rien vu” ça suffisait et ç’aurait été nettement plus pro. Surtout que comme le dit Fred il manquait pas grand chose, l’équivalent de 1mn initiale / 3mn en correction à la louche, et que nous sommes tous conscients que “l’erreur est humaine”.
Comme dit plus haut en réponse à son commentaire, l’article est contextualisé. Il ne l’est certes pas pour quelqu’un qui ne connait pas ce marché, mais comme dit, c’est une annonce de produit, pas un guide sur la révolution en cours dans les DC via les SmartNIC (on l’a déjà écrit).
Une des raisons pour lesquelles je continue à payer NXI c’est la qualité rédactionnelle. Je trouve donc d’autant plus navrant que tu n’assumes pas un truc aussi mineur alors que ce type de remarque c’est du win-win.
Pour rappel, cet article était en accès libre.
Mais les abonnés s’abonnent pour nous permettre de prendre le temps de leur faire découvrir des sujets de fond, en soutenant un média indépendant et sans publicité, dans le domaine des nouvelles technologies. Cela va du droit au logiciel en passant par des trucs un peu plus tordus du type “que se passe-t-il dans les DC” quand on publie un article sur la connectique jusqu’à 800 Gb/s par exemple.
Ces sujets sont d’ailleurs assez peu traités dans la sphère FR, pour une raison simple : il intéresse moins que le dernier iPhone ou les VPN sur Freebox. On a fait le choix de se focaliser aussi sur ces sujets parce que l’on sait qu’on à un lectorat dont c’est le job (même s’il commente peu) et qu’on a des retours assez positifs sur ces articles, qu’il s’agisse des papiers de fonds ou de la veille produit.
Mais personne ne nous paie pour que je réponde “oui oui tu as raison” (et s’ils le font ils ont tort). Comme je le dis souvent quand on m’accuse d’être parfois un peu rude dans les commentaires, être abonné ne donne pas raison. Mais, abonné ou non, il faut prendre la parole et à donner son avis. Mon rôle c’est de répondre et d’expliquer nos choix dans des cas comme celui-ci.
Je comprends tout à fait le besoin de vulgarisation sur ces sujets très techniques, tout le monde n’étant pas ingénieur bossant en datacenter, mais comme répondu, c’est un travail que nous faisons déjà. Et dans le cas présent, le travail avait été fait. Certes il manquait un lien et on essaie de faire gaffe là-dessus, mais ça ne mérite pas de tels propos.
Tu peux penser que cet article manquait d’une explication en introduction de ce qu’est le marché du SmartNIC parce qu’elle t’aurait aidé à mieux le comprendre, mais je suis en désaccord avec ça pour les raisons évoquées ci-dessus. Cela ne veut pas dire que je n’entends pas ta critique, juste que mes choix et ceux de la rédaction ne reposent pas que sur ce seul critère.
Je comprends que tu ne puisses pas entendre ces arguments, mais la réalité de notre boulot au quotidien, lorsque l’on a un lectorat et des sujets très diversifiés, c’est aussi ça : accepter de décevoir quels que soient les choix. Mais au moins maintenant, tu en sais plus sur les DPU. Next step : CXL, la cohérence mémoire et le computational storage (d’ailleurs j’y retourne ).
Sur ce bonne nuit quand même.
Bonjour plutôt
Le
11/10/2021 à
02h
39
Ce n’est pas forcément que pour du DC, dans tous les cas c’est lié à tous les articles sur NVMe-oF notamment puisque ça permet de décharger pas mal ces usages-là en particulier (même si selon les types de solution, on peut plus ou moins y décharger des choses ou effectuer des traitements annexes hors CPU).
Citan666 a dit:
(D’ailleurs j’en profite tout de même pour te remercier pour tes dossiers des quinze derniers jours, ça pour le coup rien à dire c’est du bon gros taff de qualité, et j’ai appris beaucoup de choses.)
Et pas ceux avant les 15 derniers jours ? C’est du beau !
Le
10/10/2021 à
14h
58
Je le dis régulièrement mais dire ça c’est nous demander de tout définir parce que quelqu’un pourrait ne pas comprendre tel ou tel terme, chacun ayant un niveau de connaissance différent. Ce serait rendre les articles illisibles, donc on a des règles en la matière.
D’ailleurs, un tooltip ne résoudrait pas le problème sur le fond. Pas plus que détailler les acronymes, pour une raison simple : IPU et DPU par exemple définissent des produits similaires (comme SmartNIC). Détailler n’aiderai pas à le comprendre. Comme le je dis aussi assez souvent, ces sujets sont complexes et demandent de s’y intéresser. Si on simplifie, on passe le plus souvent à côté de l’essentiel.
Du coup, on préfère faire des papiers qui définissent les sujets/termes récurrents. On le fait dès qu’on a un besoin régulier (comme ça a été le cas sur les SmartNIC) ou une demande (comme sur U.3/E.3) et qu’on a une plus-value à apporter par rapport à une page Wikipédia. C’est un travail qui prend du temps, mais qu’on essaie de faire de manière systématique pour que chacun puisse s’y référer.
Quand on a pas de telles ressources on renvoie en général sur un lien tiers même si on essaie d’éviter le côté “arbre de Noël des liens”. Parfois on ne le fait pas volontairement ou on zappe (on reste humains après tout). Mais tous les navigateurs contiennent la fonction “Clic droit/Rechercher”.
La règle générale c’est que quand on fait un papier sur un sujet technique, on ne détaille jamais les termes « bateau » en lien avec ce sujet (je ne détaille pas SSL, L2 ou L3 par exemple) quand on la traite régulièrement comme c’est le cas ici. DPU et IPU sont concernés, tout comme APU, CPU, GPU, TDP/TGP lorsque l’on parle de processeurs et de cartes graphiques, ou PWM quand on parle de ventilation.
Par contre il faudrait éviter d’abuser. Un article incompréhensible c’est un article qui n’a pas de sens, ici ce n’est pas le cas. Que tel ou tel ne puisse pas totalement le comprendre sans des informations qui lui manquent c’est autre chose. Mais c’est mon quotidien que d’écrire sur des sujets que les gens ne maîtrisent pas toujours. Cela peut arriver et c’est normal, c’est comme ça qu’on apprend.
Mais je fais de mon mieux pour les aider à s’y retrouver, à travers les liens et articles du site. Comme dit plus haut, le plus souvent on a déjà toutes les ressources pour aller plus loin déjà en ligne. Mais je ne peux pas tout faire à la place des lecteurs.
Citan666 a dit:
@david : Déjà ne pas fournir la moindre explication sur l’écosystème c’est un peu hard
J’ajoute un point là dessus, parce que je comprends mal cette partie de la remarque. Je parle volontairement des solutions concurrentes (avec des liens présentants chacune) et donc de l’écosystème en entrée de papier (en expliquant bien qu’on parle d’accélérateurs dédiés au stockage et au réseau principalement).
Du coup je ne vois pas en quoi il manque du contexte sur l’écosystème. Si c’est parce que je ne détaille pas chaque solution concurrente, c’est plutôt logique (parce que ce n’est pas du tout l’optique de ce genre de papiers, qui n’est pas un comparatif du marché, on a d’autres choses en cours là dessus).
Le
10/10/2021 à
07h
50
Je le dis souvent, mais sur ce genre de papiers on s’adresse tout de même à un lectorat qui suit ce secteur, donc non, on ne redétaille pas tout sinon c’est imbuvable à lire et répétitif. Pour le reste, on a consacré un article au sujet ;) Le plus souvent, on met des liens, mais parfois on oublie. C’est pour ça qu’il y a un moteur de recherche sur le site
Ah oui tu as répondu simplement, c’est sûr. En commençant par écrire : “c’est un peu comme si tu me demandais ce qu’une olive avait à voir avec une pizza parce que les deux se mangent.” c’était on ne peut plus simple… et irrespectueux (accessoirement envers un lecteur abonné depuis qq temps déjà).
A la rigueur ok, tu ne comprends pas ma question et pourquoi je demande l’avantage de l’un par rapport à l’autre, y’a pas de problème. Dans ce cas, tu demandes en retour et je tente de clarifier pourquoi je pose cette question. Mais même pas. Non, toi tu pars du principe que la question est d’emblée débile, que ça n’a rien à voir, que peu importe que je puisse faire un lien, quel qu’il soit entre 1P et Yubico, et balances une phrase à la c.. comme celle citée plus haut. Et si j’ai le malheur de répondre à nouveau, tu dis que j’ai pas lu l’article alors que t’es pas en place de juger de ce que j’ai fait ou pas. Mais pour qui te prends tu quoi ?
Arf désolé, écris encore une fois histoire que ce soit bien toi qui as le dernier mot.
Le statut d’abonné ou pas ne joue pas sur mon comportement (il n’y a pas de raison de moins bien répondre à un lecteur non abonné), je m’adapte juste aux propos et je réponds honnêtement. Ma première réponse était simple : les deux éléments n’ont rien à voir. J’ai imagé ensuite pour essayer de faire comprendre mon propos puisqu’apparemment ça n’était pas assez clair. Je doute qu’on puisse voir un manque de respect dans une métaphore.
Je ne dis pas que la question est débile, comme j’essayais de te le faire comprendre avec l’olive et la pizza, ce ne sont pas parce que deux éléments peuvent servir dans la même action que leur rôle est similaire ou comparable. Du coup on ne peut répondre à ta question initiale (autrement qu’en précisant ce que j’ai répondu). Quand je parle de l’article non lu, c’est parce que, comme je l’ai dit dans une précédente réponse, l’explication de ce à quoi sert une clé de sécurité (et donc la différence intrinsèque avec un gestionnaire de mots de passe) est dans l’article.
Le problème vient initialement du fait que tu compares l’action et pas la fonction. De ton point de vue, comme les deux peuvent jouer un rôle dans une connexion, on peut les comparer et donc voir un avantage à l’un ou l’autre alors qu’ils sont plutôt complémentaire. Un peu comme on met un trousseau de clé dans un manteau. Le manteau peut aussi contenir un tag NFC pour entrer automatiquement, pour autant on ne peut pas venir dire quel est l’avantage d’un manteau sur un trousseau de clé.
Le
09/10/2021 à
12h
59
Vaut mieux arrêter l’échange là car il n’ a pas d’échange possible avec toi.
Entre ta première réponse plus que limite qui n’est d’aucune d’aide sinon d’envoyer bouler la personne, ta seconde réponse où tu me dis que je ne lis pas (alors que t’es pas à ma place d’abord) et désormais cette dernière réponse qui est d’une mauvaise foi patente en refusant de voir la différence entre les 2 questions, il vaut mieux arrêter en effet.
J’aide dans les commentaires régulièrement, j’ai meme répondu à ta question le plus simplement possible. Mais tu pars du principe que ma réponse n’est pas bonne. Donc effectivement autant en rester là.
Le
09/10/2021 à
10h
02
Merci pour ta réponse.
Je pense qu’il y a d’abord une mauvaise incompréhension de ta part. Pourtant ma question était claire dès le départ. Non, je n’ai jamais demandé au départ que est le point commun contrairement à ce que affirmes. J’ai explicitement demandé “c’est quoi l’avantage par rapport à un logiciel de type 1Password qui remplit toutes les infos de login + le 2FA OTP ?”
C’est franchement une tout autre question !
Je cherchais simplement à comprendre de façon légitime, sans troller, l’avantage d’avoir une clé avec lecteur empreinte vs 1Password dans le cadre de l’authentification, sachant que l’authentification est le cas d’usage le plus classique cité.
Donc non, je n’insiste pas pour insister/troller dans le but de changer quoi que ce soit. C’est des enfantillages ça. J’ai échangé car je voulais légitimement comprendre, c’est tout. Je comprends un peu mieux avec ta dernière réponse (si je fais abstraction des enfantillages ).
Tout de même, ta première réponse a été de me parler de pizza et d’olives et ta seconde de soupçonner que je n’avais pas lu…
Tu fais une équivalence entre les deux, ça revient au même ;) Et oui, j’image le propos pour que tu comprennes le problème de la question initiale (à laquelle on ne peut du coup par répondre). Pour le reste et comme dit, je ne fais que répéter ce qui est déjà dans l’article.
Oui et non, la segmentation en gamme peut avoir son intérêt. Le souci c’est surtout que ce qu’il y a derrière ces gammes n’est pas cohérent dans le temps et clairement identifié. Mais par exemple, le SN700 pour NAS c’est une présentation cohérente, même si ça risque de pas plaire à ceux qui ont payé un Black plus cher avec des specs similaires et une endurance moindre
Comme dit en réponse, c’était un papier déjà en cours (pour tout un tas de raison), j’ai juste isolé la partie U.3/E1/E3 qui était de toutes façons déjà assez importante pour se suffire à elle-même
T’as encore un peu de temps, de ce que je vois, tout le monde attend CXL pour E3 (qui arrive avec SPR côté Intel et Zen 4 côté AMD, donc mi-2022). Pour E1 on voit déjà quelques initiatives, mais ça a pas mal été freiné par la guerre Samsung/Intel des débuts et c’est surtout l’arrivée de modèles E1.S qui commence un peu à débloquer tout le monde. Mais sur le fond, ça promet du bond pour les baies full-flash (entre autre avec l’arrivée d’accélérateurs/modules hot plug en E3.S).
Un P5800X c’est plutôt 5 us Mais outre les performances, c’est le fait qu’elles tiennent dans la durée qui importe pour les usages visés. Parce que les SSD qui tiennent la route 30 secondes ça le fait pas trop en datacenter
Le
09/10/2021 à
13h
25
(reply:60430:Fab’z)
Oui souvent on nous demande de parler de tel ou tel sujet sur Twitter et j’explique que c’est déjà fait
Le
09/10/2021 à
13h
04
(reply:60428:Fab’z)
On essaie surtout de parler de ces solutions au bon moment, quand ça se développe concrètement sur le marché. Comme dit sur EDSFF il y a des choses en cours lié à des articles qui arrivent, je verrais pour isoler un bout pour faire un point si ça vous semble nécessaire.
On a un spectre large mais il faut faire des choix. Parler de tout c’est aussi prendre le risque de noyer l’essentiel. Et d’expérience ça n’est utile ni pour le média ni pour le lecteur, par contre pour Kioxia, on a suivi depuis le rachat
Oui la dispo est pas simple en ce moment. T’as regardé sur IamNUC ? Ils référence à peu près tout le catalogue de mémoire (Même les portables et Compute Elements)
15083 commentaires
AMD fête les 5 ans de l’annonce des processeurs Ryzen et évoque (enfin) sa feuille de route 2022
12/10/2021
Le 13/10/2021 à 19h 49
Tu confonds le marché desktop avec celui de la vente au détail, qui n’est qu’une partie du marché desktop ;)
Le 13/10/2021 à 11h 47
La conso à vide ne dépend pas du nombre de cœurs ou très peu. Les cœurs secondaires sont le plus souvent totalement éteints lorsqu’ils ne sont pas utilisés (le gating étant généralisé depuis un moment). Par contre tu as des différences entre les modèles APU/CPU ou les HEDT (Core X, Threadripper), où la plateforme consomme aussi plus en général.
Le 13/10/2021 à 03h 08
Ceux qui voient du parti pris dans ces propos c’est ceux qui ont quelque chose à défendre à travers tel ou tel. Comme je le dis souvent, je suis dur avec tous les constructeurs, dans mes propos comme mes analyses. J’ai 20 ans de background où j’ai tapé sur tout le monde selon les périodes, donc tu peux sans problème garder ton “” ;) Et me voir en défenseur d’Intel (ça doit les faire marrer) : LOL
Mais objectivement, le point fort d’AMD c’est la densité à pas cher en 1S/2S. Malheureusement sans réel écosystème autour du CPU (si ce n’est leur GPU et Xilinx désormais). Quand tu vois l’étendue d’Intel et NVIDIA sur les différents marchés, AMD n’est pas leur problème principal ni à court ni à long terme.
Pour rappel, au bout de 5 ans de Ryzen Intel est toujours largement majoritaire sur le marché avec un bénéfice trimestriel équivalent au CA d’AMD (qui dépend de TSMC). Je sais qu’on a tendance à les mettre à égalité parce qu’ils vendent du CPU, mais il faut bien avoir ça en tête. Et si ARM perce, ce sera à travers… la densité à pas cher (voir Graviton et Ampere Computing). Ils s’attaqueront à la place d’AMD, pas d’Intel.
AMD va mieux et c’est tant mieux. Mais ils ont aussi montré des points de faiblesse ces dernières années comme je le dis dans cet article. Dans les mois à venir on verra s’ils sont à nouveau en mode combatif ou s’ils continuent sur le trend actuel, qui transpire bien dans cette vidéo : “on est les meilleurs, on va gagner” qui explique leur comportement à différent niveaux, leur politique tarifaire, etc.
ADL va faire bouger les lignes (mais pas renverser Ryzen sur certains points), SPR va introduire pas mal de choses de long terme assez intéressantes, on va sans doute revenir à une concurrence plus équilibrée dans les produits, même si Zen 4 remettra une couche côté densité package. On verra ce que sera Xe pour les GPU (sans doute pas une révolution), mais à la place d’AMD, je ferai tout de même attention à ce que je déclare… quand Apple annonce une conférence où on risque de découvrir un nouveau SoC.
Parce qu’à dire “on a la meilleure fréquence, le meilleur IPC, la meilleure efficacité énergétique” quand ce n’est pas vrai, on risque de finir par y croire, et c’est comme ça que tous les constructeurs à la mode (dont Intel à une époque) tombent de leur piédestal.
Le 12/10/2021 à 20h 26
Intel à surtout fait le choix du monolithique alors qu’AMD a opté pour le multi-die, ca change tout. Va faire 64 cœurs « Core » en monolithique. 7 nm ou 14 nm, c’est coton.
A court terme c’est AMD qui a le plus à perdre face à ARM, sa position de numéro notamment. Mais à long terme le match ce sera Intel VS NVIDIA, notamment dans les serveurs. Tout ce qui se prépare actuellement les en prévision de ca, chez l’un comme chez l’autre
Le 12/10/2021 à 16h 49
Les évolutions de connectique concernent aussi les modèles Pro, la question des TDP étant moins un problème pour les serveurs. Pour le reste, on verra, spéculer dans le vide n’a aucun intérêt. D’autant plus en utilisant des termes comme “surement” quand on sait que dalle
Le 12/10/2021 à 15h 06
Non et pas en tous points. Mais on est clairement plus dans la situation d’il y a quelques années. Le souci majeur d’AMD reste d’ailleurs toujours le même par rapport à Intel et NVIDIA : l’écosystème.
La DDR5 selon Samsung : 14 nm EUV, 24 Gb par puce et jusqu’à 7,2 Gb/s (un jour)
13/10/2021
Le 13/10/2021 à 19h 47
Relire le commentaire #5
Le 13/10/2021 à 07h 56
La mémoire ça marche par 8 canaux maintenant. Les SSD c’est déjà du massivement multi-canal pour atteindre les débits annoncés (sans toujours vraiment les tenir). Pour info un Threadripper Pro c’est 135 Go/s de BP en DDR4, avec une lacente de quelques dizaines de ns. Va faire ça avec un SSD
Un mauvais développeur trouvera toujours une excuse. Mais quand tu dois mettre plusieurs To de données en RAM pour les traiter, 512 Go par barrette c’est utile. Il n’y a pas que le poste client, Electron et les navigateurs dans la vie ;) Et ces derniers consomment beaucoup notamment du fait de l’isolation des processus mise en place pour des questions de sécurité.
Le 13/10/2021 à 07h 53
Oui my bad c’était l’épaisseur totale (du bas du PCB à la partie haute de la puce
NVIDIA publie ses pilotes 496.13, DLSS s’étend (même à d’anciens jeux)
13/10/2021
Le 13/10/2021 à 18h 03
Elle continue de fonctionner et a un pilote, mais de toutes façons, même avec de nouveaux pilotes, rien ne concernait ces cartes, donc l’intérêt des mises à jour… (surtout que de la 710 c’est pas les pilotes Game Ready qui allaient lui changer la vie ). On verra si de nouvelles références sortent à terme, l’arrivée de Xe va sans doute en partie faire bouger les choses, même si comme dit par linconnu, l’intégré fait le job dans la plupart des cas (reste les Ryzen, mais avec Zen 4 ce enfin sera réglé je suppose).
Le 13/10/2021 à 14h 02
Tu entends quoi par prolifique ? Ils publient régulièrement des nouveaux pilotes sous Linux, ne serait-ce que parce que tous leurs utilisateurs “Pro” sont là. Ils ont porté DLSS (via Proton) et RTX (Vulkan), travaillent sur la couche ARM64, etc.
Le 13/10/2021 à 13h 50
Attention ce sont les 750 pour la série 700 (900 sinon, j’ai reprécisé pour éviter la confusion)
Le 13/10/2021 à 11h 51
Pour le moment, sous Windows, oui.
SSD WD Blue SN570 (M.2, PCIe) : 1 To, 1 puce de flash NAND, quelles performances ?
13/10/2021
Le 13/10/2021 à 18h 00
Le workload IRL c’est toujours mieux que n’importe quel benchmark “automatique”. CDM en 64 Go peut être une solution, mais ça va en partie lisser les résultats, si le cache est gros il ne le verra pas et au moins avec une copie tu as en temps réel ce qui se passe côté débit. Dans tous les cas j’aime bien la complémentarité pour le test de ce genre de produit : CDM pour la comparaison (d’autres tests, d’autres sites) avec une diversité de résultats, et la copie pour voir la gestion des caches.
Le mieux de toutes façons c’est de faire de l’ioping/fio, mais sur ce genre de produit ça na pas vraiment d’intérêt puisque les limites sont assez vites trouvées.
Performances des SSD sous Linux : Jens Axboe vise 8 MIOPS sur 1 cœur avec io_uring
13/10/2021
Le 13/10/2021 à 15h 00
Et à l’inverse on peut bosser pour des boites mal perçues tout en étant quelqu’un de bien (on en connait pas mal). D’ailleurs, ceux qui utilisent du logiciel libre doive en général beaucoup à de tels profils (parce que si t’enlève les grosses boites des contributions kernel par exemple et que tu gardes que les participations de ceux qui ont un avis à donner, ça fait un sacré trou).
PS : quant à définir le bien et le mal, on va s’éviter les cours de philo de comptoir ;)
Le 13/10/2021 à 10h 16
J’ai déjà des choses en cours là dessus
Le 13/10/2021 à 09h 49
Je doute que qui que ce soit utilise Windows pour les usages visés En tous cas les tests de ce genre de composants se fait le plus souvent sous Linux via fio, surtout pour du 512B RR donc je ne penses pas qu’on puisse répondre simplement à la question. Je testerai si je récupère un Optane
Mais sur le fond, l’idée est plus d’obtenir de gros scores avec une lib native du kernel sans avoir à passer par des couches spécialisées comme SPDK par exemple (qui est plus complexe à mettre en œuvre).
Windows : winget 1.1 est généralisé, le sous-système Linux via le Store en preview
12/10/2021
Le 13/10/2021 à 11h 49
Non
Il n’y a rien à configurer
Ca fonctionne tout seul (tu semble confondre avec le serveur OpenSSH)
Je l’utilise au quotidien sans le moindre souci
Le 13/10/2021 à 03h 12
OpenSSH est intégré à Windows 10 depuis un bail
Le 12/10/2021 à 20h 21
Le Store n’a pas besoin de compte pour installer des applications
OVHcloud est de retour après une panne suite à « une erreur humaine »
13/10/2021
Le 13/10/2021 à 09h 44
Le communiqué suite à la panne a été ajouté
Rufus 3.16 permet de passer outre les exigences de Windows 11 (TPM 2.0, Secure Boot)
11/10/2021
Le 13/10/2021 à 03h 19
Tu confonds différents éléments :
L’astuce de registre de MS pour TPM 1.2 est spécifique, on l’a déjà évoquée en en précisant les limites dans un précédent article.
L’astuce ici évoquée ou d’autres modifications du registre fonctionnent même sans TPM. Je l’ai testé ici avec une machine dont TPM a été totalement désactivé (donc pas plus de version 1.2 que 2.0) : sans la modification de Rufus, ça coince, avec ça fonctionne
Si tu as un autre problème, ne pouvant en connaître la raison, je ne peux que t’inviter à opter pour la méthode du registre qu’on a détaillée dès août pour tenter de le résoudre. Mais merci de ne pas accuser les articles qui prennent bien toutes les précautions nécessaires, surtout quand je passe du temps à faire des tests avant de les publier justement pour éviter ce genre de ratés ;)
Le 11/10/2021 à 15h 51
MS n’a pas besoin de ça pour permettre les DRM. Si TPM est là ils peuvent l’utiliser (comme n’importe quel dispositif de sécurité) mais ce n’est pas essentiel à la chaîne (protégée via HDCP) et de toutes façons les fuites sont ailleurs.
Il faut vraiment être à côté de ses pompes (ou troller) pour dire ça par contre. La sécurité est forcément importante pour MS, comme pour tout éditeur d’OS ou de service utilisé au quotidien. Mais la surface d’attaque d’un OS comme Windows est assez large, et l’héritage du PC implique tout de même pas mal de trous dans la raquette qu’ils bouchent avec le temps.
Le sujet n’est de toutes façons pas s’il faut utiliser TPM, SB ou VBS, il le faut. Mais la manière de les mettre en place et de faire bouger l’écosystème (et ça c’est mal fait).
Le 11/10/2021 à 12h 33
W11 c’est W10, donc ça ne change rien là dessus (VT + Passthrough). Pour le reste, si pas de TPM 2.0/SB, pas d’installation possible dans les bidouilles évoquées au fil des articles;
Le 11/10/2021 à 12h 21
J’ai du mal à comprendre le sens exact de la question ?
Le 11/10/2021 à 11h 43
Rien de ferme n’a été annoncé dans ce sens. MS a dit que c’était une possibilité, mais on a toujours les mises à jours sur ces systèmes pour le moment (j’en ai un qui tourne pour surveiller ça notamment).
Netgear dévoile son kit Orbi Wi-Fi 6E quad band… avec WAN 10 Gb/s
12/10/2021
Le 12/10/2021 à 16h 03
Bah disons que ton smartphone, le SFP+, il va pas trop aimer Et pour la qualité du Wi-Fi des box, même récentes, j’espère que tu n’es pas sérieux ?
PS : je ne dis pas que ce kit est au bon tarif, il ne l’est pas. Mais on peut le faire remarquer sans pour autant raconter n’importe quoi sur le sujet des réseaux et du sans-fil
Le 12/10/2021 à 15h 08
Il y a toujours un public, même à ces tarifs là. Mais oui c’est pas du mass market et celui qui veut du 10G, du Wi-Fi 6E et geeker ira sans doute voir ailleurs.
CXL, DDR5, HBM, persistante : la mémoire évolue, VMware s’adapte avec Capitola
11/10/2021
Le 12/10/2021 à 10h 47
CXL c’est quand même la prochaine techno intégrée aux plateformes d’AMD, ARM et Intel, en plus de tout l’écosystème qu’il y a autour, en étant basé sur PCIe, on est loin de la “verrue” faite dans le coin de l’esprit d’un constructeur isolé. D’autant que comme tu le dis, il y a pour le moment une corrélation directe entre la capacité et le nombre/type de CPU, que certains aimeraient bien dépasser.
Pour le reste comme évoqué, des modules tiers n’iront jamais au débit/latence de la DIMM, mais entre des centaines de Go/s à 50 ns et quelques Go/s en dizaines de µs il y a la place pour des éléments intermédiaires. Reste à voir lesquels et comment les gérer, avec quel coût au To (qui reste le point faible de la mémoire, même si certains sont plus contraints par la physique des serveurs que l’aspect coût).
Le 12/10/2021 à 07h 32
Oui c’est un peu le but et l’usage typique qui est visé par tout ce qui touche à la désagrégation mémoire, pouvoir opérer une bonne partie des données en RAM ou équivalent sans forcément avoir besoin de X CPU par volume de RAM si ce n’est pas nécessaire (ou parce que c’est le GPU ou un accélérateur qui traite par exemple). Et du coup faire un peu remonter le “data lake” dans la chaine alimentaire du stockage de données, que ce soit via de la RAM (pour les riches) ou des solutions intermédiaires (pour les autres).
Le 11/10/2021 à 18h 01
Ah ah, c’est pas nécessaire pour le coup, c’est PCIe, hot plug, facile à adapter et 4x/8x ready. Rien que pour les fabricants de NAS ce serait un choix intéressant. Mais il faudrait attendre que ça se démocratise, donc sans doute pas tout de suite
Le 11/10/2021 à 17h 49
C’est pas impossible mais improbable à court terme je pense. Les DIMM restent proche du CPU donc à faible latence (50 ns environ, ça dépend des plateformes) avec un gros débit. La latence répond aussi à des contraintes physiques.
Mais on peut imaginer que ce soit vu comme un cache de niveau 4 avec le pool mémoire qui serve pour le gros du traitement des données à plusieurs To comme ça peut être le cas du stockage actuellement. La question ce sera alors de quoi se compose le pool : de modules à la Samsung ou d’Optane ?
Mais oui, le PCIe c’est déjà l’usb du serveur. D’ailleurs je serais pas contre qu’on remplace les clés USB par des modules E1.S dans le grand public cA une époque on avait des HDD extractible dans presque tous les PC, ça manque
Intel vante les mérites de ses SSD Optane P5800X dans les clusters VSAN
12/10/2021
Le 12/10/2021 à 09h 00
Au moins ton SSD n’est pas HS en 3 semaines
Le 12/10/2021 à 08h 14
Outre le fait que la pratique soit inintéressante, c’est faux : U.2 = PCI Express, donc tu peux très bien en mettre autant que du as de lignes PCIe via des adaptateurs si ta build est inadaptée à l’usage visé.
Le 12/10/2021 à 07h 40
Le particulier n’est pas vraiment le public visé Après certains font le calcul avec le DWPD, si tu fais beaucoup d’écritures le ratio n’est pas déconnant (en DC certains en arrivent à limiter les écriture pour éviter l’usage prématuré par exemple, ce qui est nécessaire sur de la QLC ou même de la TLC dans une certaine mesure). Et oui à l’échelle d’une infra complète de toutes façons…
SmartNIC : Marvell dévoile son DPU Octeon 10 en 5 nm, le 3 nm en approche
08/10/2021
Le 11/10/2021 à 20h 18
Je comprends pas la remarque. ca géré DPDK/SPDK ?
Le 11/10/2021 à 07h 17
Ce n’est pas une présentation PPT, c’est un site Internet, avec des archives. Comme expliqué, on ne définit pas tous les acronymes, c’est une question de contexte. Comme expliqué aussi, il manquait un lien détaillant ce marché, on l’a ajouté ensuite. Tout y est expliqué.
C’est pour ça qu’on essaie de limiter le phénomène.
Non, parce que notre secteur est bourré d’acronymes et qu’on ne peut pas tous les détailler. Donc comme expliqué plusieurs fois : on le fait selon le contexte (et pas selon les connaissances des lecteurs, qui peuvent varier d’un lecteur à l’autre).
Ce n’est pas une thèse, c’est un site Internet
C’est pour ça que je précise que notre choix de ne pas détailler concerne essentiellement les acronymes de base des différents secteurs que l’on couvre, pas la totalité de ceux que l’on peut rencontrer.
Le 11/10/2021 à 03h 17
Oui, mais justement, on ne peut pas parler de cette diversité de sujets comme si on s’adressait à un utilisateur avec 0 connaissances. Il y a des dossiers où on le fait parce que c’est particulièrement nécessaire, mais d’autres où ça n’est pas le cas et où l’on ne détaille pas le “jargon”.
Comme dit, c’est le cas sur tous les sujets depuis toujours et c’est assez logique. Parce que même si un utilisateur débutant arrive ici et ne sait pas ce qu’est un CPU, ce n’est pas le rôle d’une actu qui traite d’Alder Lake-S que de lui expliquer ce que c’est, ni tout l’historique récent d’Intel.
Non, la règle est la même tant pour IH que NXi, sur les composants grand public que pour Pro (donc du SoHo aux DC) ou même des systèmes plus complets.
Oui mais comme dit, il y a des règles. Quand l’acronyme est récurrent, il n’est pas redétaillé. Ici c’est le cas puisque l’on parle des DPU/IPU depuis un peu plus d’un an et qu’on a déjà fait des articles pour les détailler. Sinon ça revient à détailler CPU à chaque fois que je l’utilise. Ou à définir une limite abstraite, et chaque lecteur pensera que la limite n’est pas bonne de son point de vue (qui diffère de l’un à l’autre).
Tu peux préférer Google ou un autre sans problème, même si pour une recherche sur DPU/IPU le moteur interne sera tout à fait suffisant (mais oui, on n’est pas Google).
Je suis par contre en désaccord sur le point de fond : si je vais lire un article sur la physique nucléaire dans un média spécialisé, je ne vais pas reprocher au site en question de ne pas m’apprendre les basses de la fusion/fission. Si cela m’intéresse et qu’il y a des choses que je ne comprends, pas, je m’informe (sur le site ou ailleurs) pour mieux comprendre de quoi il en retourne. Tu n’as pas le temps ? Je comprends tout à fait, j’en manque aussi. Mais ne me reproche pas ton empressement.
Quand un lecteur vient lire un article pour apprendre ce qui compose le dernier DPU de Marvell qui vise essentiellement le marché des SmartNIC, s’il ne sait pas ce qu’est un SmartNIC ou un DPU, il peut aller lire notre article consacré au sujet ou simplement chercher une définition dans son moteur de recherche préféré. De mon point de vue s’il fait ce dernier choix il lui manquera les clés de compréhension essentielles, mais comme tu le fais remarquer, ça ira vite.
Oui et comme dit, c’est une partie de l’enjeu ; mais je le répète, on ne peut pas écrire tout article comme s’il s’adressait à un débutant complet. D’ailleurs je doute qu’un débutant complet vienne s’intéresser au marché des DPU puisse y comprendre quelque chose sans avoir déjà les bases sur tout le reste.
C’est pour ça qu’on fait des papiers pour expliquer ces notions et enjeu. Ce qui nous permet notamment de ne pas avoir à mettre 3 pavés de contexte dans la moindre actualité d’annonce d’un produit.
J’ai admis la boulette dès ma première réponse : on a oublié de mettre le lien du dossier (ça nous arrive et il reste le moteur interne en backup le temps qu’on corrige). Je ne me drape derrière rien, je t’explique juste ce que sont les choix d’une rédaction au quotidien et ce qui guide nos décisions.
Moi j’ai un BTS Electrotechnique, mais je fais ce métier depuis 20 ans. Je pense que du coup, je connais aussi un peu le métier. Mais ce n’est pas une question de savoir imposer sa connaissance à l’autre, je ne cherche pas à te convaincre que j’ai raison, je t’explique juste comment on bosse.
Comme dit plus haut en réponse à son commentaire, l’article est contextualisé. Il ne l’est certes pas pour quelqu’un qui ne connait pas ce marché, mais comme dit, c’est une annonce de produit, pas un guide sur la révolution en cours dans les DC via les SmartNIC (on l’a déjà écrit).
Pour rappel, cet article était en accès libre.
Mais les abonnés s’abonnent pour nous permettre de prendre le temps de leur faire découvrir des sujets de fond, en soutenant un média indépendant et sans publicité, dans le domaine des nouvelles technologies. Cela va du droit au logiciel en passant par des trucs un peu plus tordus du type “que se passe-t-il dans les DC” quand on publie un article sur la connectique jusqu’à 800 Gb/s par exemple.
Ces sujets sont d’ailleurs assez peu traités dans la sphère FR, pour une raison simple : il intéresse moins que le dernier iPhone ou les VPN sur Freebox. On a fait le choix de se focaliser aussi sur ces sujets parce que l’on sait qu’on à un lectorat dont c’est le job (même s’il commente peu) et qu’on a des retours assez positifs sur ces articles, qu’il s’agisse des papiers de fonds ou de la veille produit.
Mais personne ne nous paie pour que je réponde “oui oui tu as raison” (et s’ils le font ils ont tort). Comme je le dis souvent quand on m’accuse d’être parfois un peu rude dans les commentaires, être abonné ne donne pas raison. Mais, abonné ou non, il faut prendre la parole et à donner son avis. Mon rôle c’est de répondre et d’expliquer nos choix dans des cas comme celui-ci.
Je comprends tout à fait le besoin de vulgarisation sur ces sujets très techniques, tout le monde n’étant pas ingénieur bossant en datacenter, mais comme répondu, c’est un travail que nous faisons déjà. Et dans le cas présent, le travail avait été fait. Certes il manquait un lien et on essaie de faire gaffe là-dessus, mais ça ne mérite pas de tels propos.
Tu peux penser que cet article manquait d’une explication en introduction de ce qu’est le marché du SmartNIC parce qu’elle t’aurait aidé à mieux le comprendre, mais je suis en désaccord avec ça pour les raisons évoquées ci-dessus. Cela ne veut pas dire que je n’entends pas ta critique, juste que mes choix et ceux de la rédaction ne reposent pas que sur ce seul critère.
Je comprends que tu ne puisses pas entendre ces arguments, mais la réalité de notre boulot au quotidien, lorsque l’on a un lectorat et des sujets très diversifiés, c’est aussi ça : accepter de décevoir quels que soient les choix. Mais au moins maintenant, tu en sais plus sur les DPU. Next step : CXL, la cohérence mémoire et le computational storage (d’ailleurs j’y retourne ).
Bonjour plutôt
Le 11/10/2021 à 02h 39
Ce n’est pas forcément que pour du DC, dans tous les cas c’est lié à tous les articles sur NVMe-oF notamment puisque ça permet de décharger pas mal ces usages-là en particulier (même si selon les types de solution, on peut plus ou moins y décharger des choses ou effectuer des traitements annexes hors CPU).
Et pas ceux avant les 15 derniers jours ? C’est du beau !
Le 10/10/2021 à 14h 58
Je le dis régulièrement mais dire ça c’est nous demander de tout définir parce que quelqu’un pourrait ne pas comprendre tel ou tel terme, chacun ayant un niveau de connaissance différent. Ce serait rendre les articles illisibles, donc on a des règles en la matière.
D’ailleurs, un tooltip ne résoudrait pas le problème sur le fond. Pas plus que détailler les acronymes, pour une raison simple : IPU et DPU par exemple définissent des produits similaires (comme SmartNIC). Détailler n’aiderai pas à le comprendre. Comme le je dis aussi assez souvent, ces sujets sont complexes et demandent de s’y intéresser. Si on simplifie, on passe le plus souvent à côté de l’essentiel.
Du coup, on préfère faire des papiers qui définissent les sujets/termes récurrents. On le fait dès qu’on a un besoin régulier (comme ça a été le cas sur les SmartNIC) ou une demande (comme sur U.3/E.3) et qu’on a une plus-value à apporter par rapport à une page Wikipédia. C’est un travail qui prend du temps, mais qu’on essaie de faire de manière systématique pour que chacun puisse s’y référer.
Quand on a pas de telles ressources on renvoie en général sur un lien tiers même si on essaie d’éviter le côté “arbre de Noël des liens”. Parfois on ne le fait pas volontairement ou on zappe (on reste humains après tout). Mais tous les navigateurs contiennent la fonction “Clic droit/Rechercher”.
La règle générale c’est que quand on fait un papier sur un sujet technique, on ne détaille jamais les termes « bateau » en lien avec ce sujet (je ne détaille pas SSL, L2 ou L3 par exemple) quand on la traite régulièrement comme c’est le cas ici. DPU et IPU sont concernés, tout comme APU, CPU, GPU, TDP/TGP lorsque l’on parle de processeurs et de cartes graphiques, ou PWM quand on parle de ventilation.
Par contre il faudrait éviter d’abuser. Un article incompréhensible c’est un article qui n’a pas de sens, ici ce n’est pas le cas. Que tel ou tel ne puisse pas totalement le comprendre sans des informations qui lui manquent c’est autre chose. Mais c’est mon quotidien que d’écrire sur des sujets que les gens ne maîtrisent pas toujours. Cela peut arriver et c’est normal, c’est comme ça qu’on apprend.
Mais je fais de mon mieux pour les aider à s’y retrouver, à travers les liens et articles du site. Comme dit plus haut, le plus souvent on a déjà toutes les ressources pour aller plus loin déjà en ligne. Mais je ne peux pas tout faire à la place des lecteurs.
J’ajoute un point là dessus, parce que je comprends mal cette partie de la remarque. Je parle volontairement des solutions concurrentes (avec des liens présentants chacune) et donc de l’écosystème en entrée de papier (en expliquant bien qu’on parle d’accélérateurs dédiés au stockage et au réseau principalement).
Du coup je ne vois pas en quoi il manque du contexte sur l’écosystème. Si c’est parce que je ne détaille pas chaque solution concurrente, c’est plutôt logique (parce que ce n’est pas du tout l’optique de ce genre de papiers, qui n’est pas un comparatif du marché, on a d’autres choses en cours là dessus).
Le 10/10/2021 à 07h 50
Je le dis souvent, mais sur ce genre de papiers on s’adresse tout de même à un lectorat qui suit ce secteur, donc non, on ne redétaille pas tout sinon c’est imbuvable à lire et répétitif. Pour le reste, on a consacré un article au sujet ;) Le plus souvent, on met des liens, mais parfois on oublie. C’est pour ça qu’il y a un moteur de recherche sur le site
La Yubikey Bio avec lecteur d’empreinte digitale est disponible : comment ça marche ?
06/10/2021
Le 11/10/2021 à 17h 06
Le statut d’abonné ou pas ne joue pas sur mon comportement (il n’y a pas de raison de moins bien répondre à un lecteur non abonné), je m’adapte juste aux propos et je réponds honnêtement. Ma première réponse était simple : les deux éléments n’ont rien à voir. J’ai imagé ensuite pour essayer de faire comprendre mon propos puisqu’apparemment ça n’était pas assez clair. Je doute qu’on puisse voir un manque de respect dans une métaphore.
Je ne dis pas que la question est débile, comme j’essayais de te le faire comprendre avec l’olive et la pizza, ce ne sont pas parce que deux éléments peuvent servir dans la même action que leur rôle est similaire ou comparable. Du coup on ne peut répondre à ta question initiale (autrement qu’en précisant ce que j’ai répondu). Quand je parle de l’article non lu, c’est parce que, comme je l’ai dit dans une précédente réponse, l’explication de ce à quoi sert une clé de sécurité (et donc la différence intrinsèque avec un gestionnaire de mots de passe) est dans l’article.
Le problème vient initialement du fait que tu compares l’action et pas la fonction. De ton point de vue, comme les deux peuvent jouer un rôle dans une connexion, on peut les comparer et donc voir un avantage à l’un ou l’autre alors qu’ils sont plutôt complémentaire. Un peu comme on met un trousseau de clé dans un manteau. Le manteau peut aussi contenir un tag NFC pour entrer automatiquement, pour autant on ne peut pas venir dire quel est l’avantage d’un manteau sur un trousseau de clé.
Le 09/10/2021 à 12h 59
J’aide dans les commentaires régulièrement, j’ai meme répondu à ta question le plus simplement possible. Mais tu pars du principe que ma réponse n’est pas bonne. Donc effectivement autant en rester là.
Le 09/10/2021 à 10h 02
Tu fais une équivalence entre les deux, ça revient au même ;) Et oui, j’image le propos pour que tu comprennes le problème de la question initiale (à laquelle on ne peut du coup par répondre). Pour le reste et comme dit, je ne fais que répéter ce qui est déjà dans l’article.
WD annonce ses SSD Red SN700 pour les NAS et Blue SN570 pour les « créateurs »
08/10/2021
Le 11/10/2021 à 10h 20
Oui et non, la segmentation en gamme peut avoir son intérêt. Le souci c’est surtout que ce qu’il y a derrière ces gammes n’est pas cohérent dans le temps et clairement identifié. Mais par exemple, le SN700 pour NAS c’est une présentation cohérente, même si ça risque de pas plaire à ceux qui ont payé un Black plus cher avec des specs similaires et une endurance moindre
U.3, E1.S/L et E3.S/L : dans les serveurs, les SSD changent de format
11/10/2021
Le 11/10/2021 à 10h 16
Comme dit en réponse, c’était un papier déjà en cours (pour tout un tas de raison), j’ai juste isolé la partie U.3/E1/E3 qui était de toutes façons déjà assez importante pour se suffire à elle-même
T’as encore un peu de temps, de ce que je vois, tout le monde attend CXL pour E3 (qui arrive avec SPR côté Intel et Zen 4 côté AMD, donc mi-2022). Pour E1 on voit déjà quelques initiatives, mais ça a pas mal été freiné par la guerre Samsung/Intel des débuts et c’est surtout l’arrivée de modèles E1.S qui commence un peu à débloquer tout le monde. Mais sur le fond, ça promet du bond pour les baies full-flash (entre autre avec l’arrivée d’accélérateurs/modules hot plug en E3.S).
Micron lance des SSD 7400 Pro/Max pour datacenters : du PCIe 4.0 (NVMe) en trois formats
07/10/2021
Le 09/10/2021 à 21h 59
Un P5800X c’est plutôt 5 us Mais outre les performances, c’est le fait qu’elles tiennent dans la durée qui importe pour les usages visés. Parce que les SSD qui tiennent la route 30 secondes ça le fait pas trop en datacenter
Le 09/10/2021 à 13h 25
Oui souvent on nous demande de parler de tel ou tel sujet sur Twitter et j’explique que c’est déjà fait
Le 09/10/2021 à 13h 04
On essaie surtout de parler de ces solutions au bon moment, quand ça se développe concrètement sur le marché. Comme dit sur EDSFF il y a des choses en cours lié à des articles qui arrivent, je verrais pour isoler un bout pour faire un point si ça vous semble nécessaire.
On a un spectre large mais il faut faire des choix. Parler de tout c’est aussi prendre le risque de noyer l’essentiel. Et d’expérience ça n’est utile ni pour le média ni pour le lecteur, par contre pour Kioxia, on a suivi depuis le rachat
Alder Lake, SFX 12VO, Dual Connect : comment les NUC d’Intel vont évoluer d’ici 2022
08/10/2021
Le 09/10/2021 à 15h 12
Oui la dispo est pas simple en ce moment. T’as regardé sur IamNUC ? Ils référence à peu près tout le catalogue de mémoire (Même les portables et Compute Elements)