Ce sera sans doute différent pour les VM (ou alors les hyperviseurs auront enfin droit à un pilote DX12 ?
Le
25/06/2021 à
06h
52
(reply:57989:dvr-x)
Non, c’est juste que dans ce cas on sait que ça va être un sujet donc on essaie d’anticiper, surtout sur des sujets qu’on maitrise pas mal depuis le temps et où on sait qu’on peut facilement être didactiques, là où les médias tech/lifestyle vont vite recopier des trucs lus vite fait ici ou là.
Autant qu’ils reprennent un article correct à la base
ce qui expliquer peut-être pourquoi certains ont une machine indiquée comme non compatible, alors qu’ils ont bien tous les autres prérequis d’actifs (TPM 2.0, DirectX 12, Secure Boot, etc.)…
comme d’hab. quoi, avec ‘Microsoft’ ! du grand ‘n’importe.quoi’ (il vas y-en avoir des déçus)
Oui après je doute que MS refuser l’installation de W11 parce qu’un CPU n’est pas dans la liste. Je pense que l’outil fourni est mauvais mais que ça s’arrêtera là. On verra une fois les préversions en ligne. L’approche TPM 2.0/DX12 est maladroite mais ça passe vu l’antériorité de ces technos (près de 10 ans) et leur utilité pratique. La restriction via la liste CPU n’a pas de sens par contre.
Le
25/06/2021 à
06h
17
Oui, après techniquement il n’y a rien qui justifie de le rendre obligatoire en l’état. Cela aurait pû être fait en deux temps : une alerte pour W11, une obligation pour une révision ultérieure. Parce qu’en l’état, pas mal de gens ne savent pas ce que c’est, comment l’activer, etc.
Que Bitllocker repose sur TPM hors d’un chiffrement par mot de passe, on s’en fout un peu au regard des problèmes que cette décision va engendrer (comme la limitation de la liste CPU qu’on a un peu de mal à comprendre pour le moment).
Le
25/06/2021 à
06h
14
On a ajouté des guides pour TPM/DX12 et quelques détails sur les prérequis
Le
24/06/2021 à
18h
58
dtb06 a dit:
Je ne comprends toujours pas. J’ai activé “firmware TPM” dans l’EFI maintenant dans tpm.msc j’ai un statut OK mais l’outil me dit toujours que mon PC n’est pas compatible…
Peut être autre chose qui manque. Avec un peu de chance l’outil va être revu pour donner plus d’infos (mais il semble y avoir des cas où il détecte mal, à voir)
Dyfchris a dit:
Est-ce qu’ils ont touché ne serais-ce qu’un mot sur le Volume Licence ?
Trop tôt
Le
24/06/2021 à
18h
31
Tu as activé (f)TPM avant de sortir ton smiley ? ;)
Le
24/06/2021 à
18h
17
v77 a dit:
Les gens qui sont perdus achèteront une nouvelle machine avec Windows 11 préinstallé. Les constructeurs remercient une fois de plus Microsoft de les aider à relancer les ventes.
“Les gens” ont vécu des années sous Windows XP/7, ils survivront de ne pas passer dans la seconde à Windows 11 ;)
pamputt a dit:
4 Go de mémoire vive pour faire tourner uniquement le système d’exploitation. Heureusement que la RAM ne coute plus très chère pour que plus personne ne s’en émeuve
Il y a des version de Windows pour le marché de l’embarqué si c’est ça que tu recherches.
Le
24/06/2021 à
16h
44
Oui, j’ai un CPU AMD, donc pas de TPM. Je me doutais que ça venait de là.
Comment ça AMD donc pas de TPM ? Aucun rapport.
Le
24/06/2021 à
16h
31
Les adeptes de Linux y verront Linux, les adeptes de macOS y verront macOS. Sur le fond, les choses évoluent, chacun avec des différences même s’il y a des similarités, c’est le principal ;)
Le
24/06/2021 à
15h
58
Pas forcément, mais il y a des similarités stratégiques. Avec une certaine nullité dans le niveau des annonces et de capacité à captiver l’audience, j’avoue
Il n’y a pas de fournisseur particulier, ils développent tout sur cette partie avec leurs partenaires (comme pour la partie ARM sur une base de neoverse)
Le
23/06/2021 à
15h
14
Tu as mal compris je suppose. L’EPI utilise RISC-V et développe ses propres solutions dessus via ses partenaires (voir le lien, l’article, toussa). Ils n’exploitent pas d’IP SiFive à ma connaissance.
Le
23/06/2021 à
03h
44
C’est l’inverse, et comme dit l’important c’est surtout la perf/mm² à finesse de gravure identique, le reste c’est plutôt de l’organisation architecturale.
Jeanprofite a dit:
Il faut donc comprendre que c’est mieux qu’ARM. Cependant c’est à relativiser en ayant conscience que l’ARM Cortex-A75 date de 2017.
Oui mais c’est un premier pas. Que RISC-V s’approche d’ARM si vite st intéressant, surtout si le support logiciel suit aussi rapidement et que l’efficacité énergétique est au rendez-vous (ce qui n’est sans doute pas le cas puisque ce n’est pas du tout mis en avant ici).
De mémoire c’était limité sur DSM 6.x non ? je ferai une vérification (mais ça faisait partie des éléments que j’avais noté comme nouveau dans DSM 7.0 et bloquant dans la 6.x)
Le
23/06/2021 à
10h
29
On verra, là ils vont de toutes façons se concentrer sur les évolutions de C2 et la branche 7.x, on verra quel sera le rythme devant mener à une éventuelle 8.x. On va attendre que le nouveau DSM soit en ligne avant de faire un post mortem + perspective pour la suite sur ce point là ;)
C’est simple, dans la bataille RISC versus CISC, c’est CISC qui a gagné grâce au recours à du CISC émulé par du RISC
CISC/RISC c’est plus un sujet depuis longtemps. C’est surtout ceux qui ont vécu cette bataille qui pensent qu’elle est encore d’actualité. Mais bon, du ARM récent c’est plus si RISC que ça.
RISC-V c’est différent, mais ça évoluera dans le même sens.
sanscrit a dit:
c’est plus stratégique que cela, RISC-V dont la fondation est en suisse a l’ambition de fournir au monde, l e jeux d’instruction sans royalties, ni risque d’embargo, ni quoique ce soit. Il ne peuvent pas être racheter avec ce statut de fondation, c’est un projet a long terme.
Attention tout de même : l’ISA de base est libre, mais ce qui se construit au-dessus pas forcément. Et on voit déjà que le modèle c’est de proposer des solutions autour de RISC-V à vendre à ceux qui veulent du clé en main. C’est une approche différente d’ARM mais qui aura ses rapprochements au final.
Le
24/06/2021 à
07h
41
Il y a différentes cartes RISC-V, certaines sur le modèle du RPi (voir du côté de Beagle ou Pine64 de mémoire), il y a même des micro-contrôleurs. Mais oui, les HiFive visent des objectifs un peu plus élevés et ça reste encore de la production limitée, donc forcément plus chère que s’il s’en vendait des millions
(quote:57987:phantom-lord) Merci beaucoup pour cet article.
Pas de quoi
Le
25/06/2021 à
06h
28
Comme dit, les carte mères avec un module ne sont pas forcément TPM 2.0 et si c’est le cas la version firmware est en général présente. Si ce n’est pas le cas, il y a de grandes chances que la machine ne soit pas compatible pour d’autres raisons de toutes façons, donc autant éviter une dépense inutile.
Ce sera d’autant plus intéressant de voir la pirouette qu’ils vont trouver pour justifier le changement de nom. Ils ont sans doute anticipé le merdier dans lequel ça allait les mettre :transpi;
Oui c’est un des objectifs je suppose, de croiser 21H2, des morceaux de 10X, Sun Valley, d’autres éléments en préparation (on verra ce qui sera évoqué ou non ce soir). J’espère surtout qu’ils vont parler du plan à plus long terme derrière ce qui est prévu pour la rentrée. Sans ça…
Il y a encore trop de travail. Le panneau de configuration ne disparaîtra que quand Windows aura un dispositif de backup digne de ce nom Et à mon avis, c’est un élément bien plus important à faire transiter vers une solution moderne que le panneau de config qui garde ses habitués.
Le
24/06/2021 à
12h
35
Cetera a dit:
Faut il y voir une dynamique de MS qui accompagne celle d’Intel depuis la nomination de Pat Gelsinger? J’ai l’impression que dans beaucoup de boites l’ingénierie reprend ses droits. Non?
Tout ce qui touche à Alder Lake est antérieur à l’arrivée de PG, son support dans W11 sans doute aussi. Le pouvoir entre politique et technique est souvent cyclique dans les grandes entreprises, américaines notamment. Tout l’enjeu pour de telles sociétés, c’est que cela ne se ressente pas dans les gammes de produit (ce que réussisent bien MS/NV dernièrement, pas trop AMD/Intel).
Surtout que comme dit, les enjeux de MS sont au-delà de x86 désormais. Il en est de même pour Intel d’ailleurs, (mais contrairement à MS, ils l’ont compris et mis en oeuvre il y a un moment )
Le
24/06/2021 à
12h
12
Windows évolue, la qualité des trolls non
PS : on a fait un dossier assez complet sur l’évolution de Windows, le lien est en fin d’article
Krymson a dit:
Oh gratuit c’est sur, trop dangereux de demander des sous !
Ce n’est pas une question de danger, le modèle de MS n’est plus celui là depuis longtemps, c’est surtout ça. Pour tes souvenir, voir le début de l’article ;)
Le
24/06/2021 à
12h
07
Oui c’est un peu le problème et il sera difficile de marquer le coup outre mesure (surtout si le gros des nouveautés son Sun Valley et ce qui était prévu pour 21H2). On verra aussi comment ils parlent de l’intégration de Xbox et éventuellement du Cloud PC (mais je doute que ça occupe une grande part des annonces si c’est évoqué, on verra).
Pour les utilisateurs, je pense au contraire que c’est eux la cible principale du changement de nom. Cela sonne “nouveau” alors que Windows 10 a déjà pas mal d’années quand même. Mais comme tu le montres assez bien, ça risque de les faire s’interroger sur la question d’une éventuelle tarification de la mise à jour (même si ce n’est plus vraiment un sujet pour MS)
dylem29 a dit:
meilleures utilisations de la RAM
Ne jamais oublier qu’un OS “qui prend peu de RAM” n’est pas forcément un OS qui gère bien la mémoire. La mémoire est là pour être utilisée, elle a un gros débit, peu de latence, permet de booster la réactivité. L’important c’est comment l’OS évite les débordements.
Mais un OS qui sait remplir la RAM d’éléments pertinents sans se faire déborder la gère bien mieux qu’un OS qui ne place jamais rien en mémoire pour apparaître économe.
Pour Sway (le wiki étant communautaire), ils disent :
All proprietary graphics drivers are unsupported. This includes the Nvidia proprietary driver. The open source Nouveau driver is required instead. This is not going to change, don’t ask. Tip: buy your hardware with open source support in mind.
Je vois ça plus comme une position “politique” qu’un prérequis technique. Comme déjà dit dans d’autres cmmentaires sur le sujet, je peux comprendre la position et ses motivations, mais elle ne concernera qu’une partie des utilisateurs. Et si la raison est technique, autant l’écrire tel que.
De mémoire le support de Wayland est en cours et a été annoncé (mais je n’ai plus de date en tête). Pour le support par défaut, tu parles d’Ubuntu non ? Après tu fais référence à nForce, ça date pas mal hein Mais comme je dis souvent, si on est content d’une marque plutôt que d’une autre c’est le principal.
Certains ont plutôt un critère sur l’ouverture des pilotes, d’autres sur l’accès à des fonctionnalités comme CUDA/OptiX et toute la stack qui va avec. Comme dit plus haut, il faut juste éviter de confondre “le pilote n’est pas libre” et “NVIDIA est contre l’open source”. Toutes ces sociétés privées on des briques ouvertes, d’autres non. La différence se jouant sur leur stratégie et le positionnement de la limite.
Le
22/06/2021 à
19h
35
De mémoire Optimus fonctionne sous Linux (d’ailleurs le nouveau pilote doit apporter des améliorations là dessus je crois)
PS : je le dis souvent et je sais qu’il est tentant d’avoir une vision réduite des choses, mais NVIDA produit pas mal d’open source, est assez largement présent sous Linux ne serait-ce que pour soutenir l’écosysème développeurs CUDA, son portage ARM, etc. On ne peut pas tout réduire à des pilotes.
Le
22/06/2021 à
16h
39
(reply:57934:Pieryck A.)
Il n’ont rien confirmé de spécial, c’est annoncé comme ça dès le départ. Il n’y a pas besoin de pilote pour que ça fonctionne côté Intel/NVIDIA, juste que celui-ci est optimisé par AMD je suppose. Pour une CG ce ne sera pas un sursis vu les jeux supportés (à moins de ne jouer qu’à un d’entre eux)
On sait le faire et on le fait (voir ici par exemple). Mais pas sur le marché grand public où l’on reste sur des PCB assez compacts et des tarifs plus “raisonnables”
Le
22/06/2021 à
08h
08
Note que si on avait plus de puces flash sur un même SSD ce serait pareil côté endurance. C’est juste que c’est pour le moment impossible d’aller à 16 To sur un seul PCB M.2 du coup, ils doublent.
Je ne comprends pas ce que tu veux dire avec la seconde partie. La demande est de déplacer le VMM dans le SmartNIC, ce n’est pas une invention de VMware pour faire de la licence, c’est un fait de marché et une demande de certains clients (voir le précédent article). Je ne vois pas ce qu’un pilote aurait pu changer à ça ?
Le
22/06/2021 à
10h
34
Ils ne faut pas oublier que tout le monde ne guide pas ses choix selon la gratuité ou non d’une solution, mais si elle répond au besoin. L’écosystème VMware répond à certains besoins, notamment de ceux qui voudront intégrer des solutions dans des SmartNIC. Après si l’on peut se contenter de KVM on a tout intérêt à le faire.
Oups (fixed, mais on a une fonction pour signaler les erreurs en évitant de passer par les commentaires, ce qui va souvent plus vite )
Le
22/06/2021 à
06h
38
Le
21/06/2021 à
17h
11
Non, c’est juste que quand une boite à un besoin d’offload qui devient industriel (et à l’échelle d’AWS ça l’est), l’ASIC est une bonne solution, surtout qu’Annapurna a été acheté pour ça.
Le FGPA c’est surtout quand ce besoin doit être programmable et peut évoluer dans le temps ou qu’on doit pouvoir se reposer sur du matériel pouvant être utilisé à diverses fin (Intel proposant aussi ses eASIC entre les deux). C’est aussi moins coûteux sur une plus petite échelle.
L’idée derrière les SmartNIC avec SoC/GPU étant d’aller vers des solutions entièrement programmables via des outils ayant pignon sur rue (un développeur CUDA étant plus simple à trouver qu’un développeur FPGA ) pouvant répondre à des besoins très divers.
Ce sont des solutions intéressantes à l’échelles de CSP par exemple, qui peuvent les utiliser pour leur propres besoin ou les mettre à disposition des clients, sans avoir à viser des usages trop précis par exemple (c’est aussi pour ça qu’on retrouve souvent du GPU chez les CSP mais rarement du GraphCore trop spécifique pour ce type de client).
Le
21/06/2021 à
16h
10
Tu oublies que l’informatique se résumait aux mainframes à l’époque on en est loin aujourd’hui. Ces solutions sont utilisées pour le cloud, qui centralise en partie (c’est le but). Mais tu peux avoir une approche multi-cloud, l’intégration matérielle est là pour libérer des performances, etc. Bref, rien à voir.
PS : “la fin de la loi de Moore” est une stratégie de comm’ de NVIDIA.
Le
21/06/2021 à
14h
19
Autant je pense qu’on peut faire certains // entre le tout cloud et les mainframes, autant comparer ce qui est fait ici avec ce type d’infrastructure, c’est passer un peu à côté du sujet ;)
zuxupi a dit:
Merci pour l’article, tres interessant en effet ! En plus, ce sont des technos plus originales qu’on n’a pas l ‘habitude de voir.
Oui ça reste un peu sous les radars (ou alors des reprises de CP quand tel ou tel truc est annoncé). C’est intéressant de se plonger un peu dans ce genre dévolutions de fond et comment elles sont implémentées par différents acteurs
Oui de mémoire ils ont eu des soucis de chauffe et c’est sans doute pour ça que les modèles Ryzen 9 ont été abandonnés depuis. Pour le boot plus court sur VPS c’est assez logique, c’est une instance, un serveur physique avec IPMI/BMC & co à booter ça prend un certain temps (ce n’est pas spécifique à OVHcloud ou aux processeurs EPYC).
Si, c’est toujours le fruit d’un réseau de neurones et donc d’un entrainement. Mais il n’est plus spécifique par jeu, ne nécessite plus d’être adapté pour telle ou telle définition. Il est plus agnostique, même s’il nécessite une implémentation (via le moteur ou autre)
Attention tout de même aux équivalences, les CPU/GPU ne sont pas les mêmes que sur un PC classique (un i7 mobile et desktop ce n’est pas la même définition) et les composants mobiles ont une contrainte TDP assez forte du fait de leur encombrement/refroidissement réduits, donc sont moins performants.
Je ne vois pas trop le rapport avec la question. Google compresse bien comme il veut sur ses propres plateformes on s’en moque un peu. La question c’est ici de savoir si la compression côté serveur est effectué sur le GPU ou via son unité dédiée. C’est le second cas.
Le
19/06/2021 à
07h
56
Comme indiqué plus haut, c’est effectué par le moteur NVENC. Passer par des cartes dédiées n’aurait aucun sens, en terme de coût ou de performances globales.
RISC-V appartient à une fondation, je doute qu’elle soit à vendre ou que ça servirait à quoi que ce soit de l’acheter.
Il n’y a semble-t-il pas de licence à payer
Pas pour l’architecture de base. Mais elle ne suffit pas à tous les usages. Du coup des sociétés développent des blocs d’IP complémentaires à utiliser dans des SoC (c’est le modèle économique de SiFive notamment).
Il peut y avoir de la concurrence comme entre Intel et AMD.
C’est déjà le cas, mais on ne peut pas faire des CPU équivalent à ce que proposent AMD et Intel sur une base RISC-V, sans parler de la question de la compatibilité.
Arm est seule, c’est un monopole de fait.
ARM propose des architectures, comme d’autres sur base x86, ou RISC-V (entre autres, coucou IBM), il n’y a pas de monopole. A la limite, on pourrait penser que c’est le cas sur mobile, mais c’est simplement une couche de design, chacun fait ce qu’il veut ensuite, la concurrence est là comme le montre la diversité de l’écosystème.
D’ailleurs, et quand Intel a tenté de rentrer sur ce marché, nombreux étaient ceux à se réjouir qu’ils n’y parviennent pas de mémoire. On voit à quoi ça peut mener ;)
J’attends avec intérêt l’esp32-C3, le successeur de l’ESP8266 qui exploite un coeur Risk-V. J’espère qu’il sera bien soutenu par la communauté des makers.
Sans doute, mais quel est le rapport avec le sujet qui nous occupe ? PS : il y a déjà des micro-contrôleurs RISC-V et cartes de dev basées sur cette architecture.
Le
19/06/2021 à
08h
43
(reply:1880710antonQ-Robespierre)
NVIDIA publie pas mal d’OSS, ils ne le font par contre pas pour leurs pilotes (ce qui ne les empêche pas de contribuer ici ou là). On peut le regretter, choisir ses composants selon ce critère.
Mais je vois mal le rapport avec le sujet. ARM n’est pas une boite totalement ouverte, elle vend des licences et vit donc du fait qu’il faut payer pour accéder à ses designs et les exploiter. Et on ne peut pas dire que l’écosystème ARM soit la fête de l’ouverture côté pilote ou accès logiciel à l’ensemble des composants, même dans des solutions comme le RPi par exemple.
Pour rappel, le design ne décide d’ailleurs pas de ce point, ça dépend de celui qui conçoit et farbrique la puce, ainsi que sa couche logicielle, que de la développer en OSS ou non.
AMD est pour rappel une société de droit privé qui conçoit des designs de CPU/GPU pour les utiliser à son propre profit ou via des licences vendues à des tiers. L’ouverture d’une partie de sa couche logicielle est un autre sujet, qui dépend de sa stratégie plus que de son modèle économique.
Sur ces sujets, il faut veiller à ne pas tout mélanger, ça sert mal les analyses.
Le
18/06/2021 à
11h
49
Non le moteur PhysX en tant que tel a continué à être utilisé et distribué sur toutes les plateformes (notamment les consoles), ce qui est spécifique à NVIDIA c’est l’accélération matérielle via CUDA (m’enfin dans les jeux actuels ce n’est presque plus utilisé puisque plus vraiment nécessaire de toutes façons). Et je vois mal en quoi les deux situations sont comparables;
L’erreur c’est de penser qu’il y a des erreurs. Une solution passive peut être un besoin, ou être simplement une envie. D’ailleurs, ton postulat semble oublier qu’il n’y a pas que le gaming dans la vie. Certains recherchent le passif sur des dispositifs où c’est assez aisé comme la bureautique, un petit serveur, etc. Un Raspberry Pi peut être passif. Ce n’est pas “une erreur”.
Sur le fond, il y a différentes manières de faire des machines plus ou moins silencieuses, Noctua ne dit d’ailleurs pas le contraire en proposant une solution semi-passive sur base de son NH-P1. Il faut par contre éviter de confondre “cela ne me convient pas” avec “c’est inutile”
L’idée de tels systèmes est de disposer de larges radiateurs permettant d’encaisser des TDP plus important que sur des modèles classiques, notamment les pointes de chaleur. L’extraction, elle, se fait de manière naturelle (convection) ou active mais avec peu de points d’extraction (un ventilo basse vitesse). Cela limite, comme tu le dis, la possibilité qu’un élément vienne ruiner l’ensemble.
Car dans un système informatique que l’on utilise au quotidien, il n’y a pas que le choix de base qui peut poser problème, mais aussi l’usure. Un seul ventilo c’est une seule pièce mécanique à entretenir et à changer en cas de souci .
Le
18/06/2021 à
15h
20
Le throttling c’est un dispositif de sécurité (quand on dépasse les 90/100°C en général), la gestion de la fréquence se fait aussi en amont de manière plus classique. C’est forcément pus difficile d’arriver à cet état avec un CPU à 35 watts, mais pas impossible (surtout en passif).
15083 commentaires
DirectX 12 et WDDM 2.x : votre carte graphique est-elle compatible ?
25/06/2021
Le 25/06/2021 à 07h 36
Ce sera sans doute différent pour les VM (ou alors les hyperviseurs auront enfin droit à un pilote DX12 ?
Le 25/06/2021 à 06h 52
Non, c’est juste que dans ce cas on sait que ça va être un sujet donc on essaie d’anticiper, surtout sur des sujets qu’on maitrise pas mal depuis le temps et où on sait qu’on peut facilement être didactiques, là où les médias tech/lifestyle vont vite recopier des trucs lus vite fait ici ou là.
Autant qu’ils reprennent un article correct à la base
Microsoft publie la préversion de Windows 11, du Store et revient sur la compatibilité
28/06/2021
Le 25/06/2021 à 07h 35
Oui après je doute que MS refuser l’installation de W11 parce qu’un CPU n’est pas dans la liste. Je pense que l’outil fourni est mauvais mais que ça s’arrêtera là. On verra une fois les préversions en ligne. L’approche TPM 2.0/DX12 est maladroite mais ça passe vu l’antériorité de ces technos (près de 10 ans) et leur utilité pratique. La restriction via la liste CPU n’a pas de sens par contre.
Le 25/06/2021 à 06h 17
Oui, après techniquement il n’y a rien qui justifie de le rendre obligatoire en l’état. Cela aurait pû être fait en deux temps : une alerte pour W11, une obligation pour une révision ultérieure. Parce qu’en l’état, pas mal de gens ne savent pas ce que c’est, comment l’activer, etc.
Que Bitllocker repose sur TPM hors d’un chiffrement par mot de passe, on s’en fout un peu au regard des problèmes que cette décision va engendrer (comme la limitation de la liste CPU qu’on a un peu de mal à comprendre pour le moment).
Le 25/06/2021 à 06h 14
On a ajouté des guides pour TPM/DX12 et quelques détails sur les prérequis
Le 24/06/2021 à 18h 58
Peut être autre chose qui manque. Avec un peu de chance l’outil va être revu pour donner plus d’infos (mais il semble y avoir des cas où il détecte mal, à voir)
Trop tôt
Le 24/06/2021 à 18h 31
Tu as activé (f)TPM avant de sortir ton smiley ? ;)
Le 24/06/2021 à 18h 17
“Les gens” ont vécu des années sous Windows XP/7, ils survivront de ne pas passer dans la seconde à Windows 11 ;)
Il y a des version de Windows pour le marché de l’embarqué si c’est ça que tu recherches.
Le 24/06/2021 à 16h 44
Comment ça AMD donc pas de TPM ? Aucun rapport.
Le 24/06/2021 à 16h 31
Les adeptes de Linux y verront Linux, les adeptes de macOS y verront macOS. Sur le fond, les choses évoluent, chacun avec des différences même s’il y a des similarités, c’est le principal ;)
Le 24/06/2021 à 15h 58
Pas forcément, mais il y a des similarités stratégiques. Avec une certaine nullité dans le niveau des annonces et de capacité à captiver l’audience, j’avoue
SiFive (RISC-V) annonce ses cœurs P270, P550 et s’associe à Intel
22/06/2021
Le 25/06/2021 à 07h 01
Il n’y a pas de fournisseur particulier, ils développent tout sur cette partie avec leurs partenaires (comme pour la partie ARM sur une base de neoverse)
Le 23/06/2021 à 15h 14
Tu as mal compris je suppose. L’EPI utilise RISC-V et développe ses propres solutions dessus via ses partenaires (voir le lien, l’article, toussa). Ils n’exploitent pas d’IP SiFive à ma connaissance.
Le 23/06/2021 à 03h 44
C’est l’inverse, et comme dit l’important c’est surtout la perf/mm² à finesse de gravure identique, le reste c’est plutôt de l’organisation architecturale.
Oui mais c’est un premier pas. Que RISC-V s’approche d’ARM si vite st intéressant, surtout si le support logiciel suit aussi rapidement et que l’efficacité énergétique est au rendez-vous (ce qui n’est sans doute pas le cas puisque ce n’est pas du tout mis en avant ici).
Synology : DSM 7.0 le 29 juin, C2 gagne de nouveaux services, un routeur Wi-Fi 6 arrive
23/06/2021
Le 25/06/2021 à 06h 55
QuTSHero
Le 23/06/2021 à 12h 21
De mémoire c’était limité sur DSM 6.x non ? je ferai une vérification (mais ça faisait partie des éléments que j’avais noté comme nouveau dans DSM 7.0 et bloquant dans la 6.x)
Le 23/06/2021 à 10h 29
On verra, là ils vont de toutes façons se concentrer sur les évolutions de C2 et la branche 7.x, on verra quel sera le rythme devant mener à une éventuelle 8.x. On va attendre que le nouveau DSM soit en ligne avant de faire un post mortem + perspective pour la suite sur ce point là ;)
Canonical adapte Ubuntu aux cartes HiFive Unmatched et Unleashed de SiFive (RISC-V)
23/06/2021
Le 25/06/2021 à 06h 55
CISC/RISC c’est plus un sujet depuis longtemps. C’est surtout ceux qui ont vécu cette bataille qui pensent qu’elle est encore d’actualité. Mais bon, du ARM récent c’est plus si RISC que ça.
RISC-V c’est différent, mais ça évoluera dans le même sens.
Attention tout de même : l’ISA de base est libre, mais ce qui se construit au-dessus pas forcément. Et on voit déjà que le modèle c’est de proposer des solutions autour de RISC-V à vendre à ceux qui veulent du clé en main. C’est une approche différente d’ARM mais qui aura ses rapprochements au final.
Le 24/06/2021 à 07h 41
Il y a différentes cartes RISC-V, certaines sur le modèle du RPi (voir du côté de Beagle ou Pine64 de mémoire), il y a même des micro-contrôleurs. Mais oui, les HiFive visent des objectifs un peu plus élevés et ça reste encore de la production limitée, donc forcément plus chère que s’il s’en vendait des millions
Qu’est-ce que TPM 2.0, comment le détecter et l’activer ?
25/06/2021
Le 25/06/2021 à 06h 51
Lire l’article
Pas de quoi
Le 25/06/2021 à 06h 28
Comme dit, les carte mères avec un module ne sont pas forcément TPM 2.0 et si c’est le cas la version firmware est en général présente. Si ce n’est pas le cas, il y a de grandes chances que la machine ne soit pas compatible pour d’autres raisons de toutes façons, donc autant éviter une dépense inutile.
Pour Windows 11, l’enjeu sera aussi technique
24/06/2021
Le 24/06/2021 à 13h 48
Ce sera d’autant plus intéressant de voir la pirouette qu’ils vont trouver pour justifier le changement de nom. Ils ont sans doute anticipé le merdier dans lequel ça allait les mettre :transpi;
Oui c’est un des objectifs je suppose, de croiser 21H2, des morceaux de 10X, Sun Valley, d’autres éléments en préparation (on verra ce qui sera évoqué ou non ce soir). J’espère surtout qu’ils vont parler du plan à plus long terme derrière ce qui est prévu pour la rentrée. Sans ça…
Il y a encore trop de travail. Le panneau de configuration ne disparaîtra que quand Windows aura un dispositif de backup digne de ce nom Et à mon avis, c’est un élément bien plus important à faire transiter vers une solution moderne que le panneau de config qui garde ses habitués.
Le 24/06/2021 à 12h 35
Tout ce qui touche à Alder Lake est antérieur à l’arrivée de PG, son support dans W11 sans doute aussi. Le pouvoir entre politique et technique est souvent cyclique dans les grandes entreprises, américaines notamment. Tout l’enjeu pour de telles sociétés, c’est que cela ne se ressente pas dans les gammes de produit (ce que réussisent bien MS/NV dernièrement, pas trop AMD/Intel).
Surtout que comme dit, les enjeux de MS sont au-delà de x86 désormais. Il en est de même pour Intel d’ailleurs, (mais contrairement à MS, ils l’ont compris et mis en oeuvre il y a un moment )
Le 24/06/2021 à 12h 12
Windows évolue, la qualité des trolls non
PS : on a fait un dossier assez complet sur l’évolution de Windows, le lien est en fin d’article
Ce n’est pas une question de danger, le modèle de MS n’est plus celui là depuis longtemps, c’est surtout ça. Pour tes souvenir, voir le début de l’article ;)
Le 24/06/2021 à 12h 07
Oui c’est un peu le problème et il sera difficile de marquer le coup outre mesure (surtout si le gros des nouveautés son Sun Valley et ce qui était prévu pour 21H2). On verra aussi comment ils parlent de l’intégration de Xbox et éventuellement du Cloud PC (mais je doute que ça occupe une grande part des annonces si c’est évoqué, on verra).
Pour les utilisateurs, je pense au contraire que c’est eux la cible principale du changement de nom. Cela sonne “nouveau” alors que Windows 10 a déjà pas mal d’années quand même. Mais comme tu le montres assez bien, ça risque de les faire s’interroger sur la question d’une éventuelle tarification de la mise à jour (même si ce n’est plus vraiment un sujet pour MS)
Ne jamais oublier qu’un OS “qui prend peu de RAM” n’est pas forcément un OS qui gère bien la mémoire. La mémoire est là pour être utilisée, elle a un gros débit, peu de latence, permet de booster la réactivité. L’important c’est comment l’OS évite les débordements.
Mais un OS qui sait remplir la RAM d’éléments pertinents sans se faire déborder la gère bien mieux qu’un OS qui ne place jamais rien en mémoire pour apparaître économe.
NVIDIA publie la branche 470 de ses pilotes, d’importantes nouveautés pour Linux et Studio
24/06/2021
Le 24/06/2021 à 12h 04
Pour Sway (le wiki étant communautaire), ils disent :
Je vois ça plus comme une position “politique” qu’un prérequis technique. Comme déjà dit dans d’autres cmmentaires sur le sujet, je peux comprendre la position et ses motivations, mais elle ne concernera qu’une partie des utilisateurs. Et si la raison est technique, autant l’écrire tel que.
Pat Gelsinger réorganise Intel, nominations et départ au programme
23/06/2021
Le 24/06/2021 à 04h 50
NVIDIA corrige pas moins de 26 failles dans ses modules Jetson
23/06/2021
Le 23/06/2021 à 16h 11
Accessoirement…
AMD publie son pilote FSR, NVIDIA contre-attaque avec DLSS sous Linux, dans l’UE5, Rust, etc.
22/06/2021
Le 23/06/2021 à 09h 27
De mémoire le support de Wayland est en cours et a été annoncé (mais je n’ai plus de date en tête). Pour le support par défaut, tu parles d’Ubuntu non ? Après tu fais référence à nForce, ça date pas mal hein Mais comme je dis souvent, si on est content d’une marque plutôt que d’une autre c’est le principal.
Certains ont plutôt un critère sur l’ouverture des pilotes, d’autres sur l’accès à des fonctionnalités comme CUDA/OptiX et toute la stack qui va avec. Comme dit plus haut, il faut juste éviter de confondre “le pilote n’est pas libre” et “NVIDIA est contre l’open source”. Toutes ces sociétés privées on des briques ouvertes, d’autres non. La différence se jouant sur leur stratégie et le positionnement de la limite.
Le 22/06/2021 à 19h 35
De mémoire Optimus fonctionne sous Linux (d’ailleurs le nouveau pilote doit apporter des améliorations là dessus je crois)
PS : je le dis souvent et je sais qu’il est tentant d’avoir une vision réduite des choses, mais NVIDA produit pas mal d’open source, est assez largement présent sous Linux ne serait-ce que pour soutenir l’écosysème développeurs CUDA, son portage ARM, etc. On ne peut pas tout réduire à des pilotes.
Le 22/06/2021 à 16h 39
Il n’ont rien confirmé de spécial, c’est annoncé comme ça dès le départ. Il n’y a pas besoin de pilote pour que ça fonctionne côté Intel/NVIDIA, juste que celui-ci est optimisé par AMD je suppose. Pour une CG ce ne sera pas un sursis vu les jeux supportés (à moins de ne jouer qu’à un d’entre eux)
Rocket XTRM-Q : Sabrent lance un SSD compact Thunderbolt 3 de 16 To, avec RAID
22/06/2021
Le 22/06/2021 à 16h 05
On sait le faire et on le fait (voir ici par exemple). Mais pas sur le marché grand public où l’on reste sur des PCB assez compacts et des tarifs plus “raisonnables”
Le 22/06/2021 à 08h 08
Note que si on avait plus de puces flash sur un même SSD ce serait pareil côté endurance. C’est juste que c’est pour le moment impossible d’aller à 16 To sur un seul PCB M.2 du coup, ils doublent.
VMware ESXi pour ARM : le projet avance, Ampere Altra 2P et Jetson Xavier de NVIDIA gérés
22/06/2021
Le 22/06/2021 à 14h 44
Je ne comprends pas ce que tu veux dire avec la seconde partie. La demande est de déplacer le VMM dans le SmartNIC, ce n’est pas une invention de VMware pour faire de la licence, c’est un fait de marché et une demande de certains clients (voir le précédent article). Je ne vois pas ce qu’un pilote aurait pu changer à ça ?
Le 22/06/2021 à 10h 34
Ils ne faut pas oublier que tout le monde ne guide pas ses choix selon la gratuité ou non d’une solution, mais si elle répond au besoin. L’écosystème VMware répond à certains besoins, notamment de ceux qui voudront intégrer des solutions dans des SmartNIC. Après si l’on peut se contenter de KVM on a tout intérêt à le faire.
D’AWS Nitro à VMware Monterey : comment SmartNIC, DPU et IPU transforment les datacenters
21/06/2021
Le 22/06/2021 à 06h 42
Oups (fixed, mais on a une fonction pour signaler les erreurs en évitant de passer par les commentaires, ce qui va souvent plus vite )
Le 22/06/2021 à 06h 38
Le 21/06/2021 à 17h 11
Non, c’est juste que quand une boite à un besoin d’offload qui devient industriel (et à l’échelle d’AWS ça l’est), l’ASIC est une bonne solution, surtout qu’Annapurna a été acheté pour ça.
Le FGPA c’est surtout quand ce besoin doit être programmable et peut évoluer dans le temps ou qu’on doit pouvoir se reposer sur du matériel pouvant être utilisé à diverses fin (Intel proposant aussi ses eASIC entre les deux). C’est aussi moins coûteux sur une plus petite échelle.
L’idée derrière les SmartNIC avec SoC/GPU étant d’aller vers des solutions entièrement programmables via des outils ayant pignon sur rue (un développeur CUDA étant plus simple à trouver qu’un développeur FPGA ) pouvant répondre à des besoins très divers.
Ce sont des solutions intéressantes à l’échelles de CSP par exemple, qui peuvent les utiliser pour leur propres besoin ou les mettre à disposition des clients, sans avoir à viser des usages trop précis par exemple (c’est aussi pour ça qu’on retrouve souvent du GPU chez les CSP mais rarement du GraphCore trop spécifique pour ce type de client).
Le 21/06/2021 à 16h 10
Tu oublies que l’informatique se résumait aux mainframes à l’époque on en est loin aujourd’hui. Ces solutions sont utilisées pour le cloud, qui centralise en partie (c’est le but). Mais tu peux avoir une approche multi-cloud, l’intégration matérielle est là pour libérer des performances, etc. Bref, rien à voir.
PS : “la fin de la loi de Moore” est une stratégie de comm’ de NVIDIA.
Le 21/06/2021 à 14h 19
Autant je pense qu’on peut faire certains // entre le tout cloud et les mainframes, autant comparer ce qui est fait ici avec ce type d’infrastructure, c’est passer un peu à côté du sujet ;)
Oui ça reste un peu sous les radars (ou alors des reprises de CP quand tel ou tel truc est annoncé). C’est intéressant de se plonger un peu dans ce genre dévolutions de fond et comment elles sont implémentées par différents acteurs
OVHcloud passe à Zen 3 à sa manière : des 5600X/5800X dans ses serveurs Game
21/06/2021
Le 21/06/2021 à 14h 18
Oui de mémoire ils ont eu des soucis de chauffe et c’est sans doute pour ça que les modèles Ryzen 9 ont été abandonnés depuis. Pour le boot plus court sur VPS c’est assez logique, c’est une instance, un serveur physique avec IPMI/BMC & co à booter ça prend un certain temps (ce n’est pas spécifique à OVHcloud ou aux processeurs EPYC).
AMD Fidelity FX Super Resolution : 7 jeux à son lancement, Far Cry 6 pour plus tard
17/06/2021
Le 21/06/2021 à 09h 35
Si, c’est toujours le fruit d’un réseau de neurones et donc d’un entrainement. Mais il n’est plus spécifique par jeu, ne nécessite plus d’être adapté pour telle ou telle définition. Il est plus agnostique, même s’il nécessite une implémentation (via le moteur ou autre)
Puces graphiques : des expéditions en baisse, sauf chez NVIDIA
15/06/2021
Le 20/06/2021 à 08h 10
Attention tout de même aux équivalences, les CPU/GPU ne sont pas les mêmes que sur un PC classique (un i7 mobile et desktop ce n’est pas la même définition) et les composants mobiles ont une contrainte TDP assez forte du fait de leur encombrement/refroidissement réduits, donc sont moins performants.
Shadow recrute et organise sa migration vers les nouveaux tarifs
17/06/2021
Le 19/06/2021 à 12h 51
Je ne vois pas trop le rapport avec la question. Google compresse bien comme il veut sur ses propres plateformes on s’en moque un peu. La question c’est ici de savoir si la compression côté serveur est effectué sur le GPU ou via son unité dédiée. C’est le second cas.
Le 19/06/2021 à 07h 56
Comme indiqué plus haut, c’est effectué par le moteur NVENC. Passer par des cartes dédiées n’aurait aucun sens, en terme de coût ou de performances globales.
ARM et NVIDIA cherchent à rassurer sur leur deal à 40 milliards
18/06/2021
Le 19/06/2021 à 08h 50
RISC-V appartient à une fondation, je doute qu’elle soit à vendre ou que ça servirait à quoi que ce soit de l’acheter.
Pas pour l’architecture de base. Mais elle ne suffit pas à tous les usages. Du coup des sociétés développent des blocs d’IP complémentaires à utiliser dans des SoC (c’est le modèle économique de SiFive notamment).
C’est déjà le cas, mais on ne peut pas faire des CPU équivalent à ce que proposent AMD et Intel sur une base RISC-V, sans parler de la question de la compatibilité.
ARM propose des architectures, comme d’autres sur base x86, ou RISC-V (entre autres, coucou IBM), il n’y a pas de monopole. A la limite, on pourrait penser que c’est le cas sur mobile, mais c’est simplement une couche de design, chacun fait ce qu’il veut ensuite, la concurrence est là comme le montre la diversité de l’écosystème.
D’ailleurs, et quand Intel a tenté de rentrer sur ce marché, nombreux étaient ceux à se réjouir qu’ils n’y parviennent pas de mémoire. On voit à quoi ça peut mener ;)
Sans doute, mais quel est le rapport avec le sujet qui nous occupe ? PS : il y a déjà des micro-contrôleurs RISC-V et cartes de dev basées sur cette architecture.
Le 19/06/2021 à 08h 43
NVIDIA publie pas mal d’OSS, ils ne le font par contre pas pour leurs pilotes (ce qui ne les empêche pas de contribuer ici ou là). On peut le regretter, choisir ses composants selon ce critère.
Mais je vois mal le rapport avec le sujet. ARM n’est pas une boite totalement ouverte, elle vend des licences et vit donc du fait qu’il faut payer pour accéder à ses designs et les exploiter. Et on ne peut pas dire que l’écosystème ARM soit la fête de l’ouverture côté pilote ou accès logiciel à l’ensemble des composants, même dans des solutions comme le RPi par exemple.
Pour rappel, le design ne décide d’ailleurs pas de ce point, ça dépend de celui qui conçoit et farbrique la puce, ainsi que sa couche logicielle, que de la développer en OSS ou non.
AMD est pour rappel une société de droit privé qui conçoit des designs de CPU/GPU pour les utiliser à son propre profit ou via des licences vendues à des tiers. L’ouverture d’une partie de sa couche logicielle est un autre sujet, qui dépend de sa stratégie plus que de son modèle économique.
Sur ces sujets, il faut veiller à ne pas tout mélanger, ça sert mal les analyses.
Le 18/06/2021 à 11h 49
Non le moteur PhysX en tant que tel a continué à être utilisé et distribué sur toutes les plateformes (notamment les consoles), ce qui est spécifique à NVIDIA c’est l’accélération matérielle via CUDA (m’enfin dans les jeux actuels ce n’est presque plus utilisé puisque plus vraiment nécessaire de toutes façons). Et je vois mal en quoi les deux situations sont comparables;
NH-P1 et systèmes passifs : les conseils de Noctua, en français
15/06/2021
Le 19/06/2021 à 07h 29
L’erreur c’est de penser qu’il y a des erreurs. Une solution passive peut être un besoin, ou être simplement une envie. D’ailleurs, ton postulat semble oublier qu’il n’y a pas que le gaming dans la vie. Certains recherchent le passif sur des dispositifs où c’est assez aisé comme la bureautique, un petit serveur, etc. Un Raspberry Pi peut être passif. Ce n’est pas “une erreur”.
Sur le fond, il y a différentes manières de faire des machines plus ou moins silencieuses, Noctua ne dit d’ailleurs pas le contraire en proposant une solution semi-passive sur base de son NH-P1. Il faut par contre éviter de confondre “cela ne me convient pas” avec “c’est inutile”
L’idée de tels systèmes est de disposer de larges radiateurs permettant d’encaisser des TDP plus important que sur des modèles classiques, notamment les pointes de chaleur. L’extraction, elle, se fait de manière naturelle (convection) ou active mais avec peu de points d’extraction (un ventilo basse vitesse). Cela limite, comme tu le dis, la possibilité qu’un élément vienne ruiner l’ensemble.
Car dans un système informatique que l’on utilise au quotidien, il n’y a pas que le choix de base qui peut poser problème, mais aussi l’usure. Un seul ventilo c’est une seule pièce mécanique à entretenir et à changer en cas de souci .
Le 18/06/2021 à 15h 20
Le throttling c’est un dispositif de sécurité (quand on dépasse les 90/100°C en général), la gestion de la fréquence se fait aussi en amont de manière plus classique. C’est forcément pus difficile d’arriver à cet état avec un CPU à 35 watts, mais pas impossible (surtout en passif).