votre avatar Abonné

David_L

est avec nous depuis le 13 septembre 2002 ❤️

15083 commentaires

Le 25/06/2021 à 07h 36

Ce sera sans doute différent pour les VM (ou alors les hyperviseurs auront enfin droit à un pilote DX12 ? :D

Le 25/06/2021 à 06h 52


(reply:57989:dvr-x)


Non, c’est juste que dans ce cas on sait que ça va être un sujet donc on essaie d’anticiper, surtout sur des sujets qu’on maitrise pas mal depuis le temps et où on sait qu’on peut facilement être didactiques, là où les médias tech/lifestyle vont vite recopier des trucs lus vite fait ici ou là.



Autant qu’ils reprennent un article correct à la base :D

Le 25/06/2021 à 07h 35


vizir67 a dit:


ce qui expliquer peut-être pourquoi certains ont une machine indiquée comme non compatible, alors qu’ils ont bien tous les autres prérequis d’actifs (TPM 2.0, DirectX 12, Secure Boot, etc.)…



comme d’hab. quoi, avec ‘Microsoft’ ! du grand ‘n’importe.quoi’ (il vas y-en avoir des déçus) :mad:


Oui après je doute que MS refuser l’installation de W11 parce qu’un CPU n’est pas dans la liste. Je pense que l’outil fourni est mauvais mais que ça s’arrêtera là. On verra une fois les préversions en ligne. L’approche TPM 2.0/DX12 est maladroite mais ça passe vu l’antériorité de ces technos (près de 10 ans) et leur utilité pratique. La restriction via la liste CPU n’a pas de sens par contre.

Le 25/06/2021 à 06h 17

Oui, après techniquement il n’y a rien qui justifie de le rendre obligatoire en l’état. Cela aurait pû être fait en deux temps : une alerte pour W11, une obligation pour une révision ultérieure. Parce qu’en l’état, pas mal de gens ne savent pas ce que c’est, comment l’activer, etc.



Que Bitllocker repose sur TPM hors d’un chiffrement par mot de passe, on s’en fout un peu au regard des problèmes que cette décision va engendrer (comme la limitation de la liste CPU qu’on a un peu de mal à comprendre pour le moment).

Le 25/06/2021 à 06h 14

On a ajouté des guides pour TPM/DX12 et quelques détails sur les prérequis :chinois:

Le 24/06/2021 à 18h 58


dtb06 a dit:


Je ne comprends toujours pas. J’ai activé “firmware TPM” dans l’EFI maintenant dans tpm.msc j’ai un statut OK mais l’outil me dit toujours que mon PC n’est pas compatible…


Peut être autre chose qui manque. Avec un peu de chance l’outil va être revu pour donner plus d’infos (mais il semble y avoir des cas où il détecte mal, à voir)




Dyfchris a dit:


Est-ce qu’ils ont touché ne serais-ce qu’un mot sur le Volume Licence ?


Trop tôt

Le 24/06/2021 à 18h 31

Tu as activé (f)TPM avant de sortir ton smiley ? ;)

Le 24/06/2021 à 18h 17


v77 a dit:


Les gens qui sont perdus achèteront une nouvelle machine avec Windows 11 préinstallé. Les constructeurs remercient une fois de plus Microsoft de les aider à relancer les ventes.


“Les gens” ont vécu des années sous Windows XP/7, ils survivront de ne pas passer dans la seconde à Windows 11 ;)




pamputt a dit:


4 Go de mémoire vive pour faire tourner uniquement le système d’exploitation. Heureusement que la RAM ne coute plus très chère pour que plus personne ne s’en émeuve


Il y a des version de Windows pour le marché de l’embarqué si c’est ça que tu recherches.

Le 24/06/2021 à 16h 44

Oui, j’ai un CPU AMD, donc pas de TPM.
Je me doutais que ça venait de là.

Comment ça AMD donc pas de TPM ? Aucun rapport.

Le 24/06/2021 à 16h 31

Les adeptes de Linux y verront Linux, les adeptes de macOS y verront macOS. Sur le fond, les choses évoluent, chacun avec des différences même s’il y a des similarités, c’est le principal ;)

Le 24/06/2021 à 15h 58

Pas forcément, mais il y a des similarités stratégiques. Avec une certaine nullité dans le niveau des annonces et de capacité à captiver l’audience, j’avoue :transpi:

Le 25/06/2021 à 07h 01

Il n’y a pas de fournisseur particulier, ils développent tout sur cette partie avec leurs partenaires (comme pour la partie ARM sur une base de neoverse)

Le 23/06/2021 à 15h 14

Tu as mal compris je suppose. L’EPI utilise RISC-V et développe ses propres solutions dessus via ses partenaires (voir le lien, l’article, toussa). Ils n’exploitent pas d’IP SiFive à ma connaissance.

Le 23/06/2021 à 03h 44

C’est l’inverse, et comme dit l’important c’est surtout la perf/mm² à finesse de gravure identique, le reste c’est plutôt de l’organisation architecturale.




Jeanprofite a dit:


Il faut donc comprendre que c’est mieux qu’ARM. Cependant c’est à relativiser en ayant conscience que l’ARM Cortex-A75 date de 2017.


Oui mais c’est un premier pas. Que RISC-V s’approche d’ARM si vite st intéressant, surtout si le support logiciel suit aussi rapidement et que l’efficacité énergétique est au rendez-vous (ce qui n’est sans doute pas le cas puisque ce n’est pas du tout mis en avant ici).

Le 25/06/2021 à 06h 55

QuTSHero :D

Le 23/06/2021 à 12h 21

De mémoire c’était limité sur DSM 6.x non ? je ferai une vérification (mais ça faisait partie des éléments que j’avais noté comme nouveau dans DSM 7.0 et bloquant dans la 6.x)

Le 23/06/2021 à 10h 29

On verra, là ils vont de toutes façons se concentrer sur les évolutions de C2 et la branche 7.x, on verra quel sera le rythme devant mener à une éventuelle 8.x. On va attendre que le nouveau DSM soit en ligne avant de faire un post mortem + perspective pour la suite sur ce point là ;)

Le 25/06/2021 à 06h 55


vince120 a dit:


C’est simple, dans la bataille RISC versus CISC, c’est CISC qui a gagné grâce au recours à du CISC émulé par du RISC :D


CISC/RISC c’est plus un sujet depuis longtemps. C’est surtout ceux qui ont vécu cette bataille qui pensent qu’elle est encore d’actualité. Mais bon, du ARM récent c’est plus si RISC que ça.



RISC-V c’est différent, mais ça évoluera dans le même sens.




sanscrit a dit:


c’est plus stratégique que cela, RISC-V dont la fondation est en suisse a l’ambition de fournir au monde, l e jeux d’instruction sans royalties, ni risque d’embargo, ni quoique ce soit. Il ne peuvent pas être racheter avec ce statut de fondation, c’est un projet a long terme.


Attention tout de même : l’ISA de base est libre, mais ce qui se construit au-dessus pas forcément. Et on voit déjà que le modèle c’est de proposer des solutions autour de RISC-V à vendre à ceux qui veulent du clé en main. C’est une approche différente d’ARM mais qui aura ses rapprochements au final.

Le 24/06/2021 à 07h 41

Il y a différentes cartes RISC-V, certaines sur le modèle du RPi (voir du côté de Beagle ou Pine64 de mémoire), il y a même des micro-contrôleurs. Mais oui, les HiFive visent des objectifs un peu plus élevés et ça reste encore de la production limitée, donc forcément plus chère que s’il s’en vendait des millions :D



:D

Le 25/06/2021 à 06h 51

Lire l’article




(quote:57987:phantom-lord)
Merci beaucoup pour cet article.


Pas de quoi :chinois:

Le 25/06/2021 à 06h 28

Comme dit, les carte mères avec un module ne sont pas forcément TPM 2.0 et si c’est le cas la version firmware est en général présente. Si ce n’est pas le cas, il y a de grandes chances que la machine ne soit pas compatible pour d’autres raisons de toutes façons, donc autant éviter une dépense inutile.

Le 24/06/2021 à 13h 48

Ce sera d’autant plus intéressant de voir la pirouette qu’ils vont trouver pour justifier le changement de nom. Ils ont sans doute anticipé le merdier dans lequel ça allait les mettre :transpi;



Oui c’est un des objectifs je suppose, de croiser 21H2, des morceaux de 10X, Sun Valley, d’autres éléments en préparation (on verra ce qui sera évoqué ou non ce soir). J’espère surtout qu’ils vont parler du plan à plus long terme derrière ce qui est prévu pour la rentrée. Sans ça…



Il y a encore trop de travail. Le panneau de configuration ne disparaîtra que quand Windows aura un dispositif de backup digne de ce nom :D Et à mon avis, c’est un élément bien plus important à faire transiter vers une solution moderne que le panneau de config qui garde ses habitués.

Le 24/06/2021 à 12h 35


Cetera a dit:


Faut il y voir une dynamique de MS qui accompagne celle d’Intel depuis la nomination de Pat Gelsinger? J’ai l’impression que dans beaucoup de boites l’ingénierie reprend ses droits. Non?


Tout ce qui touche à Alder Lake est antérieur à l’arrivée de PG, son support dans W11 sans doute aussi. Le pouvoir entre politique et technique est souvent cyclique dans les grandes entreprises, américaines notamment. Tout l’enjeu pour de telles sociétés, c’est que cela ne se ressente pas dans les gammes de produit (ce que réussisent bien MS/NV dernièrement, pas trop AMD/Intel).



Surtout que comme dit, les enjeux de MS sont au-delà de x86 désormais. Il en est de même pour Intel d’ailleurs, (mais contrairement à MS, ils l’ont compris et mis en oeuvre il y a un moment :D)

Le 24/06/2021 à 12h 12

Windows évolue, la qualité des trolls non :D



PS : on a fait un dossier assez complet sur l’évolution de Windows, le lien est en fin d’article :chinois:




Krymson a dit:


Oh gratuit c’est sur, trop dangereux de demander des sous !


Ce n’est pas une question de danger, le modèle de MS n’est plus celui là depuis longtemps, c’est surtout ça. Pour tes souvenir, voir le début de l’article ;)

Le 24/06/2021 à 12h 07

Oui c’est un peu le problème et il sera difficile de marquer le coup outre mesure (surtout si le gros des nouveautés son Sun Valley et ce qui était prévu pour 21H2). On verra aussi comment ils parlent de l’intégration de Xbox et éventuellement du Cloud PC (mais je doute que ça occupe une grande part des annonces si c’est évoqué, on verra).



Pour les utilisateurs, je pense au contraire que c’est eux la cible principale du changement de nom. Cela sonne “nouveau” alors que Windows 10 a déjà pas mal d’années quand même. Mais comme tu le montres assez bien, ça risque de les faire s’interroger sur la question d’une éventuelle tarification de la mise à jour (même si ce n’est plus vraiment un sujet pour MS)




dylem29 a dit:


meilleures utilisations de la RAM


Ne jamais oublier qu’un OS “qui prend peu de RAM” n’est pas forcément un OS qui gère bien la mémoire. La mémoire est là pour être utilisée, elle a un gros débit, peu de latence, permet de booster la réactivité. L’important c’est comment l’OS évite les débordements.



Mais un OS qui sait remplir la RAM d’éléments pertinents sans se faire déborder la gère bien mieux qu’un OS qui ne place jamais rien en mémoire pour apparaître économe.

Le 24/06/2021 à 12h 04

Pour Sway (le wiki étant communautaire), ils disent :




All proprietary graphics drivers are unsupported. This includes the Nvidia proprietary driver. The open source Nouveau driver is required instead. This is not going to change, don’t ask. Tip: buy your hardware with open source support in mind.


Je vois ça plus comme une position “politique” qu’un prérequis technique. Comme déjà dit dans d’autres cmmentaires sur le sujet, je peux comprendre la position et ses motivations, mais elle ne concernera qu’une partie des utilisateurs. Et si la raison est technique, autant l’écrire tel que.

Le 24/06/2021 à 04h 50


(reply:57965:Fab’z)


:chinois:

Le 23/06/2021 à 16h 11

:merci:

Accessoirement…

Le 23/06/2021 à 09h 27

De mémoire le support de Wayland est en cours et a été annoncé (mais je n’ai plus de date en tête). Pour le support par défaut, tu parles d’Ubuntu non ? Après tu fais référence à nForce, ça date pas mal hein :D Mais comme je dis souvent, si on est content d’une marque plutôt que d’une autre c’est le principal.



Certains ont plutôt un critère sur l’ouverture des pilotes, d’autres sur l’accès à des fonctionnalités comme CUDA/OptiX et toute la stack qui va avec. Comme dit plus haut, il faut juste éviter de confondre “le pilote n’est pas libre” et “NVIDIA est contre l’open source”. Toutes ces sociétés privées on des briques ouvertes, d’autres non. La différence se jouant sur leur stratégie et le positionnement de la limite.

Le 22/06/2021 à 19h 35

De mémoire Optimus fonctionne sous Linux (d’ailleurs le nouveau pilote doit apporter des améliorations là dessus je crois)



PS : je le dis souvent et je sais qu’il est tentant d’avoir une vision réduite des choses, mais NVIDA produit pas mal d’open source, est assez largement présent sous Linux ne serait-ce que pour soutenir l’écosysème développeurs CUDA, son portage ARM, etc. On ne peut pas tout réduire à des pilotes.

Le 22/06/2021 à 16h 39


(reply:57934:Pieryck A.)


Il n’ont rien confirmé de spécial, c’est annoncé comme ça dès le départ. Il n’y a pas besoin de pilote pour que ça fonctionne côté Intel/NVIDIA, juste que celui-ci est optimisé par AMD je suppose. Pour une CG ce ne sera pas un sursis vu les jeux supportés (à moins de ne jouer qu’à un d’entre eux) :D

Le 22/06/2021 à 16h 05

On sait le faire et on le fait (voir ici par exemple). Mais pas sur le marché grand public où l’on reste sur des PCB assez compacts et des tarifs plus “raisonnables”

Le 22/06/2021 à 08h 08

Note que si on avait plus de puces flash sur un même SSD ce serait pareil côté endurance. C’est juste que c’est pour le moment impossible d’aller à 16 To sur un seul PCB M.2 du coup, ils doublent.

Le 22/06/2021 à 14h 44

Je ne comprends pas ce que tu veux dire avec la seconde partie. La demande est de déplacer le VMM dans le SmartNIC, ce n’est pas une invention de VMware pour faire de la licence, c’est un fait de marché et une demande de certains clients (voir le précédent article). Je ne vois pas ce qu’un pilote aurait pu changer à ça ?

Le 22/06/2021 à 10h 34

Ils ne faut pas oublier que tout le monde ne guide pas ses choix selon la gratuité ou non d’une solution, mais si elle répond au besoin. L’écosystème VMware répond à certains besoins, notamment de ceux qui voudront intégrer des solutions dans des SmartNIC. Après si l’on peut se contenter de KVM on a tout intérêt à le faire.

Le 22/06/2021 à 06h 42

Oups :D (fixed, mais on a une fonction pour signaler les erreurs en évitant de passer par les commentaires, ce qui va souvent plus vite :chinois:)

Le 22/06/2021 à 06h 38

:chinois:

Le 21/06/2021 à 17h 11

Non, c’est juste que quand une boite à un besoin d’offload qui devient industriel (et à l’échelle d’AWS ça l’est), l’ASIC est une bonne solution, surtout qu’Annapurna a été acheté pour ça.



Le FGPA c’est surtout quand ce besoin doit être programmable et peut évoluer dans le temps ou qu’on doit pouvoir se reposer sur du matériel pouvant être utilisé à diverses fin (Intel proposant aussi ses eASIC entre les deux). C’est aussi moins coûteux sur une plus petite échelle.



L’idée derrière les SmartNIC avec SoC/GPU étant d’aller vers des solutions entièrement programmables via des outils ayant pignon sur rue (un développeur CUDA étant plus simple à trouver qu’un développeur FPGA :D) pouvant répondre à des besoins très divers.



Ce sont des solutions intéressantes à l’échelles de CSP par exemple, qui peuvent les utiliser pour leur propres besoin ou les mettre à disposition des clients, sans avoir à viser des usages trop précis par exemple (c’est aussi pour ça qu’on retrouve souvent du GPU chez les CSP mais rarement du GraphCore trop spécifique pour ce type de client).

Le 21/06/2021 à 16h 10

Tu oublies que l’informatique se résumait aux mainframes à l’époque on en est loin aujourd’hui. Ces solutions sont utilisées pour le cloud, qui centralise en partie (c’est le but). Mais tu peux avoir une approche multi-cloud, l’intégration matérielle est là pour libérer des performances, etc. Bref, rien à voir.



PS : “la fin de la loi de Moore” est une stratégie de comm’ de NVIDIA.

Le 21/06/2021 à 14h 19

Autant je pense qu’on peut faire certains // entre le tout cloud et les mainframes, autant comparer ce qui est fait ici avec ce type d’infrastructure, c’est passer un peu à côté du sujet ;)




zuxupi a dit:


Merci pour l’article, tres interessant en effet ! En plus, ce sont des technos plus originales qu’on n’a pas l ‘habitude de voir.


Oui ça reste un peu sous les radars (ou alors des reprises de CP quand tel ou tel truc est annoncé). C’est intéressant de se plonger un peu dans ce genre dévolutions de fond et comment elles sont implémentées par différents acteurs :chinois:

Le 21/06/2021 à 14h 18

Oui de mémoire ils ont eu des soucis de chauffe et c’est sans doute pour ça que les modèles Ryzen 9 ont été abandonnés depuis. Pour le boot plus court sur VPS c’est assez logique, c’est une instance, un serveur physique avec IPMI/BMC & co à booter ça prend un certain temps (ce n’est pas spécifique à OVHcloud ou aux processeurs EPYC).

Le 21/06/2021 à 09h 35

Si, c’est toujours le fruit d’un réseau de neurones et donc d’un entrainement. Mais il n’est plus spécifique par jeu, ne nécessite plus d’être adapté pour telle ou telle définition. Il est plus agnostique, même s’il nécessite une implémentation (via le moteur ou autre)

Le 20/06/2021 à 08h 10

Attention tout de même aux équivalences, les CPU/GPU ne sont pas les mêmes que sur un PC classique (un i7 mobile et desktop ce n’est pas la même définition) et les composants mobiles ont une contrainte TDP assez forte du fait de leur encombrement/refroidissement réduits, donc sont moins performants.

Le 19/06/2021 à 12h 51

Je ne vois pas trop le rapport avec la question. Google compresse bien comme il veut sur ses propres plateformes on s’en moque un peu. La question c’est ici de savoir si la compression côté serveur est effectué sur le GPU ou via son unité dédiée. C’est le second cas.

Le 19/06/2021 à 07h 56

Comme indiqué plus haut, c’est effectué par le moteur NVENC. Passer par des cartes dédiées n’aurait aucun sens, en terme de coût ou de performances globales.

Le 19/06/2021 à 08h 50


vVDB a dit:


Risk-V n’est-il pas moins cher ?


RISC-V appartient à une fondation, je doute qu’elle soit à vendre ou que ça servirait à quoi que ce soit de l’acheter.




Il n’y a semble-t-il pas de licence à payer


Pas pour l’architecture de base. Mais elle ne suffit pas à tous les usages. Du coup des sociétés développent des blocs d’IP complémentaires à utiliser dans des SoC (c’est le modèle économique de SiFive notamment).




Il peut y avoir de la concurrence comme entre Intel et AMD.


C’est déjà le cas, mais on ne peut pas faire des CPU équivalent à ce que proposent AMD et Intel sur une base RISC-V, sans parler de la question de la compatibilité.




Arm est seule, c’est un monopole de fait.


ARM propose des architectures, comme d’autres sur base x86, ou RISC-V (entre autres, coucou IBM), il n’y a pas de monopole. A la limite, on pourrait penser que c’est le cas sur mobile, mais c’est simplement une couche de design, chacun fait ce qu’il veut ensuite, la concurrence est là comme le montre la diversité de l’écosystème.



D’ailleurs, et quand Intel a tenté de rentrer sur ce marché, nombreux étaient ceux à se réjouir qu’ils n’y parviennent pas de mémoire. On voit à quoi ça peut mener ;)




J’attends avec intérêt l’esp32-C3, le successeur de l’ESP8266 qui exploite un coeur Risk-V. J’espère qu’il sera bien soutenu par la communauté des makers.


Sans doute, mais quel est le rapport avec le sujet qui nous occupe ? PS : il y a déjà des micro-contrôleurs RISC-V et cartes de dev basées sur cette architecture.

Le 19/06/2021 à 08h 43


(reply:1880710:DantonQ-Robespierre)


NVIDIA publie pas mal d’OSS, ils ne le font par contre pas pour leurs pilotes (ce qui ne les empêche pas de contribuer ici ou là). On peut le regretter, choisir ses composants selon ce critère.



Mais je vois mal le rapport avec le sujet. ARM n’est pas une boite totalement ouverte, elle vend des licences et vit donc du fait qu’il faut payer pour accéder à ses designs et les exploiter. Et on ne peut pas dire que l’écosystème ARM soit la fête de l’ouverture côté pilote ou accès logiciel à l’ensemble des composants, même dans des solutions comme le RPi par exemple.



Pour rappel, le design ne décide d’ailleurs pas de ce point, ça dépend de celui qui conçoit et farbrique la puce, ainsi que sa couche logicielle, que de la développer en OSS ou non.



AMD est pour rappel une société de droit privé qui conçoit des designs de CPU/GPU pour les utiliser à son propre profit ou via des licences vendues à des tiers. L’ouverture d’une partie de sa couche logicielle est un autre sujet, qui dépend de sa stratégie plus que de son modèle économique.



Sur ces sujets, il faut veiller à ne pas tout mélanger, ça sert mal les analyses.

Le 18/06/2021 à 11h 49

Non le moteur PhysX en tant que tel a continué à être utilisé et distribué sur toutes les plateformes (notamment les consoles), ce qui est spécifique à NVIDIA c’est l’accélération matérielle via CUDA (m’enfin dans les jeux actuels ce n’est presque plus utilisé puisque plus vraiment nécessaire de toutes façons). Et je vois mal en quoi les deux situations sont comparables;

Le 19/06/2021 à 07h 29

L’erreur c’est de penser qu’il y a des erreurs. Une solution passive peut être un besoin, ou être simplement une envie. D’ailleurs, ton postulat semble oublier qu’il n’y a pas que le gaming dans la vie. Certains recherchent le passif sur des dispositifs où c’est assez aisé comme la bureautique, un petit serveur, etc. Un Raspberry Pi peut être passif. Ce n’est pas “une erreur”.



Sur le fond, il y a différentes manières de faire des machines plus ou moins silencieuses, Noctua ne dit d’ailleurs pas le contraire en proposant une solution semi-passive sur base de son NH-P1. Il faut par contre éviter de confondre “cela ne me convient pas” avec “c’est inutile”



L’idée de tels systèmes est de disposer de larges radiateurs permettant d’encaisser des TDP plus important que sur des modèles classiques, notamment les pointes de chaleur. L’extraction, elle, se fait de manière naturelle (convection) ou active mais avec peu de points d’extraction (un ventilo basse vitesse). Cela limite, comme tu le dis, la possibilité qu’un élément vienne ruiner l’ensemble.



Car dans un système informatique que l’on utilise au quotidien, il n’y a pas que le choix de base qui peut poser problème, mais aussi l’usure. Un seul ventilo c’est une seule pièce mécanique à entretenir et à changer en cas de souci .

Le 18/06/2021 à 15h 20

Le throttling c’est un dispositif de sécurité (quand on dépasse les 90/100°C en général), la gestion de la fréquence se fait aussi en amont de manière plus classique. C’est forcément pus difficile d’arriver à cet état avec un CPU à 35 watts, mais pas impossible (surtout en passif).