votre avatar Abonné

David_L

est avec nous depuis le 13 septembre 2002 ❤️

15083 commentaires

Le 20/11/2021 à 20h 48

Virtualbox ?

Le 19/11/2021 à 16h 02

Oui le problème c’est de ne pas avoir d’espace de fichiers partagé ou d’équivalent de WSLg pour le moment. Espérons que ça viendra avec le temps (côté Apple ou Canonical :chinois:). Mais Apple poussera plutôt le fait que macOS est sur base UNIX donc n’ayant pas besoin d’un WSL.

Le 19/11/2021 à 15h 52

ce n’est pas non plus un standard du secteur, d’où le TOP500 ;)

Le 19/11/2021 à 13h 13

C’est d’ailleurs pour ça qu’on a inventé le TOP500 notamment : ne pas se contenter de ceux qui font les kékés dans les communiqués de presse, seulement ceux qui fournissent des résultats vérifiables :D

Le 19/11/2021 à 07h 24

C’était vrai avant RDMA/RoCEv2 & co, mais les choses ont pas mal évolué sur ce terrain (notamment pour des besoins stockage où la latence est aussi importante mais pas que), c’est ce qui pousse sans doute pas mal à revoir les positions. Après c’est peut être aussi une question de juste milieu si Ethernet s’approche des performances d’IB mais avec un coût bien moindre en comparaison, tu peux avoir un équilibre différent dans la dépense. J’en reparlerai ici ou là à l’occasion :chinois:

Le 18/11/2021 à 13h 56

Oui d’où ma question sur les chiffres récents, parce qu’on voit pas mal de monde passer d’IB à Ethernet ces dernières années ou des projets en cours, j’imagine que si c’était pour avoir un gros différentiel ils feraient des choix différents.

Le 18/11/2021 à 04h 03

Tu as des sources/détails récents sur la comparaison IB/Ethernet ?

Le 17/11/2021 à 04h 10

Son architecture, ses interconnexions notamment (qui sont une grosse partie du travail au sein de Fugaku même si c’est moins mis en avant), la couche logicielle peut aussi jouer un rôle important dans les résultat affichés. Mais globalement, penser qu’il suffit d’empiler le hardware pour taper un gros score c’est méconnaitre la complexité de tels systèmes et de la manière de gérer la distribution des calculs.

Le 16/11/2021 à 18h 50

Je n’ai pas regardé s’il y a plus récent, mais le Genci avait publié un rapport sur les résultats de Joliot Curie

Le 16/11/2021 à 15h 26

C’est aussi qu’Ethernet monte en débit et colle à certains besoins sans être une limite en soi. Dans le domaine des supercalculateurs on ne mégote pas sur les interconnexions si ça a de réels impacts.

Le 16/11/2021 à 11h 03


deathscythe0666 a dit:


Pour ces deux là, c’est surtout une question de quantité de ressources matérielles (pour ~3 fois plus puissant, Fugaku a ~3 fois plus de proc et consomme ~3 fois plus)


Dire ça c’est dire “yakafokon”. Si faire mieux que Fugaku nécessitait “simplement” de mettre plus de composants, ce serait fait depuis longtemps. Si Fugaku n’était “que” trois fois plus de composants que le second, l’écart ne serait pas aussi grand entre les deux ;)




C’est pas dit qu’on puisse augmenter indéfiniment la montée en puissance (la montée en fréquence a déjà été stoppée).


D’ailleurs, 640 ko de mémoire suffisent (ce que Bill Gates n’a jamais dit).

Le 19/11/2021 à 15h 51

Il faut utiliser les pilotes VirtIO avec le GPU VirtIO (voir notre guide Promox VE)

Le 19/11/2021 à 15h 13

On sait que tu es là pour le rappeler :D

Le 19/11/2021 à 12h 41

Il faudra voir si SRM ne fera pas un bond avec l’arrivée du nouveau modèle. Ca peut aussi être volontaire de se focaliser là-dessus ce qui bloque un peu les release tant que le projet n’est pas finalisé.

Le 19/11/2021 à 09h 05

Ils vont surtout là où est le marché et dans le domaine du stockage la demande est forte dans le domaine de l’entreprise, où payer pour la couche logicielle n’est pas un souci (avec des paniers moyens plus élevés). Pour tous les fabricants de NAS le marché grand public est surtout une question de visibilité mais pas la priorité. Il y aura aussi des modèles DSx22 dans le grand public néanmoins ;)




Vorphalax a dit:


Quand aux gammes pro, si je ne me trompe pas il faut desormais acheter les SSD ou HDD “made in” synology qui coutent une blinde.


Non

Le 18/11/2021 à 13h 11


(reply:1913483:Trit’)


En tous cas on se passerait bien de telles remarques ;)

Le 18/11/2021 à 12h 05

Oui comme dit les broches servent au power/reset, c’est un dispositif classique sur ces modèles chez Shuttle. Les ports COM ciblent le marché de ces produits qui n’est pas d’avoir plein de RJ45 ;)

Le 18/11/2021 à 04h 02

Oui et il y a des raisons “historique s” à ce choix, doublées du fait que le .com est tout de même un peu “sous surveillance” constante ce qui limite les dérives possibles. Si tu ne vois pas de différence avec la gestion d’un TLD comme le .ge, libre à toi, mais je pense que tu fais plutôt semblant de ne pas comprendre ;) Surtout que, comme dit, on parle d’une brique importante de leur solution.

Le 17/11/2021 à 04h 14

Une mauvaise habitude ne devient pas bonne parce que c’est une habitude. Comme dit, dépendre d’un pays tiers pour une brique essentielle de ton service ce n’est pas forcément un choix pertinent. Tu peux très bien utiliser le .ge qui fait “classe” pour ton site public tout en utilisant le .fr pour ton interface client et tout le reste. La diversité des TLD est aussi faite pour ça ;)

Le 16/11/2021 à 14h 13

Tu peux dire que c’est une offre IaaS peu fournie, mais ça n’en est pas moins une quand même.

Le 16/11/2021 à 11h 04


Myifee a dit:


Peut-on réellement appeler ça du Cloud ?


Posons la question autrement : pourquoi ça n’en serait pas ?

Le 16/11/2021 à 07h 38

Voir le tweet en lien quand j’évoque ce point ;) C’est pas si anodin, même si l’URL est courte.

Le 17/11/2021 à 15h 42


tazvld a dit:


Je pinaille peut-être un peu. DLSS et “AI-Enhanced” uspcaling de la Shield, même si c’est tout deux de l’upscaling, n’utilisent pas les même donnée et n’ont pas totalement le même but.


Tu ne pinailles pas, tu mets trop de côté la question de départ. L’idée était de savoir si on pouvait appliquer un DLSS like en bout de chaine. C’est ce que fait le mode AI de la Shield.



Et comme elle le fait en bout de chaine, elle le fait sans accès aux données temporelles ou qui seraient internes à un moteur de rendu par exemple. Ce n’est pas juste deux upscaling, tous deux utilisent un modèle d’IA. Mais ils le font à un niveau différent, avec donc des données différentes (mais c’est ce qui était demandé).



Que ce soit de la vidéo ou un jeu n’y change rien (c’est une succession d’images, donc la même chose). Pour un modèle d’IA, ce qui fait la différence c’est la typologie des images. Upscaler un film, une série animée, un jeu réaliste ou du Minecraft, c’est autant de cas différents à maîtriser.

Le 17/11/2021 à 13h 11

Surtout il ne faut jamais oublier un truc sur les démos : ça ne vaut rien tant que l’on a pas soi-même testé sur des données qui ne font pas partie de l’entrainement. Parce que montrer un résultat époustouflant quand le modèle a été entrainé sur la photo utilisée, c’est facile. Sur une photo random… ;)

Le 17/11/2021 à 04h 07


tazvld a dit:


Sur le Shield, ce n’est pas du DLSS à proprement parlé, mais un upscaling adapté à un flux vidéo.


Oui, un upscaling exploitant un modèle, appliqué en bout de chaîne et donc sur l’affichage à l’écran, soit exactement ce qui était demandé dans le commentaire auquel je répondais ;)

Le 16/11/2021 à 17h 39

Tu peux déjà le faire via la Shield non ?

Le 16/11/2021 à 16h 59

Note que NVIDIA a déjà des modèles pour extrapoler le changement d’angle de visage depuis une capture 2D (qui est utilisé pour “redresser” dans une vidéo conférence par exemple)

Le 16/11/2021 à 16h 02

Attention à un biais tout de même : ça reste de l’IA, elle “devine” les détails (d’où le terme inférence). D’une certaine manière, elle les invente aussi. Du coup pour de l’usage trivial ça n’est pas forcément un problème. Pour de la vidéo surveillance et de la lecture de plaque par exemple, c’est autre chose :D

Le 16/11/2021 à 14h 05

PS : certains des liens ne sont pas encore actif, ça va venir :D

Le 17/11/2021 à 14h 10

On fera un point sur les goodies après la campagne :chinois:

Le 16/11/2021 à 11h 08

Pas avant la clôture de la campagne non, les paiements ne sont effectués qu’à ce moment-là :chinois:

Le 15/11/2021 à 18h 27

Il suffit de lire les autres :transpi:

Le 16/11/2021 à 12h 52


(reply:61503:Fab’z)


Prend l’exemple d’un stockage objet type S3, la redondance de la donnée est en général géré par ton erasure coding, ta disponibilité par le nombre de périphériques/serveurs, t’as pas besoin de gérer ça au niveau de ton partitionnement. Et tu peux backuper ailleurs pour ne pas dépendre du bon fonctionnement de ton S3 ou restaurer s’il tombe en rade

Le 16/11/2021 à 07h 42


(reply:61475:Fab’z)


Le principe du NVMe-oF c’est de partager en mode bloc sur le réseau. Du coup tu partages le périphérique en tant que tel (voir les articles sur le sujet) qui est vu comme du stockage local et tu gères ta redondance & co côté client. Je sais qu’iSCSI dans les NAS et ses LUN ont fait pas mal de mal à cette notion mais l’idée de départ ce n’est pas de monter un RAID côté serveur puis de le partager, sinon on perd tout l’intérêt du protocole natif.



Cela doit être possible aussi en NVMe-oF néanmoins (puisque les versions récentes du protocole permet de scinder le SSD via les namespaces), on verra comment cette solution sera implémentée côté logiciel.

Le 16/11/2021 à 11h 16

Oui je sais (en en a parlé dans la newsletter récemment), je pensais que tu faisais référence à une pratique plus générale, my bad. Mais j’imagine mal quiconque faire tourner ça sans isoiation complémentaire.

Le 16/11/2021 à 11h 00

Sauf que là on est quand même assez loin d’une réinvention d’un concept similaire.

Le 16/11/2021 à 09h 44

Autre possibilité : tu as une vision simpliste du FaaS/CaaS :D

Le 16/11/2021 à 08h 49

Clever c’est du PaaS, pas directement comparable. Mais l’architecture est similaire aux Kapsule où je suppose que l’isolation d’un client à un autre se fait par un autre biais que les conteneurs uniquement (pour éviter tout risque d’accès détourné vu qu’une partie du système sera partagé).

Le 15/11/2021 à 13h 42

C’est même disponible en cloud ;)

Le 12/11/2021 à 03h 29

Oui et non il y a des besoins différents selon les marchés, c’est pour ça qu’EPYC n’est pas majoritaire (surtout qu’il ne vise que le 1P/2P) et que les modèles 64C ne sont pas forcément les modèles les plus vendus. Le changement de direction le montre bien, il y a une demande de densité mais ce n’est pas la seule. L’évolution logicielle n’est pas neuve et n’est pas propre au code en rust ;)



GenZ était porté par Samsung (entre autres), comme dit plus haut il est mort depuis l’accord avec CXL il y a quelques mois… qui a mené à l’annonce d’hier.

Le 10/11/2021 à 14h 34

L’intérêt de miser sur des modules OCP, c’est que tu laisses le choix au client de sa solution réseau. Si tu mets du 10G Intel et que le client veut du Broacom 25G… Je n’ai pas compris la remarque sur la densité ?



Comme dit, principalement les CSP sans doute et tous ceux qui veulent de la densité avant tout.

Le 10/11/2021 à 10h 34

Pour remonter ce genre de choses il y a un bouton de signalement, plus efficace que les commentaires et fait pour ça) :chinois:

Le 10/11/2021 à 10h 32

Attention quand même sur les CUDA Cores, ils sont différents sur Ampere donc on ne peut pas comparer directement. Mais ce sera bien plus performant de toutes façons, oui ;)

Le 10/11/2021 à 09h 15

J’ai ajouté quelques infos suite à la publication de la fiche technique, ça permet de faire des maths sur les performances :chinois:

Le 09/11/2021 à 17h 30

Les AGX sont pour un usage “Pro” (ce sont des modules pour préparer une solution industrielle, robotique, etc. Si tu veux un appareil de bidouille, il faudra attendre Nano Next :D

Le 10/11/2021 à 09h 39

C’est même marqué dans l’article ;)

Le 10/11/2021 à 09h 38

C’est des machines de parc pour les écoles pas pour vendre aux étudiants. D’où la gestion simplifiée, administrée, etc.

Le 10/11/2021 à 08h 35


(reply:61422:Naruto`kun)


Oui c’est pour les usages industriels en général, voir ici.

Le 10/11/2021 à 04h 56

Normalement on parlera performances de gros Xeon bientôt :transpi:

Le 10/11/2021 à 04h 09

Oui comme dit dans l’article, la gratuité n’est pas nouvelle. Ce n’est d’ailleurs pas ça qui est critiqué. Mais plutôt des initiatives comme AWS Activate comme le fait remarquer un lecteur, où tu peux aller gratter jusqu’à 100k$ de gratuité. Le tout cumulé à du lockin.



Sur le fond, je pense qu’ils demandent à ce que ce soit encadré, limité pour être “fair” et éviter un déséquilibre de fait en raison des poches profondes de ces acteurs (ce qui est une démarche classique dans le domaine de la régulation d’un marché avec des acteurs dominants).