votre avatar Abonné

David_L

est avec nous depuis le 13 septembre 2002 ❤️

15083 commentaires

Le 01/12/2021 à 10h 18

Parce que le X2 et le A170/A510 ce n’est pas la même taille sur la puce ou la même complexité ;) Aussi parce que l’architecture des X2 a été poussée pour du cas d’usage 1C, et savoir exécuter très rapidement une tâche, tout en distribuant sur des cœurs plus petit le reste (ce qui est le sens du Turbo sur les processeurs ces dernières années mais prend de plus en plus cette forme dans les SoC en conception hybride avec un besoin d’efficacité dans tous les sens du terme).

Le 01/12/2021 à 09h 14

Le principe de l’évolution des puces c’est de renforcer l’efficacité énérgétique à chaque génération. Après faire la même perf à conso réduite ou plus de perfs à ISO conso c’est un choix.

Le 01/12/2021 à 05h 45

Quel est ton souci exactement ?

Le 26/11/2021 à 14h 01

Parce que 288 watts sur une seule broche 12V, ça poserait quelques soucis ;)

Le 01/12/2021 à 05h 37

C’est déjà le cas (via VROC notamment). La question c’est surtout de savoir quel impact ça aura sur la grille tarifaire et la multiplication des SKU (parce que l’idée de fond semble être de les réduire en permettant plutôt d’adapter aux besoins via SDSi, mais je suis méfiant de l’imagination d’Intel en la matière :D). Mais aussi quelle flexibilité ça aura en pratique (adaptation de l’infra à la demande).

Le 30/11/2021 à 13h 42

On ne parle pas ici de fonctionnalités généralistes (comme les jeux d’instructions) mais spécifiques à certains marchés (où Intel propose en général l’implémentation open source, comme QAT). Comme évoqué ici, tous les constructeurs font ça ici c’est juste le mode d’activation qui change.

Le 30/11/2021 à 16h 23

Je sais que certains ont une passion pour la redondance, mais

Le 30/11/2021 à 13h 30

Il a surtout la moitié du budget PoE et pas de PoE++ ;)

Le 30/11/2021 à 07h 07

My bad, je confonds toujours, merci c’est modifié :transpi:

Le 29/11/2021 à 10h 06


Ethan23 a dit:


Merci pour cet article, il tombe à pique.



Petite question :




  • dans le cas d’un cluster de 2 machines (absence de quorum), si l’une tombe en rade puis est à nouveau détecter, que se passe t-il ?



Merci par avance !


Cela peut dépendre des paramètres, mais les ressources sont remises en place dès que le nœud revient




zwindler a dit:


Très intéressant le test de migration avec des CPU différents (et même de constructeurs différents).



Ca nécessite tout de même de faire gaffe au niveau de compatibilité au niveau des flags CPU activés/activable côté VM non si les gen sont trop éloignées ?


Comme dit dans l’article, si les architectures sont différentes ils vaut mieux utiliser un profil similaire (genre kvm64 comme évoqué plus haut). On peut perdre en perf, mais ça évite pas mal de souci (notamment openssl ne migrait que dans un sens avec un profil “host” entre EPYC/Xeon.

Le 29/11/2021 à 08h 47

Parce qu’on en parlera sans doute par la suite ;) Mais de manière plus générale, c’était surtout pour montrer comment ça pouvait être mis en place sans dépendre d’une solution spécifique côté stockage (autre que le système de fichiers à sélectionner).

Le 27/11/2021 à 14h 47

oui j’avais bien compris ce point. C’était juste d’être certain que quelqu’un qui a cet use case ne s’embarque pas dans du Docker parce qu’il tombe sur cet article. Je pense que ca serait bien de l’indiquer dans l’article car son titre peut laisser pensé que c’est une solution sérieuse et pérenne et pas juste un exercice pédagogique sur Docker.

C’est aussi pour ça que je renvoie vers l’exemple initial qui était un hébergement PaaS plus “classique”. Et le titre mentionne ici bien qu’on le fait de manière spécifique pour un usage “à la demande” (et donc CaaS). Mais c’est comme quand on explique comment faire un site web nginx/alpine, ça permet de découvrir les possibilités et les bases. Si tu veux faire de la prod “sérieuse”, il faut forcément aller un peu plus loin :D

Le 27/11/2021 à 13h 20

Pages ce n’est pas que des templates. On peut déployer n’importe quel site statique avec et même le faire générer avec l’automation de Github Actions. J’utilise Hugo par exemple avec le résultat sur un site Pages. D’ailleurs leur templates utilisent Jekyll.



Mais effectivement ce n’est pas le but ici.

Ce que je veux dire, c’est que comme précisé dans l’article, le code ici déployé est un prétexte, pas représentatif du use case ultime (concept qui n’existe pas)

Le 26/11/2021 à 17h 58

Je comprends bien l’exercice pour démontrer l’usage d’un conteneur.



Une autre approche pour un site statique, et tout en restant chez Scaleway, pourrait être d’utiliser un bucket S3 : + “éco-friendly” et + simple.



La fonction Bucket Website permet d’héberger des sites web statiques en utilisant Scaleway Object Storage. + d’infos

je sais ;)

Le 26/11/2021 à 07h 43

Dans tous les cas tu paiera ton frontal de manière constante. L’intérêt du CaaS ici évoqué, c’est de montrer que tu peux avoir un conteneur, mais monté et facturé uniquement à la demande. Après il faut pouvoir supporter le cold start, mais c’est une option intéressante qui peut être utile dans certains cas ou pour certains éléments non critiques (en termes de réactivité) d’une infra.

Le 25/11/2021 à 18h 34

Je vois l’idée, mais pour des pages statiques, ça n’est pas super convaincant par rapport à un mutualisé ;). Mais je vois l’intérêt pour des services intensifs en cpu, à la sollicitation irrégulière.



Et un grand merci pour cette série d’articles, ça permet d’y voir un peu plus clair quand on suit ça de très loin. Une présentation claire et sans jargon, c’est ce que j’attendais depuis longtemps :inpactitude:

Il n’y a pas de règle constamment valable. Si tu veux un site pour répondre à quelques requête ici ou là (j’en ai quelques uns à titre perso), du CaaS fera l’affaire.



Pourquoi payer un serveur à l’année ? Comme ça peut être très adapté pour répondre à certaines requêtes via une brique isolée. Si tu as un besoin constant et du trafic plus ou moins important, tu iras vers d’autres solutions (mutualisé ou PaaS, le second simplifiant le déploiement).

Le 25/11/2021 à 14h 55

Voir le projet de départ du site (le lien est dans l’article ;)) Comme dit, ce n’est qu’un prétexte à du déploiement Docker sur un serveur distant, de manière classique ou CaaS.



Note au passage que Pages c’est un peu différent puisque le but principal c’est d’utiliser un template pour un site qui sera généré avant d’être déployé, le plus souvent pour présenter un projet issu d’un dépôt (ça a été créé pour ça au départ), ce qui n’est pas le cas ici.

Le 25/11/2021 à 12h 29

C’est justement le contraire, sur le fond tu monopolises juste un conteneur activé à la demande, là où certains hébergent ce genre de site sur des instances surdimensionnées ou des serveurs mutualisés/dédiés constamment fonctionnels. On a dit “éco-conception” :D



Pour la création, ça peut paraître lourd parce que je détaille tout, mais en réalité tu récupères le code, tu déploies, tu en as pour 2 minutes, allez 10 si tu n’as pas de compte au départ :D



PS : et comme évoqué à la fin de l’article, je prends l’exemple d’un site parce qu’il est simple à comprendre avec quelque chose de “concret” au bout. Mais tu mets dans ton conteneur ce que tu veux. C’est tout l’intérêt d’une telle solution par rapport à une figée sur un usage particulier.

Le 27/11/2021 à 14h 29

Voir le papier Intel 2022 en lien, on avait détaillé

Le 26/11/2021 à 13h 56


(reply:1914847:dj0-)


Non pas de manière systématique, on a pas toujours la place. Il y a la description où c’est précisé en général

Le 26/11/2021 à 13h 29


(reply:1914834:Trit’)


“Tout lire avant, faire après” ;)

Le 26/11/2021 à 08h 32

Oui j’ai modifié c’était le cas depuis les annonces de juin d’ailleurs

Le 26/11/2021 à 06h 10

Oui pour chaque campagne on distribue les 12 derniers mois de dessins de Flock

Le 25/11/2021 à 18h 03


(reply:1914741:Z-os)


Merci de nous soutenir dans tous les cas :chinois:

Le 25/11/2021 à 15h 42

Monte en gamme, ça grimpe à 6 To ;)

Le 25/11/2021 à 14h 59

Faudra voir si HIP n’est pas tout de même activable sur la version finale/pilote final sur les modèles GCN. AMD peut très bien le proposer sans support (HIP gérant ces générations de mémoire).

Le 25/11/2021 à 13h 22

Tu peux faire plusieurs réponses dans un message pour limiter le multi-post ;)

Le 25/11/2021 à 12h 58


(reply:61716:skankhunt42 )


Un pico à l’unité ça coûte 4,2 € ;)

Le 25/11/2021 à 06h 22

Pour ma part j’ai déjà constaté que si Alpine est généralement intéressante, parfois il est plus pertinent de partir d’une Debian ou équivalent car l’ajout de paquets sur Alpine peut s’avérer plus fastidieux.



Dernier exemple en date que j’ai en tête, on avait tenté une base Alpine pour un outil Python, mais des requirements nécessitaient de compiler des objets là où la base Debian les avait prêts à l’emploi dans le gestionnaire de paquets. La base Alpine s’est retrouvée avec 1GB de layer supplémentaire là où la base Debian n’a eu qu’une centaine de MB en plus.



Bref, des Lego avec lesquels s’amuser pour construire des trucs cools. :D

Oui Alpine est pas mal pour certains besoins mais montre la limite de ses outils de compilations/libc spécifiques pour d’autres. Note que l’image Python a un tag debian “slim” pour ceux qui veulent une image compacte sur une base “classique”

Le 24/11/2021 à 08h 38

Et en plus on apprend à calculer des racines cubiques en Python :D

Le 23/11/2021 à 19h 26

Je précise que c’est une procédure spécifique à Raspberry Pi OS à ne pas faire en production. A faire : lire avant de commenter :D

Le 23/11/2021 à 19h 16

Effectivement, my bad, c’est plus clair en détaillant ainsi tu as raison :chinois:

Le 24/11/2021 à 10h 29

Attention à ne pas confondre le monde et le monde tel qu’on le perçoit de son point de vue. Chez NVIDIA, les solutions pour station de travail c’est 577 M\( de revenus rien que sur le dernier trimestre. Les solutions pour datacenter c'est 2 936 M\) sur le dernier trimestre. Certes, les deux réunis ça fait à peu près autant que la branche Gaming, mais je doute que ça mène à la conclusion que ta vision est la bonne.



Et ce n’est pas parce qu’une grosse boite livre de postes clients légers à ses employés qui ont un profil de joueur, tout comme leur voisin, que le besoin de puissance de calcul n’existe pas par ailleurs :chinois:

Le 24/11/2021 à 08h 51

Tu entends quoi par là ? Pour les annonces de produit c’est assez classique de lancer une gamme avec de larges “trous” pour ensuite venir les combler en adaptant à la demande/concurrence.

Le 24/11/2021 à 09h 51

Décidément quel expert :-) . Encore merci.

Il y a un article pour ça

Le 22/11/2021 à 07h 43

Ce n’est pas exactement la même chose, mais je suppose que tu le sais très bien ;) Sinon pour Docker sur M1, attention à un point pour le moment :




System requirements
You must install Rosetta 2 as some binaries are still Darwin/AMD64.


Le 23/11/2021 à 19h 10

Chut, tu vas réveiller Sheep :D

Le 23/11/2021 à 18h 40

Oui ça peut être à la hausse ou à la baisse. Mais bon tu peux prendre un Pi Zero 2W sinon :D

Le 23/11/2021 à 04h 06

Il fait référence à un nouveau stepping du SoC mais ne se base sur rien. Si la montée en fréquence était liée à la montée en stepping, on ne pourrait pas O/C les modèles antérieurs. Et la fondation l’aurait sans doute mentionné clairement dans son billet. Or elle évoque juste des PCB “récents” avec les composants. Au mieux on peut essayer de lier ça à la révision de la carte (ce qui est plus logique), mais sans pouvoir le vérifier à moins d’avoir de nombreux modèles de la carte à dispo dans différentes versions.



Il faudrait avoir un modèle avec ces composants sous la main, et ce n’est pas mon cas :D

Le 22/11/2021 à 17h 03

Tu as déjà pas mal de SBC Intel/x86 sur des architectures récentes, mais comme dit plus haut, ce sont le plus souvent des solutions qui répondent à des besoins spécifiques vendues par des constructeurs spécialisés (plutôt que du KickStarter). Intel propose aussi ses Compute Module pour du clé en main.



Une carte comme celle que tu évoques est intéressante pour son côté “tout en un” et la base x86, mais ça n’a rien à voir avec ce pourquoi un RPi est fait au départ, tout en étant plus gros (125 x 78 mm contre 85 × 56 mm). Différents besoins, différents produits.



Il faut par contre faire attention, ce n’est pas du tout du 11th Gen. Le N5105 est un SoC 4C/4T basse conso (dérivé d’Atom), ce sont les Jasper Lake, qui n’ont rien à voir avec les processeurs Core (11e Gen
= Tiger Lake). On avait testé un modèle 2C ici.

Le 22/11/2021 à 15h 25

Ce serait vrai si ça modifie la tension de fonctionnement du SoC à la baisse à même fréquence, à vérifier mais ce n’est pas annoncé comme tel en tous cas.

Le 22/11/2021 à 14h 56

Pour 6,5x le prix, encore heureux que ce soit plus performant :D (mais bon il existe déjà pas mal de SBC sur base Intel, pas toujours du Core parce que c’est pas toujours le besoin, mais Intel a une gamme Embed dédiée pour couvrir les solutions spécifiques à ce marché, Canonical est partenaire d’aileurs)

Le 22/11/2021 à 11h 27

Comme dit dans l’article, déjà à 1,5 GHz il y a du throttling ;) Ce qui serait intéressant c’est de savoir dans quelles conditions et avec quelle charge les tests de qualification sont effectués.

Le 23/11/2021 à 04h 38


(reply:1913909:33A20158-2813-4F0D-9D4A-FD05E2C42E48)


cadeau :D

Le 22/11/2021 à 12h 53

Les abonnements sont fournis sous la forme de code, il n’y a pas de lien à faire entre Ulule et NXi

Le 22/11/2021 à 07h 40

Les CSP ne font pas leur software ? C’est l’essentiel de leur offre au contraire ;)

Le 21/11/2021 à 16h 46

Parce que C(++) ce n’est pas du standard ? OpenCL a surtout été lancé pour tenter de faire concurrence à CUDA (dont il est un dérivé pour rappel au départ) sans que personne ne s’y investisse vraiment. Il n’a jamais massivement été utilisé, aussi pour cette raison.



Maintenant, il y a des besoins concrets et donc des solutions (efficaces) à trouver. Parce qu’il faut forcément que le GPU puisse comprendre le code C(++) et qu’il soit adapté, donc une couche intermédiaire. La solution d’AMD est non limitée à ses propres GPU et open source, quel est donc le problème sur le fond ?

Le 21/11/2021 à 16h 40


(reply:61629:Idiogène)


Je ne parle pas pour ce produit là en particulier, mais il faudrait arrêter avec “le Raspberry Pi est la réponse à tout”. C’est faux, et c’est même l’inverse : il ne répond pas au besoin pour la plupart des cas. Pour une raison simple : la plupart des cas c’est d’avoir quelque chose de simple, qui fonctionne.



Le bidouilleur va préférer le RPi, et c’est très bien pour lui. Celui qui a un bidouilleur qui peut le dépanner en cas de souci pourra aussi s’en tirer. Mais le bidouilleur gagnerait en pertinence dans son discours à ne pas penser que son cas = une généralité. Les besoins dont divers, donc dire “je ne comprends pas parce que moi je fais autrement et c’est mieux” ça montre juste une fermeture d’esprit.



L’intérêt de ces produits c’est la démocratisation de la domotique. Il faut que ce soit fait de manière correcte (ouverte, locale, etc.) mais que ça reste simple. Moi aussi j’aime passer le week-end à bidouiller des trucs. Mais la plupart des gens passent leur WE à faire autre chose et n’en ont rien à faire de passer 26h à faire fonctionner leurs volets roulants. Délaisser cela c’est paver le chemin à des solutions clé en main mais aliénantes. C’est donc tout sauf ce qu’il faut faire :chinois:

Le 21/11/2021 à 16h 32

Le DS1821+ est à base de Ryzen V1500B sans partie graphique. Si la lecture 4K avec transcoding côté serveur était l’idée c’était un mauvais choix (je n’ai d’ailleurs pas souvenir qu’il soit présenté come destiné à cet usage). Mais Synology n’est pas responsable des mauvais choix de ses clients.



Au passage attention à une confusion courante : un NAS n’est pas fait pour “lire du contenu”. Il est là pour stocker des données, les mettre à disposition de clients qui lisent les contenus. Ce sont eux qui doivent gérer tel ou tel format, avec tel ou tel débit. Il existe du transcoding côté serveur qui peut être utilisé pour de la lecture multimédia mais il n’est là que pour palier un client déficient.



Mais dans tous les cas, et quelque soit le constructeur de NAS, associer un mauvais client à un mauvais serveur pour un usage donné, ça pose forcément problème.

Le 21/11/2021 à 11h 38

Ne mélange pas tout. Avoir un prix pour avoir présenté des recherches spécifiques avec une machine est une chose effectivement tout à fait respectable. Mais si tu veux clamer que ta machine est Exaflopique (1.2 Eflops FP32 ici), il faut publier des chiffres qui permettent de le vérifier. Or, rien dans le prix gagné ou le CP que tu as mentionné ne l’assure. Le classement TOP500 a été créé pour unifier les choses à ce sujet, on attend donc la soumission d’un résultat pour vérifier le niveau de performances effectif.