Parce que le X2 et le A170/A510 ce n’est pas la même taille sur la puce ou la même complexité ;) Aussi parce que l’architecture des X2 a été poussée pour du cas d’usage 1C, et savoir exécuter très rapidement une tâche, tout en distribuant sur des cœurs plus petit le reste (ce qui est le sens du Turbo sur les processeurs ces dernières années mais prend de plus en plus cette forme dans les SoC en conception hybride avec un besoin d’efficacité dans tous les sens du terme).
Le
01/12/2021 à
09h
14
Le principe de l’évolution des puces c’est de renforcer l’efficacité énérgétique à chaque génération. Après faire la même perf à conso réduite ou plus de perfs à ISO conso c’est un choix.
C’est déjà le cas (via VROC notamment). La question c’est surtout de savoir quel impact ça aura sur la grille tarifaire et la multiplication des SKU (parce que l’idée de fond semble être de les réduire en permettant plutôt d’adapter aux besoins via SDSi, mais je suis méfiant de l’imagination d’Intel en la matière ). Mais aussi quelle flexibilité ça aura en pratique (adaptation de l’infra à la demande).
Le
30/11/2021 à
13h
42
On ne parle pas ici de fonctionnalités généralistes (comme les jeux d’instructions) mais spécifiques à certains marchés (où Intel propose en général l’implémentation open source, comme QAT). Comme évoqué ici, tous les constructeurs font ça ici c’est juste le mode d’activation qui change.
dans le cas d’un cluster de 2 machines (absence de quorum), si l’une tombe en rade puis est à nouveau détecter, que se passe t-il ?
Merci par avance !
Cela peut dépendre des paramètres, mais les ressources sont remises en place dès que le nœud revient
zwindler a dit:
Très intéressant le test de migration avec des CPU différents (et même de constructeurs différents).
Ca nécessite tout de même de faire gaffe au niveau de compatibilité au niveau des flags CPU activés/activable côté VM non si les gen sont trop éloignées ?
Comme dit dans l’article, si les architectures sont différentes ils vaut mieux utiliser un profil similaire (genre kvm64 comme évoqué plus haut). On peut perdre en perf, mais ça évite pas mal de souci (notamment openssl ne migrait que dans un sens avec un profil “host” entre EPYC/Xeon.
Le
29/11/2021 à
08h
47
Parce qu’on en parlera sans doute par la suite ;) Mais de manière plus générale, c’était surtout pour montrer comment ça pouvait être mis en place sans dépendre d’une solution spécifique côté stockage (autre que le système de fichiers à sélectionner).
oui j’avais bien compris ce point. C’était juste d’être certain que quelqu’un qui a cet use case ne s’embarque pas dans du Docker parce qu’il tombe sur cet article. Je pense que ca serait bien de l’indiquer dans l’article car son titre peut laisser pensé que c’est une solution sérieuse et pérenne et pas juste un exercice pédagogique sur Docker.
C’est aussi pour ça que je renvoie vers l’exemple initial qui était un hébergement PaaS plus “classique”. Et le titre mentionne ici bien qu’on le fait de manière spécifique pour un usage “à la demande” (et donc CaaS). Mais c’est comme quand on explique comment faire un site web nginx/alpine, ça permet de découvrir les possibilités et les bases. Si tu veux faire de la prod “sérieuse”, il faut forcément aller un peu plus loin
Le
27/11/2021 à
13h
20
Pages ce n’est pas que des templates. On peut déployer n’importe quel site statique avec et même le faire générer avec l’automation de Github Actions. J’utilise Hugo par exemple avec le résultat sur un site Pages. D’ailleurs leur templates utilisent Jekyll.
Mais effectivement ce n’est pas le but ici.
Ce que je veux dire, c’est que comme précisé dans l’article, le code ici déployé est un prétexte, pas représentatif du use case ultime (concept qui n’existe pas)
Le
26/11/2021 à
17h
58
Je comprends bien l’exercice pour démontrer l’usage d’un conteneur.
Une autre approche pour un site statique, et tout en restant chez Scaleway, pourrait être d’utiliser un bucket S3 : + “éco-friendly” et + simple.
La fonction Bucket Website permet d’héberger des sites web statiques en utilisant Scaleway Object Storage. + d’infos
Dans tous les cas tu paiera ton frontal de manière constante. L’intérêt du CaaS ici évoqué, c’est de montrer que tu peux avoir un conteneur, mais monté et facturé uniquement à la demande. Après il faut pouvoir supporter le cold start, mais c’est une option intéressante qui peut être utile dans certains cas ou pour certains éléments non critiques (en termes de réactivité) d’une infra.
Le
25/11/2021 à
18h
34
Je vois l’idée, mais pour des pages statiques, ça n’est pas super convaincant par rapport à un mutualisé ;). Mais je vois l’intérêt pour des services intensifs en cpu, à la sollicitation irrégulière.
Et un grand merci pour cette série d’articles, ça permet d’y voir un peu plus clair quand on suit ça de très loin. Une présentation claire et sans jargon, c’est ce que j’attendais depuis longtemps
Il n’y a pas de règle constamment valable. Si tu veux un site pour répondre à quelques requête ici ou là (j’en ai quelques uns à titre perso), du CaaS fera l’affaire.
Pourquoi payer un serveur à l’année ? Comme ça peut être très adapté pour répondre à certaines requêtes via une brique isolée. Si tu as un besoin constant et du trafic plus ou moins important, tu iras vers d’autres solutions (mutualisé ou PaaS, le second simplifiant le déploiement).
Le
25/11/2021 à
14h
55
Voir le projet de départ du site (le lien est dans l’article ;)) Comme dit, ce n’est qu’un prétexte à du déploiement Docker sur un serveur distant, de manière classique ou CaaS.
Note au passage que Pages c’est un peu différent puisque le but principal c’est d’utiliser un template pour un site qui sera généré avant d’être déployé, le plus souvent pour présenter un projet issu d’un dépôt (ça a été créé pour ça au départ), ce qui n’est pas le cas ici.
Le
25/11/2021 à
12h
29
C’est justement le contraire, sur le fond tu monopolises juste un conteneur activé à la demande, là où certains hébergent ce genre de site sur des instances surdimensionnées ou des serveurs mutualisés/dédiés constamment fonctionnels. On a dit “éco-conception”
Pour la création, ça peut paraître lourd parce que je détaille tout, mais en réalité tu récupères le code, tu déploies, tu en as pour 2 minutes, allez 10 si tu n’as pas de compte au départ
PS : et comme évoqué à la fin de l’article, je prends l’exemple d’un site parce qu’il est simple à comprendre avec quelque chose de “concret” au bout. Mais tu mets dans ton conteneur ce que tu veux. C’est tout l’intérêt d’une telle solution par rapport à une figée sur un usage particulier.
Faudra voir si HIP n’est pas tout de même activable sur la version finale/pilote final sur les modèles GCN. AMD peut très bien le proposer sans support (HIP gérant ces générations de mémoire).
Pour ma part j’ai déjà constaté que si Alpine est généralement intéressante, parfois il est plus pertinent de partir d’une Debian ou équivalent car l’ajout de paquets sur Alpine peut s’avérer plus fastidieux.
Dernier exemple en date que j’ai en tête, on avait tenté une base Alpine pour un outil Python, mais des requirements nécessitaient de compiler des objets là où la base Debian les avait prêts à l’emploi dans le gestionnaire de paquets. La base Alpine s’est retrouvée avec 1GB de layer supplémentaire là où la base Debian n’a eu qu’une centaine de MB en plus.
Bref, des Lego avec lesquels s’amuser pour construire des trucs cools.
Oui Alpine est pas mal pour certains besoins mais montre la limite de ses outils de compilations/libc spécifiques pour d’autres. Note que l’image Python a un tag debian “slim” pour ceux qui veulent une image compacte sur une base “classique”
Le
24/11/2021 à
08h
38
Et en plus on apprend à calculer des racines cubiques en Python
Le
23/11/2021 à
19h
26
Je précise que c’est une procédure spécifique à Raspberry Pi OS à ne pas faire en production. A faire : lire avant de commenter
Le
23/11/2021 à
19h
16
Effectivement, my bad, c’est plus clair en détaillant ainsi tu as raison
Attention à ne pas confondre le monde et le monde tel qu’on le perçoit de son point de vue. Chez NVIDIA, les solutions pour station de travail c’est 577 M\( de revenus rien que sur le dernier trimestre. Les solutions pour datacenter c'est 2 936 M\) sur le dernier trimestre. Certes, les deux réunis ça fait à peu près autant que la branche Gaming, mais je doute que ça mène à la conclusion que ta vision est la bonne.
Et ce n’est pas parce qu’une grosse boite livre de postes clients légers à ses employés qui ont un profil de joueur, tout comme leur voisin, que le besoin de puissance de calcul n’existe pas par ailleurs
Le
24/11/2021 à
08h
51
Tu entends quoi par là ? Pour les annonces de produit c’est assez classique de lancer une gamme avec de larges “trous” pour ensuite venir les combler en adaptant à la demande/concurrence.
Oui ça peut être à la hausse ou à la baisse. Mais bon tu peux prendre un Pi Zero 2W sinon
Le
23/11/2021 à
04h
06
Il fait référence à un nouveau stepping du SoC mais ne se base sur rien. Si la montée en fréquence était liée à la montée en stepping, on ne pourrait pas O/C les modèles antérieurs. Et la fondation l’aurait sans doute mentionné clairement dans son billet. Or elle évoque juste des PCB “récents” avec les composants. Au mieux on peut essayer de lier ça à la révision de la carte (ce qui est plus logique), mais sans pouvoir le vérifier à moins d’avoir de nombreux modèles de la carte à dispo dans différentes versions.
Il faudrait avoir un modèle avec ces composants sous la main, et ce n’est pas mon cas
Le
22/11/2021 à
17h
03
Tu as déjà pas mal de SBC Intel/x86 sur des architectures récentes, mais comme dit plus haut, ce sont le plus souvent des solutions qui répondent à des besoins spécifiques vendues par des constructeurs spécialisés (plutôt que du KickStarter). Intel propose aussi ses Compute Module pour du clé en main.
Une carte comme celle que tu évoques est intéressante pour son côté “tout en un” et la base x86, mais ça n’a rien à voir avec ce pourquoi un RPi est fait au départ, tout en étant plus gros (125 x 78 mm contre 85 × 56 mm). Différents besoins, différents produits.
Il faut par contre faire attention, ce n’est pas du tout du 11th Gen. Le N5105 est un SoC 4C/4T basse conso (dérivé d’Atom), ce sont les Jasper Lake, qui n’ont rien à voir avec les processeurs Core (11e Gen = Tiger Lake). On avait testé un modèle 2C ici.
Le
22/11/2021 à
15h
25
Ce serait vrai si ça modifie la tension de fonctionnement du SoC à la baisse à même fréquence, à vérifier mais ce n’est pas annoncé comme tel en tous cas.
Le
22/11/2021 à
14h
56
Pour 6,5x le prix, encore heureux que ce soit plus performant (mais bon il existe déjà pas mal de SBC sur base Intel, pas toujours du Core parce que c’est pas toujours le besoin, mais Intel a une gamme Embed dédiée pour couvrir les solutions spécifiques à ce marché, Canonical est partenaire d’aileurs)
Le
22/11/2021 à
11h
27
Comme dit dans l’article, déjà à 1,5 GHz il y a du throttling ;) Ce qui serait intéressant c’est de savoir dans quelles conditions et avec quelle charge les tests de qualification sont effectués.
Parce que C(++) ce n’est pas du standard ? OpenCL a surtout été lancé pour tenter de faire concurrence à CUDA (dont il est un dérivé pour rappel au départ) sans que personne ne s’y investisse vraiment. Il n’a jamais massivement été utilisé, aussi pour cette raison.
Maintenant, il y a des besoins concrets et donc des solutions (efficaces) à trouver. Parce qu’il faut forcément que le GPU puisse comprendre le code C(++) et qu’il soit adapté, donc une couche intermédiaire. La solution d’AMD est non limitée à ses propres GPU et open source, quel est donc le problème sur le fond ?
Je ne parle pas pour ce produit là en particulier, mais il faudrait arrêter avec “le Raspberry Pi est la réponse à tout”. C’est faux, et c’est même l’inverse : il ne répond pas au besoin pour la plupart des cas. Pour une raison simple : la plupart des cas c’est d’avoir quelque chose de simple, qui fonctionne.
Le bidouilleur va préférer le RPi, et c’est très bien pour lui. Celui qui a un bidouilleur qui peut le dépanner en cas de souci pourra aussi s’en tirer. Mais le bidouilleur gagnerait en pertinence dans son discours à ne pas penser que son cas = une généralité. Les besoins dont divers, donc dire “je ne comprends pas parce que moi je fais autrement et c’est mieux” ça montre juste une fermeture d’esprit.
L’intérêt de ces produits c’est la démocratisation de la domotique. Il faut que ce soit fait de manière correcte (ouverte, locale, etc.) mais que ça reste simple. Moi aussi j’aime passer le week-end à bidouiller des trucs. Mais la plupart des gens passent leur WE à faire autre chose et n’en ont rien à faire de passer 26h à faire fonctionner leurs volets roulants. Délaisser cela c’est paver le chemin à des solutions clé en main mais aliénantes. C’est donc tout sauf ce qu’il faut faire
Le DS1821+ est à base de Ryzen V1500B sans partie graphique. Si la lecture 4K avec transcoding côté serveur était l’idée c’était un mauvais choix (je n’ai d’ailleurs pas souvenir qu’il soit présenté come destiné à cet usage). Mais Synology n’est pas responsable des mauvais choix de ses clients.
Au passage attention à une confusion courante : un NAS n’est pas fait pour “lire du contenu”. Il est là pour stocker des données, les mettre à disposition de clients qui lisent les contenus. Ce sont eux qui doivent gérer tel ou tel format, avec tel ou tel débit. Il existe du transcoding côté serveur qui peut être utilisé pour de la lecture multimédia mais il n’est là que pour palier un client déficient.
Mais dans tous les cas, et quelque soit le constructeur de NAS, associer un mauvais client à un mauvais serveur pour un usage donné, ça pose forcément problème.
Ne mélange pas tout. Avoir un prix pour avoir présenté des recherches spécifiques avec une machine est une chose effectivement tout à fait respectable. Mais si tu veux clamer que ta machine est Exaflopique (1.2 Eflops FP32 ici), il faut publier des chiffres qui permettent de le vérifier. Or, rien dans le prix gagné ou le CP que tu as mentionné ne l’assure. Le classement TOP500 a été créé pour unifier les choses à ce sujet, on attend donc la soumission d’un résultat pour vérifier le niveau de performances effectif.
15083 commentaires
Qualcomm dévoile son Snapdragon 8 Gen 1 (ARMv9, 4 nm)
01/12/2021
Le 01/12/2021 à 10h 18
Parce que le X2 et le A170/A510 ce n’est pas la même taille sur la puce ou la même complexité ;) Aussi parce que l’architecture des X2 a été poussée pour du cas d’usage 1C, et savoir exécuter très rapidement une tâche, tout en distribuant sur des cœurs plus petit le reste (ce qui est le sens du Turbo sur les processeurs ces dernières années mais prend de plus en plus cette forme dans les SoC en conception hybride avec un besoin d’efficacité dans tous les sens du terme).
Le 01/12/2021 à 09h 14
Le principe de l’évolution des puces c’est de renforcer l’efficacité énérgétique à chaque génération. Après faire la même perf à conso réduite ou plus de perfs à ISO conso c’est un choix.
FSP dévoile une alimentation SFX12VO de 750 watts
26/11/2021
Le 01/12/2021 à 05h 45
Quel est ton souci exactement ?
Le 26/11/2021 à 14h 01
Parce que 288 watts sur une seule broche 12V, ça poserait quelques soucis ;)
Intel SDSi : sur Sapphire Rapids, même les fonctionnalités seront modulaires
30/11/2021
Le 01/12/2021 à 05h 37
C’est déjà le cas (via VROC notamment). La question c’est surtout de savoir quel impact ça aura sur la grille tarifaire et la multiplication des SKU (parce que l’idée de fond semble être de les réduire en permettant plutôt d’adapter aux besoins via SDSi, mais je suis méfiant de l’imagination d’Intel en la matière ). Mais aussi quelle flexibilité ça aura en pratique (adaptation de l’infra à la demande).
Le 30/11/2021 à 13h 42
On ne parle pas ici de fonctionnalités généralistes (comme les jeux d’instructions) mais spécifiques à certains marchés (où Intel propose en général l’implémentation open source, comme QAT). Comme évoqué ici, tous les constructeurs font ça ici c’est juste le mode d’activation qui change.
IPv6 en France : la situation s’améliore… mais « la transition est encore loin d’être suffisante »
30/11/2021
Le 30/11/2021 à 16h 23
Je sais que certains ont une passion pour la redondance, mais
Netgear MS108EUP : un switch 8x 2,5 Gb/s PoE+(+)
30/11/2021
Le 30/11/2021 à 13h 30
Il a surtout la moitié du budget PoE et pas de PoE++ ;)
Proxmox VE : créer un cluster, gérer la haute disponibilité et les migrations (live)
29/11/2021
Le 30/11/2021 à 07h 07
My bad, je confonds toujours, merci c’est modifié
Le 29/11/2021 à 10h 06
Cela peut dépendre des paramètres, mais les ressources sont remises en place dès que le nœud revient
Comme dit dans l’article, si les architectures sont différentes ils vaut mieux utiliser un profil similaire (genre kvm64 comme évoqué plus haut). On peut perdre en perf, mais ça évite pas mal de souci (notamment openssl ne migrait que dans un sens avec un profil “host” entre EPYC/Xeon.
Le 29/11/2021 à 08h 47
Parce qu’on en parlera sans doute par la suite ;) Mais de manière plus générale, c’était surtout pour montrer comment ça pouvait être mis en place sans dépendre d’une solution spécifique côté stockage (autre que le système de fichiers à sélectionner).
Comment déployer un site statique à la demande via Docker (CaaS) et votre propre image
25/11/2021
Le 27/11/2021 à 14h 47
C’est aussi pour ça que je renvoie vers l’exemple initial qui était un hébergement PaaS plus “classique”. Et le titre mentionne ici bien qu’on le fait de manière spécifique pour un usage “à la demande” (et donc CaaS). Mais c’est comme quand on explique comment faire un site web nginx/alpine, ça permet de découvrir les possibilités et les bases. Si tu veux faire de la prod “sérieuse”, il faut forcément aller un peu plus loin
Le 27/11/2021 à 13h 20
Ce que je veux dire, c’est que comme précisé dans l’article, le code ici déployé est un prétexte, pas représentatif du use case ultime (concept qui n’existe pas)
Le 26/11/2021 à 17h 58
je sais ;)
Le 26/11/2021 à 07h 43
Dans tous les cas tu paiera ton frontal de manière constante. L’intérêt du CaaS ici évoqué, c’est de montrer que tu peux avoir un conteneur, mais monté et facturé uniquement à la demande. Après il faut pouvoir supporter le cold start, mais c’est une option intéressante qui peut être utile dans certains cas ou pour certains éléments non critiques (en termes de réactivité) d’une infra.
Le 25/11/2021 à 18h 34
Il n’y a pas de règle constamment valable. Si tu veux un site pour répondre à quelques requête ici ou là (j’en ai quelques uns à titre perso), du CaaS fera l’affaire.
Pourquoi payer un serveur à l’année ? Comme ça peut être très adapté pour répondre à certaines requêtes via une brique isolée. Si tu as un besoin constant et du trafic plus ou moins important, tu iras vers d’autres solutions (mutualisé ou PaaS, le second simplifiant le déploiement).
Le 25/11/2021 à 14h 55
Voir le projet de départ du site (le lien est dans l’article ;)) Comme dit, ce n’est qu’un prétexte à du déploiement Docker sur un serveur distant, de manière classique ou CaaS.
Note au passage que Pages c’est un peu différent puisque le but principal c’est d’utiliser un template pour un site qui sera généré avant d’être déployé, le plus souvent pour présenter un projet issu d’un dépôt (ça a été créé pour ça au départ), ce qui n’est pas le cas ici.
Le 25/11/2021 à 12h 29
C’est justement le contraire, sur le fond tu monopolises juste un conteneur activé à la demande, là où certains hébergent ce genre de site sur des instances surdimensionnées ou des serveurs mutualisés/dédiés constamment fonctionnels. On a dit “éco-conception”
Pour la création, ça peut paraître lourd parce que je détaille tout, mais en réalité tu récupères le code, tu déploies, tu en as pour 2 minutes, allez 10 si tu n’as pas de compte au départ
PS : et comme évoqué à la fin de l’article, je prends l’exemple d’un site parce qu’il est simple à comprendre avec quelque chose de “concret” au bout. Mais tu mets dans ton conteneur ce que tu veux. C’est tout l’intérêt d’une telle solution par rapport à une figée sur un usage particulier.
Alder Lake Mobile : Intel commence à livrer ses clients
24/11/2021
Le 27/11/2021 à 14h 29
Voir le papier Intel 2022 en lien, on avait détaillé
Le récap’ des bons plans du moment, édition spéciale Black Friday
26/11/2021
Le 26/11/2021 à 13h 56
Non pas de manière systématique, on a pas toujours la place. Il y a la description où c’est précisé en général
Installer simplement Arch Linux, c’est possible
26/11/2021
Le 26/11/2021 à 13h 29
“Tout lire avant, faire après” ;)
Proton 6.3 - 8 : le DLSS de NVIDIA est disponible sous Linux pour les jeux DirectX 11/12
26/11/2021
Le 26/11/2021 à 08h 32
Oui j’ai modifié c’était le cas depuis les annonces de juin d’ailleurs
L’Abonnement Next INpact à tarif réduit via notre campagne de financement participatif
29/11/2021
Le 26/11/2021 à 06h 10
Oui pour chaque campagne on distribue les 12 derniers mois de dessins de Flock
Le 25/11/2021 à 18h 03
Merci de nous soutenir dans tous les cas
Gigabyte MX33-BS0 : analyse d’une carte mère pour Xeon E-2300 avec gestion distante
25/11/2021
Le 25/11/2021 à 15h 42
Monte en gamme, ça grimpe à 6 To ;)
Blender 3.0, Cycles-X : pour les GeForce (CUDA/OptiX) et Radeon (HIP) les performances explosent
24/11/2021
Le 25/11/2021 à 14h 59
Faudra voir si HIP n’est pas tout de même activable sur la version finale/pilote final sur les modèles GCN. AMD peut très bien le proposer sans support (HIP gérant ces générations de mémoire).
10 millions d’Arduino UNO vendus : une Mini Limited Edition en précommande
25/11/2021
Le 25/11/2021 à 13h 22
Tu peux faire plusieurs réponses dans un message pour limiter le multi-post ;)
Le 25/11/2021 à 12h 58
Un pico à l’unité ça coûte 4,2 € ;)
Docker et la conteneurisation par l’exemple
23/11/2021
Le 25/11/2021 à 06h 22
Oui Alpine est pas mal pour certains besoins mais montre la limite de ses outils de compilations/libc spécifiques pour d’autres. Note que l’image Python a un tag debian “slim” pour ceux qui veulent une image compacte sur une base “classique”
Le 24/11/2021 à 08h 38
Et en plus on apprend à calculer des racines cubiques en Python
Le 23/11/2021 à 19h 26
Je précise que c’est une procédure spécifique à Raspberry Pi OS à ne pas faire en production. A faire : lire avant de commenter
Le 23/11/2021 à 19h 16
Effectivement, my bad, c’est plus clair en détaillant ainsi tu as raison
NVIDIA dévoile sa RTX A4500 : un avant-goût de GeForce RTX 3070 Super ?
24/11/2021
Le 24/11/2021 à 10h 29
Attention à ne pas confondre le monde et le monde tel qu’on le perçoit de son point de vue. Chez NVIDIA, les solutions pour station de travail c’est 577 M\( de revenus rien que sur le dernier trimestre. Les solutions pour datacenter c'est 2 936 M\) sur le dernier trimestre. Certes, les deux réunis ça fait à peu près autant que la branche Gaming, mais je doute que ça mène à la conclusion que ta vision est la bonne.
Et ce n’est pas parce qu’une grosse boite livre de postes clients légers à ses employés qui ont un profil de joueur, tout comme leur voisin, que le besoin de puissance de calcul n’existe pas par ailleurs
Le 24/11/2021 à 08h 51
Tu entends quoi par là ? Pour les annonces de produit c’est assez classique de lancer une gamme avec de larges “trous” pour ensuite venir les combler en adaptant à la demande/concurrence.
Multipass 1.8 : comment lancer simplement un Ubuntu virtualisé sur un Mac M1
19/11/2021
Le 24/11/2021 à 09h 51
Il y a un article pour ça
Le 22/11/2021 à 07h 43
Ce n’est pas exactement la même chose, mais je suppose que tu le sais très bien ;) Sinon pour Docker sur M1, attention à un point pour le moment :
Chez Ikoula : cœur de réseau 100 Gb/s, Kubernetes managé et Bare Metal-as-a-Service
23/11/2021
Le 23/11/2021 à 19h 10
Chut, tu vas réveiller Sheep
Raspberry Pi 4 : le SoC passe à 1,8 GHz par défaut, et au-delà ?
22/11/2021
Le 23/11/2021 à 18h 40
Oui ça peut être à la hausse ou à la baisse. Mais bon tu peux prendre un Pi Zero 2W sinon
Le 23/11/2021 à 04h 06
Il fait référence à un nouveau stepping du SoC mais ne se base sur rien. Si la montée en fréquence était liée à la montée en stepping, on ne pourrait pas O/C les modèles antérieurs. Et la fondation l’aurait sans doute mentionné clairement dans son billet. Or elle évoque juste des PCB “récents” avec les composants. Au mieux on peut essayer de lier ça à la révision de la carte (ce qui est plus logique), mais sans pouvoir le vérifier à moins d’avoir de nombreux modèles de la carte à dispo dans différentes versions.
Il faudrait avoir un modèle avec ces composants sous la main, et ce n’est pas mon cas
Le 22/11/2021 à 17h 03
Tu as déjà pas mal de SBC Intel/x86 sur des architectures récentes, mais comme dit plus haut, ce sont le plus souvent des solutions qui répondent à des besoins spécifiques vendues par des constructeurs spécialisés (plutôt que du KickStarter). Intel propose aussi ses Compute Module pour du clé en main.
Une carte comme celle que tu évoques est intéressante pour son côté “tout en un” et la base x86, mais ça n’a rien à voir avec ce pourquoi un RPi est fait au départ, tout en étant plus gros (125 x 78 mm contre 85 × 56 mm). Différents besoins, différents produits.
Il faut par contre faire attention, ce n’est pas du tout du 11th Gen. Le N5105 est un SoC 4C/4T basse conso (dérivé d’Atom), ce sont les Jasper Lake, qui n’ont rien à voir avec les processeurs Core (11e Gen
= Tiger Lake). On avait testé un modèle 2C ici.
Le 22/11/2021 à 15h 25
Ce serait vrai si ça modifie la tension de fonctionnement du SoC à la baisse à même fréquence, à vérifier mais ce n’est pas annoncé comme tel en tous cas.
Le 22/11/2021 à 14h 56
Pour 6,5x le prix, encore heureux que ce soit plus performant (mais bon il existe déjà pas mal de SBC sur base Intel, pas toujours du Core parce que c’est pas toujours le besoin, mais Intel a une gamme Embed dédiée pour couvrir les solutions spécifiques à ce marché, Canonical est partenaire d’aileurs)
Le 22/11/2021 à 11h 27
Comme dit dans l’article, déjà à 1,5 GHz il y a du throttling ;) Ce qui serait intéressant c’est de savoir dans quelles conditions et avec quelle charge les tests de qualification sont effectués.
Supercalculateur Jean Zay : une nouvelle partition dédiée à l’IA avec des GPU A100 de NVIDIA
22/11/2021
Le 23/11/2021 à 04h 38
cadeau
Magazine #3 : la campagne de financement est terminée, les 150 % dépassés !
03/12/2021
Le 22/11/2021 à 12h 53
Les abonnements sont fournis sous la forme de code, il n’y a pas de lien à faire entre Ulule et NXi
Scaleway va quitter Gaia-X, Clever Cloud s’inquiète
18/11/2021
Le 22/11/2021 à 07h 40
Les CSP ne font pas leur software ? C’est l’essentiel de leur offre au contraire ;)
Cycles-X : Blender 3.0 (Beta) gère désormais certaines Radeon via HIP
16/11/2021
Le 21/11/2021 à 16h 46
Parce que C(++) ce n’est pas du standard ? OpenCL a surtout été lancé pour tenter de faire concurrence à CUDA (dont il est un dérivé pour rappel au départ) sans que personne ne s’y investisse vraiment. Il n’a jamais massivement été utilisé, aussi pour cette raison.
Maintenant, il y a des besoins concrets et donc des solutions (efficaces) à trouver. Parce qu’il faut forcément que le GPU puisse comprendre le code C(++) et qu’il soit adapté, donc une couche intermédiaire. La solution d’AMD est non limitée à ses propres GPU et open source, quel est donc le problème sur le fond ?
Leroy Merlin annonce Enki Connect : un boîtier Zigbee 3.0 pour ses ampoules Lexman
17/11/2021
Le 21/11/2021 à 16h 40
Je ne parle pas pour ce produit là en particulier, mais il faudrait arrêter avec “le Raspberry Pi est la réponse à tout”. C’est faux, et c’est même l’inverse : il ne répond pas au besoin pour la plupart des cas. Pour une raison simple : la plupart des cas c’est d’avoir quelque chose de simple, qui fonctionne.
Le bidouilleur va préférer le RPi, et c’est très bien pour lui. Celui qui a un bidouilleur qui peut le dépanner en cas de souci pourra aussi s’en tirer. Mais le bidouilleur gagnerait en pertinence dans son discours à ne pas penser que son cas = une généralité. Les besoins dont divers, donc dire “je ne comprends pas parce que moi je fais autrement et c’est mieux” ça montre juste une fermeture d’esprit.
L’intérêt de ces produits c’est la démocratisation de la domotique. Il faut que ce soit fait de manière correcte (ouverte, locale, etc.) mais que ça reste simple. Moi aussi j’aime passer le week-end à bidouiller des trucs. Mais la plupart des gens passent leur WE à faire autre chose et n’en ont rien à faire de passer 26h à faire fonctionner leurs volets roulants. Délaisser cela c’est paver le chemin à des solutions clé en main mais aliénantes. C’est donc tout sauf ce qu’il faut faire
Synology annonce ses DS2422+, DS3622xs+ : extension DX1222 (mini-SAS HD), ports de gestion
19/11/2021
Le 21/11/2021 à 16h 32
Le DS1821+ est à base de Ryzen V1500B sans partie graphique. Si la lecture 4K avec transcoding côté serveur était l’idée c’était un mauvais choix (je n’ai d’ailleurs pas souvenir qu’il soit présenté come destiné à cet usage). Mais Synology n’est pas responsable des mauvais choix de ses clients.
Au passage attention à une confusion courante : un NAS n’est pas fait pour “lire du contenu”. Il est là pour stocker des données, les mettre à disposition de clients qui lisent les contenus. Ce sont eux qui doivent gérer tel ou tel format, avec tel ou tel débit. Il existe du transcoding côté serveur qui peut être utilisé pour de la lecture multimédia mais il n’est là que pour palier un client déficient.
Mais dans tous les cas, et quelque soit le constructeur de NAS, associer un mauvais client à un mauvais serveur pour un usage donné, ça pose forcément problème.
TOP500 des supercalculateurs : peu de changements, toujours aucun exascale
16/11/2021
Le 21/11/2021 à 11h 38
Ne mélange pas tout. Avoir un prix pour avoir présenté des recherches spécifiques avec une machine est une chose effectivement tout à fait respectable. Mais si tu veux clamer que ta machine est Exaflopique (1.2 Eflops FP32 ici), il faut publier des chiffres qui permettent de le vérifier. Or, rien dans le prix gagné ou le CP que tu as mentionné ne l’assure. Le classement TOP500 a été créé pour unifier les choses à ce sujet, on attend donc la soumission d’un résultat pour vérifier le niveau de performances effectif.