Faut arrêter avec les remarques systématiques (et pas vraiment au niveau) sur les DRM. Un dispositif de sécurité et de chiffrement est un dispositif de sécurité et de chiffrement. Les DRM nécessitant un dispositif de sécurité et de chiffrement, ils… les utilisent. Cela ne rend pas ces dispositifs mauvais en soi. Ce sont des outils, qu’il faut différencier de l’usage.
Vous avez regardé des tests des Macbook avec Apple Silicon ? Parce que bon, la conclusion N°1 de l’ensemble des tests depuis la sortie des puces c’est justement que lancé à pleine puissance, ça consomme très peu par rapport à Intel (de la génération précédente, certes). Les portables ne chauffent pas et ont des capacités de calcul supérieures à leurs équivalent Intel.
Pour le prix, difficile de se prononcer
C’est le problème quand tu ne paies pas les produits, tu peux vite oublier que le prix est l’un des problèmes essentiels lorsqu’il s’agit pour une technologie de se démocratiser.
Les M1 sont des CPU efficaces, mais conçus et commercialisés par Apple, donc visant une part mineure du marché et disposant d’un atout : l’écosystème est contraint, plutôt fermé, donc nécessitant un support limité, ce qui permet d’aller vite sur certains aspects.
Ce qu’ils nous apprennent, c’est qu’avec la gravure de TSMC, on peut faire mieux. Reste à voir comment ceux qui ne visent pas une “élite” se limitant à un écosystème en bonne partie fermée s’aligneront dans les mois et années à venir. Mais les mouvements constatés ne sont pas ceux d’un acteur en particulier.
La modularité, le stacking, l’hybridation & co sont un travail de fond de l’industrie dans son ensemble depuis des années. Cela aboutit plus ou moins vite selon les acteurs, mais c’est le sens de l’histoire. Et quant à savoir qui est “leader” tout dépend de quels secteurs ont parle. On sait que ceux du jour ne sont pas ceux de demain. L’important pour un acteur c’est de savoir se renouveler, dans les bonnes comme dans les mauvaises périodes… qui finissent toujours par survenir.
Le
13/12/2021 à
08h
38
Oui enfin à échéance 2025, RISC n’est pas vraiment un souci pour Intel ou la motivation de ces projets (qui sortent de terre donc sont en travail depuis un lmoment ;)) Pour le reste, ceux qui sont attentifs auront noté que l’intérêt de la modularité c’est aussi de pouvoir en finir avec des approches monothéistes.
tu me fais dire ce que je n’ai pas dit. Mes critiques sont factuelles. ici on a une nouvelle version de Blender qui laisse tous les modèles antérieurs à la nouvelle génération de côté pour le support officiel, c’est un problème. Si tu ne veux pas l’entendre, soit. Mais ne pense pas que le souci vient de la critique.
Le
11/12/2021 à
15h
13
Non, c’est juste que dire “on s’en fout les petits derniers sont servis” que ce soit AMD, Intel ou NVIDIA c’est oublier qu’il y a des gens concernés par ces décisions et qui peuvent les regretter.
Je ne vois d’ailleurs pas le rapport avec les NV30 ou le fait que NVIDIA soit parfait ou pas. Comme je dis souvent à mon fils de 4 ans, on n’excuse pas ses erreurs en montrant du doigt celles des autres. Il arrive à le comprendre, j’espère que tu arriveras à faire de même
PS : personne n’a dit que tu étais “le méchant”. Je te fais souvent remarquer ton biais “AMD a toujours raison” parce qu’il est la base de ton raisonnement, mais je ne l’ai même pas fait ici. Mais effectivement, tout raisonnement par marque, quelle que soit la marque et quel que soit le sens, est défaillant. Tout simplement parce qu’une marque n’est jamais 100 % dans le vrai ou le faux.
Le
10/12/2021 à
04h
31
Tu diras ça à ceux qui ont une carte GCN/Vega qui fonctionnait jusque là avec Blender Surtout que côté CUDA/OptiX le support est complet. On verra si ça bouge avec le temps
Ah, je comprends le point de vue. Dans ce cas, il faudrait enlever le -O3 lors de la compilation, gcc va essayer d’auto-vectoriser le code.
Comme dit dans l’article ces lignes de commande ne sont pas mon choix mais ceux recommandés dans les fichiers, l’idée étant simplement de reproduire les différentes étapes et de voir si on arrive au même résultat. Après il serait intéressant de regarder ce que l’on obtient avec plus ou moins d’optimisation du compilateur & co, mais ça peut se faire dans un second temps (ou quand le projet aura un peu plus avancé).
Le
10/12/2021 à
01h
42
Sans doute montrer que la performance ne vient pas d’une optimisation particulière dépendante de telle ou telle architecture
Le
09/12/2021 à
14h
54
Oui après quand tu fais le ratio entre la différence de taille et le temps CPU gagné…
Le
09/12/2021 à
14h
38
J’ai pas relevé de gourmandise particulière là-dessus, mais il faudrait faire un benchmark spécifique pour le vérifier avec précision.
Le
09/12/2021 à
14h
16
Non, tu restes à la même taille du PNG si tu refais la conversion. Je pense que c’est juste la conversion >PNG qui se fait de manière “inefficace” dans le script de conversion mais je n’ai pas regardé où ça pouvait être et si on peut résoudre le problème simplement.
Mais sur le fond, ça ne change rien à l’efficacité de la (dé)compression QOI
Attention à un point : le web et les navigateurs ne sont pas l’alpha et l’oméga. Le RAW n’est pas adapté au web, il existe très bien et est largement utilisé néanmoins ;)
Ici, ça peut être une solution très utile quand tu as un besoin d’efficacité dans le processus de (dé)compression sans perte. Par exemple pour GIMP qui enregistre un fichier on s’en fout. Par contre pour un script qui traite des millions d’images à la minute, un délai divisé par 20 ça peut faire une sacré différence.
On le fait quand ce n’est pas du vocabulaire courant, soit en précisant soit via des liens, on a déjà eu ces discussions sur d’autres sujets. Il n’est pas question de détailler tous les acronymes (ce qui serait vite illisible).
La vulgarisation c’est expliquer les choses. Mais il faut aussi avoir l’envie d’apprendre. Et en la matière, lorsque les bases manquent, ce n’est pas à un article qui traite le quotidien d’un secteur de faire cet apprentissage. Des articles dédiés ou les moteurs de recherche/wiki sont là pour ça
Il n’y a aucune obligation. Chaque constructeur est libre, les clients aussi, le marché tranchera
Le
04/12/2021 à
06h
04
La pop fait 5 Gb/s avec 2,5 Gb/s en LAN et le reste sur les autres ports 1 Gb/s et/ou en Wi-Fi.
Le
03/12/2021 à
03h
29
Wi-Fi 6, de toutes façons le 6E n’est pas encore disponible en France (ils évoquent une bande 5.9 GHz mais pas disponible en France de mémoire). Mais si tu veux du routeur 10G rackable je doute que ce soit chez Synology que tu doives regarder.
Le
02/12/2021 à
18h
15
Si ça avait été le cas ce serait dans l’article ;)
Tout à fait, mais comprenez que de tant en temps, un de vos abonnés puisse être de bonne humeur et prendre le temps de jouer avec vos contenus.
;)
Le
07/12/2021 à
09h
27
On le fait tous les ans (avant sous une forme un peu différente puisqu’il n’y avait pas de mécanique pour offrir directement un code, mais on proposait d’en offrir à ceux ayant récemment pris un abonnement par exemple). Comme pour les dons mi/fin décembre.
Un média indépendant avec très peu de pub est un modèle économique divers, entre l’offre commerciale et le soutien. Cela n’a rien de nouveau.
Les goodies ce sera tout de suite après la fin de la campagne (sauf problème de stock, mais ça devrait aller)
(quote:1916330:N.Master) Youhou le cap des 60K €est atteint ! Par contre ça serait bien qu’un lecteur se décide à faire don de 20 000€ supplémentaires avant ce soir
Pas mal de PC sont déjà Wi-Fi 6E, les solutions Intel étant déjà prêtes depuis un moment. C’est aussi le cas pour quelques smartphones de mémoire. Pour rappel, la norme est exploitable depuis quelques temps aux US, ce qui favorise le fait que tout soit déjà prêt.
Oui, après entre les tests et la release de trucs effectifs… D’autant que ça demande techniquement une simple mise à jour du chip Wi-Fi, ce sera d’ailleurs intéressant de voir si Free propose une mise à jour de la Delta (de mémoire le Wi-Fi est dans le module de communication). Pour ceux qui achètent la boîte sur étagère ou la conçoivent avec un partenaire, ils doivent avoir quelque chose de testable depuis quelques temps déjà je suppose.
Le
06/12/2021 à
06h
52
Je sais que la tendance de notre monde est à l’empressement permanent, mais c’est un peut tôt, ça vient d’être annoncé au JO. Les annonces suivront sans doute, plutôt en début d’année prochaine que tout de suite (mais qui sait ?).
Le principe du FPGA c’est d’être spécifique mais programmable. Un ASIC est figé, un CPU est généraliste. Le FPGA permet d’avoir une puce adaptée à un besoin précis et donc potentiellement très performante, mais dont la nature peut évoluer dans le temps.
Le
04/12/2021 à
06h
01
xillibit a dit:
Pourquoi ils en montent deux dans l’autre sens ?
ggyom a dit:
Pour pouvoir exploiter les deux faces des risers, a priori.
Oui il suffit de regarder comment ils sont connectés, ça permet d’avoir deux fines barres où le connecteur PCIe se trouve et rejoint le reste du système
Prends un café, ça ira mieux (PS : la fréquence dans cette formule est aussi une valeur qu’on fixe, même si le CPU la fait varier par lui-même via sa mécanique de Turbo).
Le
02/12/2021 à
13h
08
L’intensité on ne la décide pas ;) Et la formule consacrée en la matière reste P = C V² f (le coefficient C dépendant de la puce et de son architecture principalement)
Le
02/12/2021 à
10h
27
luxian a dit:
le ventilateur en extraction était donc bien débranché ?
Oui, mais laissé parce que sinon la grille ne peut pas être fixée
pas de grésillement électronique quelques part ?
Aucune de remarqué jusque là, mais de toutes façons ce n’est pas lié à l’utilisation fanless en soit , c’est juste que quand ça arrive on les entend plus avec une machine passive.
BlackLightning a dit:
En simplifiant, La puissance électrique d’un CPU est proportionnelle à sa tension, et proportionnelle au carré de sa fréquence
Au carré de la tension plutôt
Arona a dit:
Dans une certaine mesure oui tu peux gagner de l’autonomie de cette façon mais il peux aussi être plus efficace d’avoir un turbo de quelques ms que de bloquer à une fréquence plus basse pendant plus longtemps pour réaliser la même opération. Tout dépend de la tâche à calculer.
D’autant que le CPU et ses mécaniques internes sont conçus pour être le plus efficace en toutes circonstances. Il faut toucher à la tension pour améliorer la marge de montée en fréquence, le TDP quand c’est possible, le reste, le mieux c’est souvent de ne pas y toucher (sauf à vouloir jouer au kéké-record, mais ça n’a presque jamais d’intérêt en pratique, surtout d’un point de vue Perf/W).
Ah ok, ce n’était pas clair dans le message. Ce cas peut être intéressant, je ne sais pas si les firmware/garantie sont identiques par contre. Après il ne faut pas oublier que le public DC ne va pas aller s’amuser à ce genre de bidouille, son TCO dépend de bien d’autres facteurs.
Le
03/12/2021 à
09h
17
Tu compares surtout un modèle Desktop à un modèle Entreprise ;)
Oui l’idée de Biscuit est d’aller au-delà de macaron (et d’autres systèmes d’auth). Pour les autres entreprises du secteur, on en parle régulièrement (comme on l’a fait avec le FaaS/CaaS de Scaleway qui s’appuie plutôt sur leur stack Kubernetes, ou les IaaS de Nua.ge et Infomaniak), mais aucun qui n’utilise rust-vmm à ma connaissance (qu’on suit chez Intel depuis son lancement il y a deux ans à peu près). Koyeb utilise plutôt FC/Kata de mémoire. Pour les explications techniques, on est justement sur IH pour ça ;)
Parce qu’une alimentation fourni une puissance, ici jusqu’à 288 watts sur le connecteur évoqué (voir la capture), la question de départ étant de savoir pourquoi il y avait plusieurs connecteurs 12V, je précisais que c’état lié à ça. L’énergie est ce qui est fourni dans le temps, rien à voir avec notre sujet.
Pour le courant, l’idée était justement de faire comprendre que c’était ça le problème. Mais en général quand tu as la puissance et la tension (continue), le courant se calcule (facilement).
Le souci est plutôt à l’échelle d’un cœur entier que pour telle ou telle micro fonctionnalité à activer ou pas, notamment sur SPR tu as déjà des éléments de designs conçu pour prendre en compte le yield.
Le
01/12/2021 à
11h
17
Tout dépendra de l’implémentation, mais vu le marché auquel ça s’adresse, je doute que la tentation des abus soit le premier sujet
15083 commentaires
QEMU 6.2 est là, le support des Apple M1 s’améliore
15/12/2021
Le 16/12/2021 à 06h 23
Faut arrêter avec les remarques systématiques (et pas vraiment au niveau) sur les DRM. Un dispositif de sécurité et de chiffrement est un dispositif de sécurité et de chiffrement. Les DRM nécessitant un dispositif de sécurité et de chiffrement, ils… les utilisent. Cela ne rend pas ces dispositifs mauvais en soi. Ce sont des outils, qu’il faut différencier de l’usage.
Feedly veut vous permettre de suivre les sites qui n’ont pas de flux RSS
15/12/2021
Le 15/12/2021 à 10h 39
Non, ça c’est du scrapping et c’est mal ;) (tout du moins si tu veux que les sites que tu suis continuent de publier sur le long terme je veux dire)
NVIDIA lance son System Latency Challenge avec KovaaK’s
14/12/2021
Le 15/12/2021 à 08h 11
ça viendra ;)
Le 15/12/2021 à 06h 45
C’est LDAT, mais en France on dit “Betty” (comprenne qui pourra)
Dons défiscalisables à Next INpact en 2021 : ce soir il sera trop tard
30/12/2021
Le 15/12/2021 à 05h 51
Je pense qu’on peut arrêter là avec le HS ;)
Le 13/12/2021 à 17h 15
Non, mais ça compte pour l’année fiscale suivante TMTC ;)
Intel évoque les technologies qui vont changer ses puces en profondeur d’ici à 2025
13/12/2021
Le 13/12/2021 à 11h 04
C’est le problème quand tu ne paies pas les produits, tu peux vite oublier que le prix est l’un des problèmes essentiels lorsqu’il s’agit pour une technologie de se démocratiser.
Les M1 sont des CPU efficaces, mais conçus et commercialisés par Apple, donc visant une part mineure du marché et disposant d’un atout : l’écosystème est contraint, plutôt fermé, donc nécessitant un support limité, ce qui permet d’aller vite sur certains aspects.
Ce qu’ils nous apprennent, c’est qu’avec la gravure de TSMC, on peut faire mieux. Reste à voir comment ceux qui ne visent pas une “élite” se limitant à un écosystème en bonne partie fermée s’aligneront dans les mois et années à venir. Mais les mouvements constatés ne sont pas ceux d’un acteur en particulier.
La modularité, le stacking, l’hybridation & co sont un travail de fond de l’industrie dans son ensemble depuis des années. Cela aboutit plus ou moins vite selon les acteurs, mais c’est le sens de l’histoire. Et quant à savoir qui est “leader” tout dépend de quels secteurs ont parle. On sait que ceux du jour ne sont pas ceux de demain. L’important pour un acteur c’est de savoir se renouveler, dans les bonnes comme dans les mauvaises périodes… qui finissent toujours par survenir.
Le 13/12/2021 à 08h 38
Oui enfin à échéance 2025, RISC n’est pas vraiment un souci pour Intel ou la motivation de ces projets (qui sortent de terre donc sont en travail depuis un lmoment ;)) Pour le reste, ceux qui sont attentifs auront noté que l’intérêt de la modularité c’est aussi de pouvoir en finir avec des approches monothéistes.
AMD publie ses pilotes Enterprise 21.Q4, avec support de Blender 3.0
09/12/2021
Le 12/12/2021 à 12h 06
tu me fais dire ce que je n’ai pas dit. Mes critiques sont factuelles. ici on a une nouvelle version de Blender qui laisse tous les modèles antérieurs à la nouvelle génération de côté pour le support officiel, c’est un problème. Si tu ne veux pas l’entendre, soit. Mais ne pense pas que le souci vient de la critique.
Le 11/12/2021 à 15h 13
Non, c’est juste que dire “on s’en fout les petits derniers sont servis” que ce soit AMD, Intel ou NVIDIA c’est oublier qu’il y a des gens concernés par ces décisions et qui peuvent les regretter.
Je ne vois d’ailleurs pas le rapport avec les NV30 ou le fait que NVIDIA soit parfait ou pas. Comme je dis souvent à mon fils de 4 ans, on n’excuse pas ses erreurs en montrant du doigt celles des autres. Il arrive à le comprendre, j’espère que tu arriveras à faire de même
PS : personne n’a dit que tu étais “le méchant”. Je te fais souvent remarquer ton biais “AMD a toujours raison” parce qu’il est la base de ton raisonnement, mais je ne l’ai même pas fait ici. Mais effectivement, tout raisonnement par marque, quelle que soit la marque et quel que soit le sens, est défaillant. Tout simplement parce qu’une marque n’est jamais 100 % dans le vrai ou le faux.
Le 10/12/2021 à 04h 31
Tu diras ça à ceux qui ont une carte GCN/Vega qui fonctionnait jusque là avec Blender Surtout que côté CUDA/OptiX le support est complet. On verra si ça bouge avec le temps
QNAP QSW-M5216-1T : un switch 16x 25 Gb/s, 1x 10 Gb/s, managé (L2) et « abordable »
09/12/2021
Le 10/12/2021 à 04h 25
Et même dans le titre ;)
Tout dépend de qui on parle, pour certains un cœur full 25G serait déjà pas mal
Format Quite OK Image (QOI) : simple, rapide, sans perte, mais pas sans défauts
09/12/2021
Le 10/12/2021 à 04h 24
Comme dit dans l’article ces lignes de commande ne sont pas mon choix mais ceux recommandés dans les fichiers, l’idée étant simplement de reproduire les différentes étapes et de voir si on arrive au même résultat. Après il serait intéressant de regarder ce que l’on obtient avec plus ou moins d’optimisation du compilateur & co, mais ça peut se faire dans un second temps (ou quand le projet aura un peu plus avancé).
Le 10/12/2021 à 01h 42
Sans doute montrer que la performance ne vient pas d’une optimisation particulière dépendante de telle ou telle architecture
Le 09/12/2021 à 14h 54
Oui après quand tu fais le ratio entre la différence de taille et le temps CPU gagné…
Le 09/12/2021 à 14h 38
J’ai pas relevé de gourmandise particulière là-dessus, mais il faudrait faire un benchmark spécifique pour le vérifier avec précision.
Le 09/12/2021 à 14h 16
Non, tu restes à la même taille du PNG si tu refais la conversion. Je pense que c’est juste la conversion >PNG qui se fait de manière “inefficace” dans le script de conversion mais je n’ai pas regardé où ça pouvait être et si on peut résoudre le problème simplement.
Mais sur le fond, ça ne change rien à l’efficacité de la (dé)compression QOI
Attention à un point : le web et les navigateurs ne sont pas l’alpha et l’oméga. Le RAW n’est pas adapté au web, il existe très bien et est largement utilisé néanmoins ;)
Ici, ça peut être une solution très utile quand tu as un besoin d’efficacité dans le processus de (dé)compression sans perte. Par exemple pour GIMP qui enregistre un fichier on s’en fout. Par contre pour un script qui traite des millions d’images à la minute, un délai divisé par 20 ça peut faire une sacré différence.
Akasa propose une carte réseau avec un port 2,5 Gb/s PoE
07/12/2021
Le 08/12/2021 à 17h 48
Pas que je sache, Netgear propose d’ailleurs depuis longtemps des switchs avec 10G et PoE sur certains ports.
Le 07/12/2021 à 10h 48
25.5W c’est ce que fourni au minimum un appareil PoE Type 2 selon la norme.
npm renforce le processus de connexion pour la publication au sein de son registre
08/12/2021
Le 08/12/2021 à 15h 35
Début 2022 mais après le 1er février ;)
RIP, Orange Concessions, XpFibre : Netalis a « saisi l’Arcep d’une demande d’enquête administrative »
07/12/2021
Le 07/12/2021 à 11h 49
On le fait quand ce n’est pas du vocabulaire courant, soit en précisant soit via des liens, on a déjà eu ces discussions sur d’autres sujets. Il n’est pas question de détailler tous les acronymes (ce qui serait vite illisible).
La vulgarisation c’est expliquer les choses. Mais il faut aussi avoir l’envie d’apprendre. Et en la matière, lorsque les bases manquent, ce n’est pas à un article qui traite le quotidien d’un secteur de faire cet apprentissage. Des articles dédiés ou les moteurs de recherche/wiki sont là pour ça
Synology annonce son routeur RT6600ax (avec 2,5 Gb/s), SRM 1.3 et DS Router 2.0
02/12/2021
Le 07/12/2021 à 10h 44
Voir cet article ;)
Il n’y a aucune obligation. Chaque constructeur est libre, les clients aussi, le marché tranchera
Le 04/12/2021 à 06h 04
La pop fait 5 Gb/s avec 2,5 Gb/s en LAN et le reste sur les autres ports 1 Gb/s et/ou en Wi-Fi.
Le 03/12/2021 à 03h 29
Wi-Fi 6, de toutes façons le 6E n’est pas encore disponible en France (ils évoquent une bande 5.9 GHz mais pas disponible en France de mémoire). Mais si tu veux du routeur 10G rackable je doute que ce soit chez Synology que tu doives regarder.
Le 02/12/2021 à 18h 15
Si ça avait été le cas ce serait dans l’article ;)
RISC-V : Imagination Technologies lance ses Catapult
07/12/2021
Le 07/12/2021 à 10h 41
ISA : Instruction Set Architecture
Noël approche, pensez à offrir un abonnement à Next INpact
06/12/2021
Le 07/12/2021 à 10h 39
;)
Le 07/12/2021 à 09h 27
On le fait tous les ans (avant sous une forme un peu différente puisqu’il n’y avait pas de mécanique pour offrir directement un code, mais on proposait d’en offrir à ceux ayant récemment pris un abonnement par exemple). Comme pour les dons mi/fin décembre.
Un média indépendant avec très peu de pub est un modèle économique divers, entre l’offre commerciale et le soutien. Cela n’a rien de nouveau.
Magazine #3 : la campagne de financement est terminée, les 150 % dépassés !
03/12/2021
Le 07/12/2021 à 07h 15
PS : aucun support ici, passez par Ulule
Le 03/12/2021 à 11h 58
Les goodies ce sera tout de suite après la fin de la campagne (sauf problème de stock, mais ça devrait aller)
+1
Le 02/12/2021 à 10h 09
Le Wi-Fi 6E (5 945 à 6 425 MHz) est officiellement exploitable en France
06/12/2021
Le 06/12/2021 à 10h 27
Pas mal de PC sont déjà Wi-Fi 6E, les solutions Intel étant déjà prêtes depuis un moment. C’est aussi le cas pour quelques smartphones de mémoire. Pour rappel, la norme est exploitable depuis quelques temps aux US, ce qui favorise le fait que tout soit déjà prêt.
Oui, après entre les tests et la release de trucs effectifs… D’autant que ça demande techniquement une simple mise à jour du chip Wi-Fi, ce sera d’ailleurs intéressant de voir si Free propose une mise à jour de la Delta (de mémoire le Wi-Fi est dans le module de communication). Pour ceux qui achètent la boîte sur étagère ou la conçoivent avec un partenaire, ils doivent avoir quelque chose de testable depuis quelques temps déjà je suppose.
Le 06/12/2021 à 06h 52
Je sais que la tendance de notre monde est à l’empressement permanent, mais c’est un peut tôt, ça vient d’être annoncé au JO. Les annonces suivront sans doute, plutôt en début d’année prochaine que tout de suite (mais qui sait ?).
Chez 2CRSi : serveur multi-PCIe ultra-dense, NanoRack et station de travail « Kraken » 2-en-1
03/12/2021
Le 06/12/2021 à 08h 31
Le principe du FPGA c’est d’être spécifique mais programmable. Un ASIC est figé, un CPU est généraliste. Le FPGA permet d’avoir une puce adaptée à un besoin précis et donc potentiellement très performante, mais dont la nature peut évoluer dans le temps.
Le 04/12/2021 à 06h 01
Oui il suffit de regarder comment ils sont connectés, ça permet d’avoir deux fines barres où le connecteur PCIe se trouve et rejoint le reste du système
Le 03/12/2021 à 12h 53
Effectuer des calculs ;)
Noctua NH-P1 : une machine 100 % passive avec un Core i7-11700, c’est possible ?
02/12/2021
Le 04/12/2021 à 06h 08
Prends un café, ça ira mieux (PS : la fréquence dans cette formule est aussi une valeur qu’on fixe, même si le CPU la fait varier par lui-même via sa mécanique de Turbo).
Le 02/12/2021 à 13h 08
L’intensité on ne la décide pas ;) Et la formule consacrée en la matière reste P = C V² f (le coefficient C dépendant de la puce et de son architecture principalement)
Le 02/12/2021 à 10h 27
Oui, mais laissé parce que sinon la grille ne peut pas être fixée
Aucune de remarqué jusque là, mais de toutes façons ce n’est pas lié à l’utilisation fanless en soit , c’est juste que quand ça arrive on les entend plus avec une machine passive.
Au carré de la tension plutôt
D’autant que le CPU et ses mécaniques internes sont conçus pour être le plus efficace en toutes circonstances. Il faut toucher à la tension pour améliorer la marge de montée en fréquence, le TDP quand c’est possible, le reste, le mieux c’est souvent de ne pas y toucher (sauf à vouloir jouer au kéké-record, mais ça n’a presque jamais d’intérêt en pratique, surtout d’un point de vue Perf/W).
Seagate annonce ses disques durs (CMR) Exos X20 et IronWolf Pro 20 To
03/12/2021
Le 04/12/2021 à 06h 02
Oui, c’était pour donner un ordre de grandeur ;)
Le 03/12/2021 à 09h 47
Ah ok, ce n’était pas clair dans le message. Ce cas peut être intéressant, je ne sais pas si les firmware/garantie sont identiques par contre. Après il ne faut pas oublier que le public DC ne va pas aller s’amuser à ce genre de bidouille, son TCO dépend de bien d’autres facteurs.
Le 03/12/2021 à 09h 17
Tu compares surtout un modèle Desktop à un modèle Entreprise ;)
Le 03/12/2021 à 08h 13
20 To, 285 Mo/s > 20h26
Synology prépare DSM 7.1, le DVA1622, SMB DFS et Multichannel, des nouveautés pour C2
02/12/2021
Le 03/12/2021 à 04h 23
S-ATA uniquement ;)
Disons que ça ce n’était pas nouveau (enfin ça a déjà été annoncé quoi )
AWS prépare ses instances C7 g à base de Graviton 3 et réduit les prix de S3
01/12/2021
Le 02/12/2021 à 06h 39
Il n’y a pas de lien direct mais il y en a un en pratique. On verra quand on aura plus de détails ;)
Le 01/12/2021 à 10h 18
Faudrait pas que t’ai trop envie de partir ailleurs
Clever Cloud en 2022 : Kalray, IaaS, Remote Cloud, Wireguard et WASM à la sauce « kerneless »
30/11/2021
Le 02/12/2021 à 04h 19
Oui l’idée de Biscuit est d’aller au-delà de macaron (et d’autres systèmes d’auth). Pour les autres entreprises du secteur, on en parle régulièrement (comme on l’a fait avec le FaaS/CaaS de Scaleway qui s’appuie plutôt sur leur stack Kubernetes, ou les IaaS de Nua.ge et Infomaniak), mais aucun qui n’utilise rust-vmm à ma connaissance (qu’on suit chez Intel depuis son lancement il y a deux ans à peu près). Koyeb utilise plutôt FC/Kata de mémoire. Pour les explications techniques, on est justement sur IH pour ça ;)
FSP dévoile une alimentation SFX12VO de 750 watts
26/11/2021
Le 02/12/2021 à 04h 10
Parce qu’une alimentation fourni une puissance, ici jusqu’à 288 watts sur le connecteur évoqué (voir la capture), la question de départ étant de savoir pourquoi il y avait plusieurs connecteurs 12V, je précisais que c’état lié à ça. L’énergie est ce qui est fourni dans le temps, rien à voir avec notre sujet.
Pour le courant, l’idée était justement de faire comprendre que c’était ça le problème. Mais en général quand tu as la puissance et la tension (continue), le courant se calcule (facilement).
Intel SDSi : sur Sapphire Rapids, même les fonctionnalités seront modulaires
30/11/2021
Le 01/12/2021 à 14h 38
Le souci est plutôt à l’échelle d’un cœur entier que pour telle ou telle micro fonctionnalité à activer ou pas, notamment sur SPR tu as déjà des éléments de designs conçu pour prendre en compte le yield.
Le 01/12/2021 à 11h 17
Tout dépendra de l’implémentation, mais vu le marché auquel ça s’adresse, je doute que la tentation des abus soit le premier sujet