C’est utile le montage réseau de Sharepoint, sauf que quand tu rebootes, tu perds la connexion (ou j’ai zappé comment enregistrer les identifiants spécifiquement).
Il faut le définir comme persistant, je crois que dans l’interface graphique c’est dès le début, sinon: net use X:\monsharepoint.local@SSL\sites\monsite /persistent:yes
Le
02/11/2021 à
14h
05
Plus l’idée d’Open with Explorer … Il va te donner une URL que tu vas ajouter dans l’explorateur comme “ajouter un emplacement réseau” ensuite, tu pourras naviguer dans le site Sharepoint comme si c’était un montage réseau partagé : ce qui évite par exemple de “télécharger” un document avant de le consulter. C’est utile le montage réseau de Sharepoint, sauf que quand tu rebootes, tu perds la connexion (ou j’ai zappé comment enregistrer les identifiants spécifiquement). Il faut relancer IE (11) te connecter à nouveau à ton sharepoint pour pouvoir renaviguer via Explorer.exe en SSO. Si ton IE est superdesupersuperLENT à cause de je ne sais quelles policies et l’anti-virus et en plus une machine à laver “maison” impossible à bypasser, tu voudrais bien avoir le même single sign on via Edge qui lui se lance en 1 clic.
Merci bien pour les liens, je vois l’idée maintenant, mais je trouve pas comment implémenter, ni les bonnes clés BDR. S’il faut les policy admin du groupe et pas seulement comme user local, alors c’est mort pour moi …
C’est un poil tiré par les cheveux, les NUC à ~10w c’est en idle. Là le Pi tirera au maximum 12.5w quand le NUC fera des pointes à 20-30w pour les plus économes.
Les NUC c’est 6 à 10W en IDLE. Mais là où le RPI monte vite, le NUC/mini PC reste à quelques % de charge (dans mon cas: serveur PHP, proxy, firewall). L’écart est alors ridiculement faible en conso. Le RPI est toujours plein de limitations (Ethernet 100, Wifi N, pas possible de tirer trop de jus sur les ports USB), le 4 est mieux mais difficile à refroidir et cher.
Alors oui, pour un projet mono utilisateur/mono logiciel c’est pas mal, pour bidouiller/maquetter c’est bien, mais dès que je passe “en prod”, je n’ai pas été convaincu par le RPI.
OlivierJ a dit:
Je trouve ça incompréhensible qu’un logiciel généraliste comme NodeJs ne se satisfasse plus d’un ARM32, ni d’un ARM v6. Quelle est l’explication ?
Je pense que c’est surtout une question de compilateur. Le RPI première version est un ARMv6 (donc bien vieux comme archi - avant 2005, maintenant plutôt l’équivalent des cortex m0 qu’on trouve en embarqué pour remplacer les arduino).
Sur une petite machine, suis pas très connaisseur de NodeJs mais j’imagine que c’est relativement gourmand. Il me semble par ailleurs qu’un programme compilé pour du 32 bits est plus petit que pour du 64 bits, où les instructions sont plus longues ; en tous cas ça a été le cas pour certaines architectures.
Tout dépend ce qu’on fait de NodeJS. Mais effectivement c’est souvent un environnement un peu overkill sur de petits projets. D’un autre côté, on nous propose des cartes type arduino à programmer en python, donc le gâchis de perfs c’est assez courant.
Pour la taille des instructions: ça a un réel impact sur des archis avec très peu de mémoire ou un bus mémoire lent mais actuellement la taille des programmes est tellement inférieure à la taille des données que ça n’a pas d’importance.
Le
29/10/2021 à
14h
01
brazomyna a dit:
En voilà des comms qui sentent pas le rance pour un sou, et viennent apporter une incroyable valeur ajoutée à la discussion.
Je voulais juste souligner que même si Node.JS pourrait fonctionner sur un RPI Zero W 2, dans les faits il y encore des limitations. Même si 512Mo, c’est déjà énorme pour énormément de projets sur RPI.
Par exemple, certains lecteurs audio (comme volumio) basés sur NodeJS peuvent manger beaucoup de RAM. Mais il est toujours difficile de savoir ce qui est consommé et ce qui est nécessaire.
J’avais retenu mon avis perso sur NodeJS pour moi.
J’utilise essentiellement des RPI Zero pour mes projets (même pas W) pour leur compacité et leur conso très restreinte - donc facile à alimenter par batterie (+ le choix de pouvoir souder des connecteurs GPIO coudés, ou pas du tout, ou juste ceux qu’on souhaite utiliser)
Là je suis mitigé, comme d’habitude: 2,5A et 5V, ça fait la conso d’un petit PC et même plus qu’un NUC. Sauf que la plupart des charges de travail qui secouent un peu les RPI, elles laissent les PC de marbre (par exemple: certaines charges à 100% sur une RPI 3 poussent le PC à 15% et il finit plus vite).
Le
28/10/2021 à
14h
01
brazomyna a dit:
On passe d’un arm32 a un arm64 ce qui pour moi est le plus intéressant. Nombre de softs (genre nodejs de mémoire) ne se satisfont plus d’un arm32.
Après, nodejs sur 512Mo de RAM, c’est pas forcément le bon choix.
Et encore, tu oublies les billets de blog pas datés, ceux avec juste des conseils de merde pas vérifiés (ou corrigés). Quand je fais ce genre de papier j’en mange des km et je pleure
Et nous t’en remercions
Le
02/11/2021 à
11h
09
David_L a dit:
Tout ce qui s’approche d’un troll pro/anti systemd ou autre sera modéré
Toute récidive mènera au blocage
D’un autre côté, l’article met le doigt sur ce qui fâche. Quand on se retrouve à gérer plusieurs distro différentes car achetées avec des produits différents, Linux c’est juste une jungle et un enfer.
L’article aborde juste le lancement d’un script au démarrage, mais parfois la config réseau, la config kerberos se complique car les docs ne sont pas à jour, pas centralisées et les tutos antédiluviens.
systemd n’est pas un mauvais système, c’est une vision différente, et il paye surtout d’avoir été long et compliqué à mettre en place pour remplacer sysinit (vu l’historique, pas de surprise, ça a tatonné un peu).
Par rapport à rc.d, systemd a un énorme avantage: il permet de décrire les dépendances. Dans rc.d on jouait sur les noms des fichiers pour déterminer l’ordre, là on est plus sur du service que de la technique pure. C’est plus proche de ce qu’on fait sous Windows (dire qu’un service dépend de tel ou tel autre pour qu’il démarre après).
Par contre mettre systemd sur un système embarqué, c’est très peu utile et relativement compliqué si sysv était déjà là.
On a donc toute la mémoire/amertume/rancoeur collective du produit qui a été mal utilisé/paramétré et a eu une courbe d’apprentissage/mise en place assez longue (donc c’est comme SAP, BO ou Sharepoint 20xx qui ne méritent pas la réputation que leur donnent les utilisateurs)
Petit plus de systemctl: la commande systemctl enable peut être lancée pour un utilisateur pour lancer des services quand il se logue (–user) ou pour tous les utilisateurs qui se loguent (–global)
Sans être expert du sujet, la gendarmerie n’a pas un projet similaire basé sur Gendbuntu, géré en interne et qui « tourne bien » ? Ce ne serait pas possible de le copier-coller et d’en transférer la gestion ? M’enfin j’imagine que la querelle d’égos police/gendarmerie doit être un frein monstrueux.
Et passer pour la gendarmerie d’éditeur interne à éditeur avec client… c’est un cap difficile.
SKN a dit:
Dans ce genre de cas (je connais peu les marchés publiques), où va l’argent? Capgemini l’a reçu et ne rendra pas??
C’est comme pour le privé: il faut l’avoir prévu ou ça finit chez les avocats. On peut aussi s’arranger. Mais en général, tout n’est pas payé d’un coup au départ, on découpe par lots/phases et on paye ce qui est livré.
L’abandon en court de route peut mener à des pénalités.
(quote:1910704:Idiogène) Je pense qu’on ne peut pas tout savoir mais a priori les apps clients sont moins énergivores à cause de l’énergie grise des processeurs. Sur les ordiphones la puissance de calcul est maintenant conséquente, la batterie aussi : autant en profiter.
Ou relancer le minitel. Avec les technos actuelles et le débit, ça devrait être fluide.
Le
29/10/2021 à
17h
37
(quote:1910695:Idiogène) Il y a des pistes mais la faisabilité reste quand même bien lourde pour peut-être gagner 2W en pratique.
On n’est pas du tout sur du 2W à mon avis. Avec des traitements de nuit mal fichus qui saturent CPU/RAM/IO + les recalculs d’index souvent inutiles de 5-8h chaque dimanche, il y a de quoi faire.
Effectivement, le but est d’éteindre les serveurs, les mettre en veille, ainsi que des baies de stockage si possible, voire du réseau.
Dans tous les cas, concevoir une appli qu’on peut éteindre, qui ne demande pas de traitements de nuit, permet déjà de l’exécuter sur une infra cloud à moindre coût.
On peut par exemple chauffer entièrement des bureaux avec l’IT.
On est plutôt à climatiser l’IT et chauffer les bureaux à côté :)
Et l’IT n’est pas un chauffage efficace.
Le
29/10/2021 à
14h
10
(quote:1910564:Idiogène) De Minuit à 6 heures du matin certains serveurs n’ont pas besoin de tourner.
Je dirais qu’au mieux pour les sites internet, on peut couper de 4h à 5h du matin. On a presque autant de requêtes entre minuit et 3h par exemple que sur des heures de la matinée.
Par contre, baisser le nombre de serveurs, mutualiser sur un serveur qui fait tout en cas de charge basse c’est faisable.
Mais je pense que pour faire des économies et de la green it, réfléchir à comment sont gérés/ recalculés les index de bdd, comment sont faites les sauvegardes, bannir les traitements de nuit pour pouvoir éteindre les serveurs, ça serait pas mal. Mais ça remet en question pas mal la façon de concevoir/programmer les systèmes.
Euh, question peut-être stupide: 24threads, c’est bien 16 sur les coeurs BP et 8 sur les BE? J’appréhende un peu la différence de perfs entre les BP et les BE, et la capacité des OS à envoyer les threads sur les bons coeurs.
Quand au MTP de 60W+ sur les modèles 35W, c’est déjà un eu le cas, mais pas à ce point quand même. Même les alims de 90W vont souffrir.
Ce qui est conforme aux specs. Les “boost clocks” sont annoncées sur un nombre de cores limités si je me souviens bien, pas sur l’ensemble des cores.
Oui, c’est vrai, je n’avais pas tout relu. Et sincèrement, cette polémique m’est un peu passée au-dessus: je ne compte pas sur le boost pour me donner les perfs en vitesse de croisière - et pourtant je constate que chez AMD c’est super stable là où en général Intel c’est les montagnes russes encore régulièrement.
Après, je ressortais cet “argument” en pur troll, pour souligner la complexité de la gestion des CPU actuels, particulièrement AMD, qui a nécessité pour en tirer les meilleurs perfs des aménagements assez profonds.
Alors si on change d’OS, je ne vais pas forcément tenir rigueur ça tatonne sur ce point un tout petit peu. Bien que je rejoigne un certain étonnement que ce n’aie pas été vu avant la release. Ca ne donne pas confiance dans les tests de Ms concernant les perfs.
Le
22/10/2021 à
12h
34
Freeben666 a dit:
Tous les cores atteignent les specs, mais certains peuvent être plus overclockés (boostés, overdrivés, …) que d’autres.
Tous les coeurs n’atteignent pas forcément le boost de la fiche technique.
Le
22/10/2021 à
12h
22
AlbertSY a dit:
Cela mérite un proces….
On est dans le complotisme là. Le tir a été rapidement corrigé. Et Ms a tout de même bien bossé sur Windows 10 pour faire fonctionner les AMD. Avant on s’en moquait pas mal du coeur le plus rapide du CPU. Maintenant, chez AMD on nous vends des CPU dont on nous garanti que certains coeurs atteignent les specs. Petit rappel du bazar qu’est un AMD pour le scheduler: https://www.anandtech.com/show/15137/amd-clarifies-best-cores-vs-preferred-cores
Le
22/10/2021 à
08h
56
Soraphirot a dit:
Au minimum Intel Gen 8 ou AMD Zen 2 pour être compatible Win11. C’est ce qu’impose Microsoft et si le PC ne remplit pas les prérequis alors Win Update est coupé.
Et certains Zen1+ comme le mien.
(quote:60863:N.Master) Bon, la réponse c’est certainement que les devs chez microsoft sont cul et chemise avec intel, mais ça fait un peu gros quand même comme explication
Peut-être que l’OS sort “un peu vite” et que les tests de perfs n’ont pas été aussi poussés qu’il l’aurait fallu? Peut-être que l’OS sort à l’arrache pour accompagner les processeurs Intel nouveaux (asymétriques) et que la plupart des tests ont concerné ces nouveautés? Peut-être aussi que maximiser les perfs des Ryzen n’est pas aussi simple que pour les Intel? (même si les principes se sont plutôt rejoints depuis l’arrivée de Ryzen)
Tu renvoies vers un test pour resituer, je précise qu’on en a déjà publié un ;) Pour le reste je ne comprends pas trop la question ou le sujet, surtout que la compatibilité Linux n’est pas figée dans le temps.
Je n’étais pas sûr que les deux étaient comaprables à des CPU généralistes (notamment le P550).
J’ai compris mon erreur: contresens dans la traduction. “the P270, SiFive’s first Linux capable processor with full support for the RISC-V vector extension v1.0 rc” n’implique pas que le P550 ne soit pas compatible Linux.
Mais en revenant aux références des ISA les 2 sont bien comparable à des CPU généralistes (et pas des CPU dédiés à l’embarqué)
Le
22/10/2021 à
12h
15
David_L a dit:
Pas besoin de resituer, c’est ce qu’on dit dans l’article qu’on a consacré à cette carte ;)
Je ne te suis pas:
La carte “unmatched” est sur un SiFive U740 (RISC RV64GC:)
Le P270 est un RV64GBCV - même série que le U740
Le P550 est un RV64GBC - pas de vecteur et en plus out of order
-> Le P550 était déjà un “G” donc il me semblait que ça suffisait pour faire du Linux Mais il ne le mettent pas dans la même catégorie que le P270, plus généraliste car il a les instructions vectorielles, mais qui est basé sur une “série 7” comme le RISC de la unmatched.
–> Arg! Je suis paumé! C’est cool ces histoires d’IP, mais on n’est jamais sûr de ne pas comparer des choux avec des carottes ou des panais.
SiFive décrit bien le P550 comme un SOC performance pour le calcul, mais ils évoquent que le P270 est “compatible Linux”.
On est donc bien sur un SOC dédié intégration voiture, réseau, mais pas adapté à un environnement de dev “classique” sous Linux? Mais les A75 sont bien compatibles Linux, eux, et complètement il me semble.
Le P270 par contre a l’air bien comparable, et compatible avec les instructions NEON des ARM.
Par contre, tout à fait d’accord avec l’histoire des spécialités. Comme rien n’est synchronisé entre la réforme du lycée et du supérieur, le supérieur continue à demander des combinaisons parfois impossibles de spécialités (on ne peut plus faire spécialité math, physique et avoir encore de la bio par exemple, en tout cas pas dans toute la France - or c’est demandé pour la prépa BCPST).
Le
22/10/2021 à
09h
01
“Rendre anonyme le lycée d’origine”: effectivement , on a constaté des choses étranges dans le recrutement selon que la personne vienne d’un lycée ou l’autre… Mais ça a toujours existé, certains lycée notant vraiment sévèrement par rapport à d’autres plus enclin à faire plaisir aux parents pendant l’année…
Avec le contrôle continu renforcé, cela pourrait se gommer, mais on n’y est pas du tout.
Ça me surprend un peu, ou alors c’est la dite bibliothèque qui est mal fichue et force à utiliser des versions trop avancées d’OpenGL et de GLSL sans proposer des versions dégradées, ce qui est assez débile pour une bibliothèque…
Mais les premiers mois: aucune solution, sauf changer d’ordi. Le chagement de version faisait passer la version minimale d’OpenGL en 4.6, avant même d’utiliser les nouveaux shaders. Ca a mis à la corbeille les intel HD 4600 et tout ce qui était en-dessous.
Le
21/10/2021 à
06h
20
SIaelrod a dit:
oui ou les très gros projet “tousse” Discord “tousse” qui utilise des librairie a plusieurs version de retard pour évité les mises a jours
Un jour Minecraft a mis à jour la librairie graphique (genre de la version 1.9999 à la 2.01). -> Ca a apporté plein de nouveautés pour les shaders -> Ca a monté le niveau d’exigence OpenGL de plusieurs crans, mettant de côté tous les PC tournant sur des intel IGP un peu trop vieux (alors qu’il tournait correctement dessus).
Le problème, c’est que mettre à jour peut casser ton soft, et les softs sont rarement faits pour une mise à jour “partielle”.
Par ailleurs, tu peux avoir des références croisées: une lib A qui dépend de B en 2.0 et une lib C qui en dépend aussi. lib B est passé en 3.0, cassant quelques petites choses. lib C évolue et prend en compte la 3.0, pas lib A…
C’est pas pour rien si à la gendarmerie il ont des plans de fou pour tout retester et qualifier en permanence!
Perso j’ai déjà vécu des situations de daube:
Disparition d’un pilote du noyau linux empêchant de passer au kernel suivant (merci IBM) et du coup impossible d’upgrader les Redhat, et du coup impossible d’upgrader les PHP en mettant à jour les paquets
Tentative manuelle: recompiler PHP (ok) recompiler les plugins (pas ok, il fallait upgrader gcc car le plugin de bdd nouvelle version en avait besoin). Tentative d’upgrade gcc: nécessite de recompiler glibc car version non dispo pour le Linux … bref, abandon, trop risqué… 2 mois de travail pour un dead-end.
Ou alors il suffira d’utiliser un DNS non français et éviter d’aller sur des sites exclusivement francophone. Je pense que vous misez trop de chose sur une solution technique
Le DNS ne changera rien, quand aux sites non francophones, vu le niveau des gamins, ça ne peut que leur faire du bien :)
Si je suis bien d’accord que l’éducation est primordiale, je ne suis pas contre une solution technique, notamment pour ce que je ne peux pas moi-même fournir en solution technique.
Là on ne parle pas de filtrage, de fichage ou de mouchard:
Tous nos comptes seront vérifiés par rapport à une identité
Rien n’empêche d’avoir plusieurs comptes sur la même plate-forme
Rien n’oblige la plate-forme à afficher l’identifiant unique (et ce serait stupide de l’afficher)
En cas de plainte, la plate-forme fournira l’identifiant unique au contrôleur qui en déduira immédiatement l’identité de la personne
Avantages:
pour les plate-formes: bien plus simple pour fournir les infos en cas d’enquête, garanti que les personnes existent
pour la justice: vitesse
Perso, je chargerais le contrôleur de donner son avis sur les restrictions légales concernant la personne identifiée: notamment concernant les restrictions d’âge
Le
19/10/2021 à
09h
52
numerid a dit:
Dans un monde idéal pourquoi pas. Mais une base de données peut être exploitée à des fins qui ne sont pas prévues au départ et détournée de sa vocation. En outre une base de données a une mémoire qui n’est pas volatile, elle.
A mon avis il y a une mauvaise idée de ce qu’est une base de données.
1- Qu’un tiers géré par l’état puisse vérifier l’identité à partir d’infos données lors de la création d’un compte, et fournir une clé pour authentifier ce compte –> aucun besoin d’échanger moult données 2- Cela permet de ne fournir qu’une “clé” et de multipler les identités: facebook ne pourra plus forcément croiser les infos avec un autre site qu’ils auront racheté 3- Par contre, le tiers pourra lister où des comptes ont été créé et redonner un peut plus de visibilité sur qui utilise les données 4- tout comme avec france connect, l’utilisateur peut gérer quelles données sont partagées avec qui
Moi, je n’y vois rien qui empêche la liberté d’expression, rien qui puisse tuer le pseudonymat et beaucoup d’avantages “possibles si bien fait” pour l’utilisateur. Même les plate-formes pourraient y trouver des avantages.
Le
18/10/2021 à
18h
30
benjaminklein a dit:
que risque t’il de se passer si cette loi passe par malheur d’apres vous ?
Les enfants ne pourront plus créer de compte eux-mêmes en douce notamment. Les adultes auront un moyen de détecter les tentatives d’usurpation d’identité. On pourra espérer à terme avoir un endroit unique d’où lister les comptes qu’on a créés, et les révoquer. Les plate-formes pourront espérer avoir un moyen de vérifier qu’un compte est encore actif pour purger les comptes des inactifs et des gens décédés.
Le
18/10/2021 à
18h
27
numerid a dit:
Et, par exemple, on ne peut pas d’un côté vouloir protéger les adolescents et adolescentes homosexuelles qui s’exprimerait sous couvert de l’anonymat et, d’un autre côté, exiger que tout un chacun et tout un chacune montre sa carte d’identité dès lors qu’il ou elle veut s’exprimer, librement, sur internet.
Perso, je ne le vois pas comme cela. Rien n’empêche de créer un compte avec un pseudo, et de garder les informations personnelles masquées. Voire ne pas les avoir en fait. Mais créer un compte avec la carte d’identité:
Garanti beaucoup plus l’identité
Simplifierait les recrous
Permet d’éviter les comptes multiples à des fins inavouables
N’empêche en rien un pseudonymat tel qu’il existe
Avoir un tiers pour valider l’identité n’est pas idiot: de fait on peut valider l’identité SANS la transmettre.
Le
18/10/2021 à
13h
23
(quote:1908362:skankhunt42 ) C’est marrant car j’ai été modérateur IRC il y à environ 20 ans et nous avions absolument la même problématique…
Exactement. Il me semble que sur les forums c’est obligatoire d’avoir des modérateurs “intrinsèquement” car de mémoire l’hébergeur est responsable des propos (j’ai juste ???)
Mais c’est comme ça ne s’appliquait pas vraiment à facebook.
Le
18/10/2021 à
12h
37
Perso je ne vois pas le problème en fait. Que l’on soit obligé de créer un compte par personne sur facebook/twitter, compte vérifié, ça me plaît bien. Ca éviterait les comptes secondaires pour se défouler.
Et de même tout groupe facebook devrait s’auto modérer, avec responsabilité pénale de responsables de groupes.
(quote:1908351:skankhunt42 ) Le danger de brider la liberté d’expression génère deux problèmes :
L’underground : Kevin 16 ans viens de ce faire bannir de jeuxvideos.com parce qu’il à créer un sujet à propos de sammuel paty. Il devrait donc poursuivre la conversation sur un réseau underground et ce retrouvera entouré d’anti sémites.
On en est déjà là sur facebook et twitter. Tu te fais jeter rapidement ou harceler de messages si tu vas dans un groupe de “discussion” sur lequel tu es modéré et pas extrémiste.
j’ai opté pour un AsRock DeskMini X300 avec un 5700G
J’en ai eu un quelques semaines avec un 3400G. Il ne m’a pas convenu à cause d’un certain déséquilibre: 2 SATA + 2NVMe: super, 3 USB: horreur!
Mais surtout: Deskmini x300 + AMD 3400G + Proxmox = bugs à répétition (NVMe plus détecté au bout de quelques secondes ou minutes).
Par contre, génial sous Windows.
David_L a dit:
Chez Noctua tu as le NH-L9a-AM4 qui est pas mal pour ce genre de format de machine, je l’utilisais avec un précédent DeskMini.
Il passe ras sur le Deskmini x300. Pour moi, trop ras, il poussait les refroidisseurs des MOSFET, mais ce n’est pas le cas de tout le monde car les radiateurs de mosfet utilisés changent…
(quote:60731:N.Master) D’ailleurs en règle générale, la gestion de la conso est bonne sur les ryzen sous linux ?
Même sous Windows et sans chercher à bidouiller, on arrive à 9W-12W à vide sur un deskmini avec un APU 65W.
A ce niveau, il n’y a plus rien à grapiller. Mon 3200GE est à moins de 15W en Idle (lenovo tiny par contre, donc bon rendement à faible conso).
Ça n’a pas vraiment de sens d’installer un Linux sur un Mac M1 à l’heure actuelle.
Linux, c’est pas un système juste pour faire durer les vieilles machines. On peut vouloir Linux pour plein de raisons, par exemple pour avoir quelque chose d’un peu moins obtus que MacOS en cas d’utilisation entreprise (vieux souvenirs d’arrachage de cheveux entre MacOS/iOS et le réseau Cisco), ou pour avoir des fonctionnalités moins bridées que ce que certains OS propriétaires proposent. Et puis il y a le côté sport/ultra snob.
snakesolid a dit:
C’est plus une question de volume que de prix
Si on se rappelle l’époque des P2 & Celeron 400, c’est plus une question de segmentation de marché que de prix de revient. Apple a créé un M1 qui fait très fort, et placent leurs prix en-deçà des Apple x64 précédents de performances inférieures, histoire de bien montrer la supériorité du matériel Apple. J’imagine bien qu’ils margent encore bien fort (et je pense qu’ils le méritent, ce n’est pas un reproche), mais il faut reconnaître que sur les Mac “pro” x64 précédent, les prix étaient très très très forts…
Les M1 vont certainement rester un moment moins chers, le temps de sortir toute la gamme. Ensuite, soit ils augmenteront de prix, soit (et je pense que c’est probable) ils seront légèrement simplifiés car je pense qu’une partie des transistors est une aide pour l’émulation x64.
Pour le moment on est dans une phase de pénétration de marché. Une fois bien en place, ils pourront marger plus, potentiellement sans bouger les prix.
Le
19/10/2021 à
14h
41
ZoZo a dit:
Ce que je veux dire c’est que ça remet en perspective la rivalité Intel/AMD,
Tout à fait. On a l’impression que c’est une vieille bataille sur des enjeux qui ne sont plus d’actualité. Si un constructeur ARM réussi à faire une puce presque équivalente au M1 mais pour PC, Windows on ARM va décoller. Enfin, si elle ne coûte pas le double du prix pour 30% des perfs du PC comme ça a été le cas (en exagérant) avec les dernières tentatives.
Car un des problèmes des PC basse conso, ça a été qu’ils ont été fortement décrié non pas pour ce qu’ils étaient, mais pour ce qu’ils n’étaient pas (les transmeta en 2000, les PC en atom avec CG de portable vers 2010, les derniers portables ARM). On ne leur a laissé aucune chance car ils ne faisaient pas tourner les applis qui ne leur étaient pas destinées.
patos a dit:
Oué mais moi je préfères une machine moins parfaite, et réparable même si c’est un peu compliqué. Parce qu’ajouter de la RAM, changer le disque et changer la batterie sont absolument essentiel pour qu’un ordinateur dure longtemps.
Sera-ce toujours le cas? J’ai plusieurs ordis en 8Go de RAM, mon ordi de jeu est une 3570K en 8Go de RAM, j’ai juste mon poste de dev en 16Go de RAM… Ca suffit amplement pour mes usages (et ils sont nombreux). Si un ordi est optimisé avec une OS optimisé (donc pas … Android), 8Go de RAM peuvent largement suffire.
Le
19/10/2021 à
08h
09
(quote:60647:N.Master) C’est vraiment toute une floppée de sous systèmes plus ou moins spécialisés.
C’est la tendance actuelle (exemple: intel GNA). Le GPGPU a montré que le CPU n’est pas capable de suivre sur plusieurs types de calcul qui sont de plus en plus courants/répandus. Par ailleurs, le paradigme actuel “périph -> CPU -> RAM -> CPU pour le calcul -> RAM -> périph” est bien remis en cause aussi. Autant faire périph qui calcule <-> RAM.
Remettre le CPU non pas au centre comme en x86, mais sur le bus au même titre que toute autre unité. Laisser les unités travailler à leur rythme, parfois plus vite que le CPU ne pourrait, et surtout avec moins de latence que si le CPU doit tout orchestrer lors d’échanges.
Ce que je crains, c’est qu’avec les directstorage et autres, Apple finisse par mettre le SSD aussi sur la puce.
Le
19/10/2021 à
06h
24
Belles bêtes. La réussite du iGPU face à ceux d’Intel et AMD est certainement très liée à la BP de la RAM, très impressionnante (et les tests de latence du M1 le plaçait plus proche d’intel que d’AMD sur ce terrain).
A se demander si un x86 basé sur de l’ARM avec un traducteur en amont ne serait pas faisable pour de la basse conso (c’était faisable en 2000 avec Transmeta et autre chose que ARM).
Après, avec Windows en ARM, on s’en moque un peu, si quelque constructeur arrive à faire de l’ARM aussi avancé qu’Apple.
Il est possible que les i3-12 soient aussi prévus comme solution de gestion des “déchets” des Core-i5 Autre possibilité, un processus de fabrication “éprouvé” de type Core-11 ultra-rentable ou moins difficile (avec moins de rejets)
Oui, c’est effectivement probable … Et puis la différence en conso à vide entre 4 coeurs rapides et 2 lents est peut-être pas assez significative en y pensant. Je ne sais pas combien vont consommer les machines à vides, mais la mienne fait 10-12W (Ryzen 35W), les intel équivalents 9-10, des coeurs lents feraient peut-être baisser de 2W-3W mais le reste de la plate-forme a quand même besoin de tourner (RAM, USB, NVMe, CG, Wifi)
Le
18/10/2021 à
13h
36
En fait, si j’apprécie de voir ces nouveautés, je ne comprends pas pourquoi en bureau des i3 n’ont pas de coeurs lents mais des i7 si. Le i7 je le vois bien dans des stations de travail, ordis d’utilisateurs exigeants qui n’ont généralement que faire de la conso (en tout cas qui ne sont pas à économiser quelques Watts sur le CPU pendant une séance de navigation).
Par contre, sur un parc de i3 bureautique, ça pourrait être bienvenu.
Pour le reste, je pense que ça va être un sacré renouveau. Hâte de voir des applis courantes en prendre compte (notamment des accélérateurs “IA”)
Et sinon, ils pensent quoi des banques et de leurs claviers virtuel tout pétés qui bloquent les gestionnaires de mots de passe, et forcent des mots de passe à 8 chiffres au mieux ?
La technique est loi d’être idiote:
Toi tu vois des chiffres, pas sûr du tout que ce soit ça qui soit transmis, ce qui est échangé peut être totalement aléatoire
Les chiffres sont dans le désordre, il faut les voir physiquement pour les copier
Ca se retient bien, il n’est pas copié partout comme les mots de passe
C’est bien mieux qu’on code pin sur un tél avec des doigts gras :)
Le
15/10/2021 à
08h
00
Ce qui est drôle, c’est la politique de mots de passes de certains sites comme:
Obligation des caractères spéciaux / interdiction des espaces -> exit la phrase mot de passe
Longueur maxi de x caractères (10, 12) -> Idem
Suppression automatique des caractères accentués et autres caractères non ASCII 7 bits (non précisée celle là, mais vu sur des sites, quand on s’acharne à mettre 8 car, mini, on en a tapé 10 mais il râle)
Ils feraient donc mieux de tester l’entropie plutôt que des nombres de caractères et présence de caractères “non naturels” quand on fait un nouveau mot de passe
C’est pas si fréquent que ça, donc ça arrive rarement sur un long trajet, mais si on vit juste au mauvais endroit, on l’a tout le temps.
Merci :) Soit ça soit je vis sur une faille temporelle …
Même si c’est souvent un avantage annoncé, je ne vois pas en quoi techniquement ça pourrait mieux marcher que le RDS.
En lieux brouillé, le RDS a du mal. Les auto-radio ont deux solutions avec le RDS:
avoir récupéré la liste des fréquences “alternatives” pendant la transmission
retrouver la station par son nom
Mais il y a deux/trois problèmes:
Les signaux alphanumérique RDS sont très approximatifs si brouillés -> on n’a pas la bonne liste de fréquences, pas tout à fait le bon nom soit au départ soit pendant la recherche
Des stations de radio change le nom en fonction de l’émission ou pire, de la chanson –> on ne cherche plus le bon nom (car parfois l’autoradio ne retient pas le nouveau nom, la qualité du signal RDS étant déjà trop mauvaise)
Ensuite, il faut maîtriser son autoradio: certains démarrent en suivant seulement un PTY (program type), donc si on écoutait de la musique, il cherche de la musique, pas une station particulière…
Le DAB sera tout numérique, on peut s’attendre à ce que les données soient “justes”. Par ailleurs, beaucoup de DAB sont “double tuner” (même mon radio réveil DAB, acheté fièrement en 2008 il me semble - je peux donc voyager avec, c’est sûr!)
Le
13/10/2021 à
09h
49
Si ça pouvait corriger le “stuttering” sur la FM. Je déteste perdre un mot ou l’entendre 2 fois de suite. Mais ça arrive tout le temps.
Fseg a dit:
tout le monde a pris l’habitude d’écouter les flux des webradios sur smartphone.
Non, pas tout le monde. Parce que ça coupe pendant le trajet (2 fois exactement, quelque soit l’opérateur).
(parce que si t’enlève les grosses boites des contributions kernel par exemple et que tu gardes que les participations de ceux qui ont un avis à donner, ça fait un sacré trou).
Effectivement: Microsoft, Oracle, IBM/Lenovo (avec une grosse partie optimisation pour le stockage)
Facebook a aussi forcé PHP à s’améliorer pour faire face à l’espèce de fork ultra performant qu’ils avaient.
En tout cas, on sent la convergence entre les technos SSD vers ethernet, les formats de SSD, les solutions très haute perfs et l’optimisation des perfs de solutions existantes, il doit y avoir un goulet d’étranglement sur l’extraction des infos du stockage…
Le
13/10/2021 à
14h
45
KP2 a dit:
Ca me fait toujours mal de voir de tels talents travailler pour des boites d’enfoirés comme FB et Criteo…
C’est pas parce qu’il a du talent que c’est une “bonne personne”. ReiserFS inside. Linus Torvald n’a pas l’air d’être très sympa à cotoyer non plus d’ailleurs, ni Richard Stallman.
On peut pas dire que le processeur X ne convient pas à l’utilisation Y car il y a trop de cas différents.
Un 4C/8T couvre +90% des cas d’utilisation. Surtout avec du cloud, des applis web, etc… La charge de travail la plus conséquente en CPU, c’est l’antivirus hebdo sur des ordis en SSD.
Bien sûr qu’un monteur vidéo, un modélisateur 3D, il sera aux anges avec un truc à 8C/16T, mais vu que toute une partie des ces logiciels “de niche” est déportée sur la CG, un CPU plus balèze ne fera pas toujours une différence notable non plus.
Suffit d’avoir à gérer Teams, Outlook, un navigateur web, ton soft de boulot (dans mon cas un IDE) et une poignées de petits softs en fond (gestionnaire de mdp, cloud, vpn si télétravail…) et tu auras ton cas d’utilisation. Je bosse sur un i7-10610U, 4C/8T, et je suis jamais sous les 25% d’utilisation alors que je coche aucun de tes cas “utilisation intensive”.
Euh, change le :). Un 8250U est sous les 15% à 800MHz avec tout cela (et quand je dis 15, c’est pour te faire plaisir - d’ailleurs en plus j’ai 2 instances SQL server qui tournent).
Mais je plaisante: 25% d’utilisation moyenne ne me dérange pas, c’est d’ailleurs extrêmement rarement atteint sur des serveurs en PME/PMI et plus. La question est surtout: combien de temps passes-tu à 80⁄100%? Quelle part serait améliorée par plus de coeurs? Et si tu as des pics, sont-ils couvert par le temps de boost ou est-ce qu’ils dépassent?
On a tout à gagner à augmenter le nombre de cœurs,
Non, on y perd sur la conso à vide, l’enveloppe thermique ou la vitesse maxi (même si des subterfuges permettent de limiter cette dernière). Plus de coeurs sur ton portable = moins d’autonomie.
J’utilise encore des ordis en 2C/4T quotidiennement (i3 6100U notamment), et on fait jusqu’au montage vidéo dessus. Bien sûr le rendu final on le fait plutôt sur une autre machine, mais on a besoin de 1 machine puissante pour combien de machine qui le sont moins?
Et je ne dis pas que c’est inutile, je dis que c’est loin d’être universel ou franchement nécessaire, ou même réellement visible pour nombre d’utilisateurs.
Le multithreading n’a pas attendu d’avoir du multicoeurs pour être utile quand c’est adéquat!
Le
13/10/2021 à
07h
26
David_L a dit:
Et si ARM perce, ce sera à travers… la densité à pas cher (voir Graviton et Ampere Computing). Ils s’attaqueront à la place d’AMD, pas d’Intel.
Les derniers bench sur Phoronix sont encourageants: plus ou moins les perfs des Intel AMD, avec 2 fois plus de coeurs, mais en consommant la moitié. Certains benchs complètement à l’avantage des ARM, de loin. Et si on combine avec de nouveaux concepts, le CPU ne sera plus forcément un point primordial (et come je le dis souvent, ce n’est déjà pas souvent un point primordial)
Dans le domaine des BDD, c’est encore très frileux à mettre de l’ARM, mais dans le domaine du serveur Web (frontal et back), ARM n’est plus juste convaincant: il est carrément envisagé (bon, je n’en n’ai pas encore vu, certainement car il reste des doutes sur le support et la viabilité des constructeurs/distributeurs)
David_L a dit:
Parce qu’à dire “on a la meilleure fréquence, le meilleur IPC, la meilleure efficacité énergétique” quand ce n’est pas vrai, on risque de finir par y croire, et c’est comme ça que tous les constructeurs à la mode (dont Intel à une époque) tombent de leur piédestal.
C’est clair que Apple a lâché une grosse brique dans la marre. Le problème ne semble plus de trouver de l’IPC pour du x86, mais d’être capable d’intégrer des unités hétérogènes, mettre à disposition assez de données pour saturer les unités. Je lisais que dans les futurs iGPU, Intel utilisera des pages de 64ko au lieu des pages de 4Ko chères (et coûteuses) à nos x86. Intel pousse le oneDNN qui pourra abstraire la complexité des implémentations (sur GPU? AVX-512?) au lieu de jongler en permanence avec les bibliothèques dans python pour passer d’une implémentation à l’autre. Tous envisagent d’ajouter des unités de calcul - sans vraiment avoir un standard.
(quote:60495:Aristide Rutilant) De nos jours, il faut déjà avoir au moins 6 cœurs physiques pour jouer dans de bonnes conditions
90% des PC ne servent pas à jouer (statistique: de moi-même). Et ceux qui jouent ne jouent pas forcément à ces jeux là (exemple: moi-même aussi). En pro, Excel parallélise bien mais plein de fichiers ne peuvent être parallélisés correctement au-delà de 6 threads (trop de dépendances). Un ryzen 3600 est généralement totalement inutile en pro, on garde de l’APU, l’antivirus tourne très bien dessus en parallèle des protections RGPD et des applis. On a même des pics à 25% de CPU par tranche de 5 min.
Avoir 4C/8T, c’est agréable, on peut lancer plein d’applis sans soucis. Mais en général, aucune appli ne se parallélise bien à part:
l’édition vidéo
le calcul intensif (SIG par exemple)
la compilation –> la grande majorité des utilisateurs ne profitent que très peu d’avoir 6C/12T.
Le cache est redevenu une bataille importante (d’ailleurs Ryzen a monté les enchère énormément sur ce sujet): Intel, AMD et IBM ont eu des annonces intéressantes dans ce domaine (3D-Vcache de AMD et la cache “virtuelle” de IBM qui transforme le L2 non utilisé d’un coeur en L3 partagé - à la fois une évolution majeure et un risque de fou vu les dernières méthodes d’attaque CPU…)
Le
12/10/2021 à
18h
19
5 ans déjà, mais quand on se refait le film:
AMD est revenu en force dans les PC performants (les premiers Ryzen étaient impressionnants mais Intel faisait encore mieux sur de nombreux point)
Ensuite AMD a repris la couronne dans quasiment tous les cas sur le moyen et le haut de gamme
AMD a aussi reconquis l’entrée de gamme, les APU, bien qu’on en parle assez peu, sont vraiment bien équilibrés (même si la partie graphique fait un plateau)
La roadmap est tenue! (coucou Intel avec le 10nm qui a tant été attendu!)
Intel poussé dans ses derniers retranchements, le turbo à mort en prenant de gros risque (conso/échauffement) face à AMD dont les Ryzen sont les vrais bulldozers/caterpillars :)
Et AMD qui arrive avec des Ryzen pour portables aussi, convaincants au début (mais avec quelques défauts d’autonomie) puis carrément concurrentiels
Plus effectivement les threadrippers et les EPYC qui taillent doucement des croupières dans les workstations/serveurs…
La PS5 …
Une belle remontada pour qui se rappelle comment on essayait de se convaincre que les générations avant Ryzen étaient des concurrents…
Ceci dit, je continue à penser que non, l’avenir n’est pas à un PC à 20 coeurs 40 threads pour tous à la maison. Bien que AMD sorte des produits très performants, très intéressants, je crois que la vision d’intel qu’un CPU grand public est plus dans le 4C/8T voire 6C/12T est plus réaliste, les logiciels optimisés pour plus tenant de la niche.
Mais n’empêche bon sang, sacré coup de fouet ces dernières années!
Je pense que ça peut être une sacrée évolution pour les bases de données in memory (SAP Hana) :
C’est effectivement le travail sur les bases de données actuelles.
Par exemple dans le cas de SQL Server, Ms a travaillé pour que SQL Server gère le mapping mémoire lui-même, se substituant à la gestion mémoire de Windows, ceci afin de ne jamais swapper.
Avec des mémoires lentes et rapides, rien n’empêche de le faire niveau système: la RAM classique et la NV peuvent être dans l’espace d’adressage du système, un système de cache aidant à ne pas lire deux fois ou différer les écritures, sans que le programme sache quelle est la part de RAM et la part de NV.
En fait, j’ai déjà vu cela en 2000, mais avec 2 types de RAM: RAM rapide et RAM lente, sur une silicon graphics qui avait 64CPU et 64Go de RAM: à l’époque 64Go de RAM rapide, ça aurait fait fondre le truc. L’ordonnanceur utilisait la RAM rapide moitié comme de la RAM, moitié comme de la cache. Pendant un appel pour écrire dans la RAM lente, le temps que la RAM lente donne l’accès, il pouvait encore modifier la copie en RAM rapide et n’écrire que quand la lente était prête.
En quoi un vieux Pentium Dual Core E5200 est incompatible au final ?
Entre le BIOS au lieu de l’UEFI, le non support de certaines technos de virtualisation maintenant bien ancrées dans le système (pour WSL, pour la compatibilité Android aussi j’imagine), l’impact des mesures anti spectre/meltdown (ce qui est dommage, ce CPU étant certainement touché mais ses performances n’auraient pas permis une grosse fuite de données), le non support ou le support bancal de certaines fonctionnalités PCIe, et effectivement quelques instructions récentes… Disons que Ms a maintenu les vieux PC jusque là, parfois plus longtemps que Linux, mais là c’est fini.
3767 commentaires
Microsoft Edge disponible en version stable sous Linux
02/11/2021
Le 02/11/2021 à 14h 37
Il faut le définir comme persistant, je crois que dans l’interface graphique c’est dès le début, sinon:
net use X:\monsharepoint.local@SSL\sites\monsite /persistent:yes
Le 02/11/2021 à 14h 05
Check your MPs
Le 02/11/2021 à 11h 14
On l’a fait au boulot, c’est deux-3 clés de registre et un fichier xml.
Note: Ms l’a activement promu, mais en fait chrome enterprise le faisait depuis plusieurs année déjà.
Le Raspberry Pi Zero 2 W est lancé, vendu 15 dollars
28/10/2021
Le 02/11/2021 à 13h 44
Les NUC c’est 6 à 10W en IDLE. Mais là où le RPI monte vite, le NUC/mini PC reste à quelques % de charge (dans mon cas: serveur PHP, proxy, firewall). L’écart est alors ridiculement faible en conso. Le RPI est toujours plein de limitations (Ethernet 100, Wifi N, pas possible de tirer trop de jus sur les ports USB), le 4 est mieux mais difficile à refroidir et cher.
Alors oui, pour un projet mono utilisateur/mono logiciel c’est pas mal, pour bidouiller/maquetter c’est bien, mais dès que je passe “en prod”, je n’ai pas été convaincu par le RPI.
Je pense que c’est surtout une question de compilateur. Le RPI première version est un ARMv6 (donc bien vieux comme archi - avant 2005, maintenant plutôt l’équivalent des cortex m0 qu’on trouve en embarqué pour remplacer les arduino).
Tout dépend ce qu’on fait de NodeJS. Mais effectivement c’est souvent un environnement un peu overkill sur de petits projets. D’un autre côté, on nous propose des cartes type arduino à programmer en python, donc le gâchis de perfs c’est assez courant.
Pour la taille des instructions: ça a un réel impact sur des archis avec très peu de mémoire ou un bus mémoire lent mais actuellement la taille des programmes est tellement inférieure à la taille des données que ça n’a pas d’importance.
Le 29/10/2021 à 14h 01
Je voulais juste souligner que même si Node.JS pourrait fonctionner sur un RPI Zero W 2, dans les faits il y encore des limitations. Même si 512Mo, c’est déjà énorme pour énormément de projets sur RPI.
Par exemple, certains lecteurs audio (comme volumio) basés sur NodeJS peuvent manger beaucoup de RAM. Mais il est toujours difficile de savoir ce qui est consommé et ce qui est nécessaire.
J’avais retenu mon avis perso sur NodeJS pour moi.
J’utilise essentiellement des RPI Zero pour mes projets (même pas W) pour leur compacité et leur conso très restreinte - donc facile à alimenter par batterie (+ le choix de pouvoir souder des connecteurs GPIO coudés, ou pas du tout, ou juste ceux qu’on souhaite utiliser)
Là je suis mitigé, comme d’habitude: 2,5A et 5V, ça fait la conso d’un petit PC et même plus qu’un NUC. Sauf que la plupart des charges de travail qui secouent un peu les RPI, elles laissent les PC de marbre (par exemple: certaines charges à 100% sur une RPI 3 poussent le PC à 15% et il finit plus vite).
Le 28/10/2021 à 14h 01
Après, nodejs sur 512Mo de RAM, c’est pas forcément le bon choix.
Lancer un script au démarrage sous Linux et BSD : quelle méthode pour quelle distribution ?
02/11/2021
Le 02/11/2021 à 11h 33
Et nous t’en remercions
Le 02/11/2021 à 11h 09
D’un autre côté, l’article met le doigt sur ce qui fâche. Quand on se retrouve à gérer plusieurs distro différentes car achetées avec des produits différents, Linux c’est juste une jungle et un enfer.
L’article aborde juste le lancement d’un script au démarrage, mais parfois la config réseau, la config kerberos se complique car les docs ne sont pas à jour, pas centralisées et les tutos antédiluviens.
systemd n’est pas un mauvais système, c’est une vision différente, et il paye surtout d’avoir été long et compliqué à mettre en place pour remplacer sysinit (vu l’historique, pas de surprise, ça a tatonné un peu).
Par rapport à rc.d, systemd a un énorme avantage: il permet de décrire les dépendances. Dans rc.d on jouait sur les noms des fichiers pour déterminer l’ordre, là on est plus sur du service que de la technique pure. C’est plus proche de ce qu’on fait sous Windows (dire qu’un service dépend de tel ou tel autre pour qu’il démarre après).
Par contre mettre systemd sur un système embarqué, c’est très peu utile et relativement compliqué si sysv était déjà là.
On a donc toute la mémoire/amertume/rancoeur collective du produit qui a été mal utilisé/paramétré et a eu une courbe d’apprentissage/mise en place assez longue (donc c’est comme SAP, BO ou Sharepoint 20xx qui ne méritent pas la réputation que leur donnent les utilisateurs)
Petit plus de systemctl: la commande systemctl enable peut être lancée pour un utilisateur pour lancer des services quand il se logue (–user) ou pour tous les utilisateurs qui se loguent (–global)
L’Intérieur abandonne SCRIBE, « brique fondamentale de la future plainte en ligne »
02/11/2021
Le 02/11/2021 à 11h 19
Et passer pour la gendarmerie d’éditeur interne à éditeur avec client… c’est un cap difficile.
C’est comme pour le privé: il faut l’avoir prévu ou ça finit chez les avocats. On peut aussi s’arranger. Mais en général, tout n’est pas payé d’un coup au départ, on découpe par lots/phases et on paye ce qui est livré.
L’abandon en court de route peut mener à des pénalités.
Un amendement pour imposer l’écoconception des sites publics et des plateformes
29/10/2021
Le 29/10/2021 à 21h 29
Ou relancer le minitel. Avec les technos actuelles et le débit, ça devrait être fluide.
Le 29/10/2021 à 17h 37
On n’est pas du tout sur du 2W à mon avis. Avec des traitements de nuit mal fichus qui saturent CPU/RAM/IO + les recalculs d’index souvent inutiles de 5-8h chaque dimanche, il y a de quoi faire.
Effectivement, le but est d’éteindre les serveurs, les mettre en veille, ainsi que des baies de stockage si possible, voire du réseau.
Dans tous les cas, concevoir une appli qu’on peut éteindre, qui ne demande pas de traitements de nuit, permet déjà de l’exécuter sur une infra cloud à moindre coût.
On est plutôt à climatiser l’IT et chauffer les bureaux à côté :)
Et l’IT n’est pas un chauffage efficace.
Le 29/10/2021 à 14h 10
Je dirais qu’au mieux pour les sites internet, on peut couper de 4h à 5h du matin. On a presque autant de requêtes entre minuit et 3h par exemple que sur des heures de la matinée.
Par contre, baisser le nombre de serveurs, mutualiser sur un serveur qui fait tout en cas de charge basse c’est faisable.
Mais je pense que pour faire des économies et de la green it, réfléchir à comment sont gérés/ recalculés les index de bdd, comment sont faites les sauvegardes, bannir les traitements de nuit pour pouvoir éteindre les serveurs, ça serait pas mal. Mais ça remet en question pas mal la façon de concevoir/programmer les systèmes.
Une Bande annonce pour Buzz l’éclair, « l’histoire du ranger de l’espace le plus connu de la galaxie »
28/10/2021
Le 28/10/2021 à 20h 38
Il va rencontrer des petits bonhommes verts rigolos qui vont lui voler la vedette. Comme les minions.
Ce que prépare Intel pour début 2022
28/10/2021
Le 28/10/2021 à 13h 57
Euh, question peut-être stupide: 24threads, c’est bien 16 sur les coeurs BP et 8 sur les BE?
J’appréhende un peu la différence de perfs entre les BP et les BE, et la capacité des OS à envoyer les threads sur les bons coeurs.
Quand au MTP de 60W+ sur les modèles 35W, c’est déjà un eu le cas, mais pas à ce point quand même. Même les alims de 90W vont souffrir.
Windows 11 et AMD Ryzen : l’ensemble des patchs est disponible
22/10/2021
Le 22/10/2021 à 13h 18
Oui, c’est vrai, je n’avais pas tout relu.
Et sincèrement, cette polémique m’est un peu passée au-dessus: je ne compte pas sur le boost pour me donner les perfs en vitesse de croisière - et pourtant je constate que chez AMD c’est super stable là où en général Intel c’est les montagnes russes encore régulièrement.
Après, je ressortais cet “argument” en pur troll, pour souligner la complexité de la gestion des CPU actuels, particulièrement AMD, qui a nécessité pour en tirer les meilleurs perfs des aménagements assez profonds.
Alors si on change d’OS, je ne vais pas forcément tenir rigueur ça tatonne sur ce point un tout petit peu. Bien que je rejoigne un certain étonnement que ce n’aie pas été vu avant la release. Ca ne donne pas confiance dans les tests de Ms concernant les perfs.
Le 22/10/2021 à 12h 34
J’en était resté là: https://www.tomshardware.com/reviews/amd-ryzen-3000-turbo-boost-frequency-analysis,6253-4.html
Tous les coeurs n’atteignent pas forcément le boost de la fiche technique.
Le 22/10/2021 à 12h 22
On est dans le complotisme là. Le tir a été rapidement corrigé. Et Ms a tout de même bien bossé sur Windows 10 pour faire fonctionner les AMD. Avant on s’en moquait pas mal du coeur le plus rapide du CPU. Maintenant, chez AMD on nous vends des CPU dont on nous garanti que certains coeurs atteignent les specs.
Petit rappel du bazar qu’est un AMD pour le scheduler: https://www.anandtech.com/show/15137/amd-clarifies-best-cores-vs-preferred-cores
Le 22/10/2021 à 08h 56
Et certains Zen1+ comme le mien.
Peut-être que l’OS sort “un peu vite” et que les tests de perfs n’ont pas été aussi poussés qu’il l’aurait fallu?
Peut-être que l’OS sort à l’arrache pour accompagner les processeurs Intel nouveaux (asymétriques) et que la plupart des tests ont concerné ces nouveautés?
Peut-être aussi que maximiser les perfs des Ryzen n’est pas aussi simple que pour les Intel? (même si les principes se sont plutôt rejoints depuis l’arrivée de Ryzen)
SiFive : pas de rachat par Intel, mais un futur cœur pour passer devant Arm
22/10/2021
Le 22/10/2021 à 12h 29
Je n’étais pas sûr que les deux étaient comaprables à des CPU généralistes (notamment le P550).
J’ai compris mon erreur: contresens dans la traduction. “the P270, SiFive’s first Linux capable processor with full support for the RISC-V vector extension v1.0 rc” n’implique pas que le P550 ne soit pas compatible Linux.
Mais en revenant aux références des ISA les 2 sont bien comparable à des CPU généralistes (et pas des CPU dédiés à l’embarqué)
Le 22/10/2021 à 12h 15
Je ne te suis pas:
-> Le P550 était déjà un “G” donc il me semblait que ça suffisait pour faire du Linux
Mais il ne le mettent pas dans la même catégorie que le P270, plus généraliste car il a les instructions vectorielles, mais qui est basé sur une “série 7” comme le RISC de la unmatched.
–> Arg! Je suis paumé! C’est cool ces histoires d’IP, mais on n’est jamais sûr de ne pas comparer des choux avec des carottes ou des panais.
Le 22/10/2021 à 08h 53
Juste pour resituer: https://www.sifive.com/press/sifive-performance-p550-core-sets-new-standard-as-highest
SiFive décrit bien le P550 comme un SOC performance pour le calcul, mais ils évoquent que le P270 est “compatible Linux”.
On est donc bien sur un SOC dédié intégration voiture, réseau, mais pas adapté à un environnement de dev “classique” sous Linux?
Mais les A75 sont bien compatibles Linux, eux, et complètement il me semble.
Le P270 par contre a l’air bien comparable, et compatible avec les instructions NEON des ARM.
La Gauche démocrate et républicaine souhaite réformer les rouages de Parcoursup
22/10/2021
Le 22/10/2021 à 09h 18
Par contre, tout à fait d’accord avec l’histoire des spécialités. Comme rien n’est synchronisé entre la réforme du lycée et du supérieur, le supérieur continue à demander des combinaisons parfois impossibles de spécialités (on ne peut plus faire spécialité math, physique et avoir encore de la bio par exemple, en tout cas pas dans toute la France - or c’est demandé pour la prépa BCPST).
Le 22/10/2021 à 09h 01
“Rendre anonyme le lycée d’origine”: effectivement , on a constaté des choses étranges dans le recrutement selon que la personne vienne d’un lycée ou l’autre… Mais ça a toujours existé, certains lycée notant vraiment sévèrement par rapport à d’autres plus enclin à faire plaisir aux parents pendant l’année…
Avec le contrôle continu renforcé, cela pourrait se gommer, mais on n’y est pas du tout.
Cybersécurité et open source : l’électrochoc Heartbleed « n’a pas changé grand chose »
20/10/2021
Le 22/10/2021 à 09h 15
C’était LWJGL. J’ai retrouvé un patch: https://www.planetminecraft.com/mod/mod-opengl-fixer/
Mais les premiers mois: aucune solution, sauf changer d’ordi. Le chagement de version faisait passer la version minimale d’OpenGL en 4.6, avant même d’utiliser les nouveaux shaders.
Ca a mis à la corbeille les intel HD 4600 et tout ce qui était en-dessous.
Le 21/10/2021 à 06h 20
Un jour Minecraft a mis à jour la librairie graphique (genre de la version 1.9999 à la 2.01).
-> Ca a apporté plein de nouveautés pour les shaders
-> Ca a monté le niveau d’exigence OpenGL de plusieurs crans, mettant de côté tous les PC tournant sur des intel IGP un peu trop vieux (alors qu’il tournait correctement dessus).
Le problème, c’est que mettre à jour peut casser ton soft, et les softs sont rarement faits pour une mise à jour “partielle”.
Par ailleurs, tu peux avoir des références croisées: une lib A qui dépend de B en 2.0 et une lib C qui en dépend aussi.
lib B est passé en 3.0, cassant quelques petites choses.
lib C évolue et prend en compte la 3.0, pas lib A…
C’est pas pour rien si à la gendarmerie il ont des plans de fou pour tout retester et qualifier en permanence!
Perso j’ai déjà vécu des situations de daube:
Un sénateur rêve d’une autorité de contrôle de l’identité numérique à l’entrée des plateformes
18/10/2021
Le 21/10/2021 à 13h 59
Le DNS ne changera rien, quand aux sites non francophones, vu le niveau des gamins, ça ne peut que leur faire du bien :)
Si je suis bien d’accord que l’éducation est primordiale, je ne suis pas contre une solution technique, notamment pour ce que je ne peux pas moi-même fournir en solution technique.
Là on ne parle pas de filtrage, de fichage ou de mouchard:
Avantages:
Perso, je chargerais le contrôleur de donner son avis sur les restrictions légales concernant la personne identifiée: notamment concernant les restrictions d’âge
Le 19/10/2021 à 09h 52
A mon avis il y a une mauvaise idée de ce qu’est une base de données.
1- Qu’un tiers géré par l’état puisse vérifier l’identité à partir d’infos données lors de la création d’un compte, et fournir une clé pour authentifier ce compte –> aucun besoin d’échanger moult données
2- Cela permet de ne fournir qu’une “clé” et de multipler les identités: facebook ne pourra plus forcément croiser les infos avec un autre site qu’ils auront racheté
3- Par contre, le tiers pourra lister où des comptes ont été créé et redonner un peut plus de visibilité sur qui utilise les données
4- tout comme avec france connect, l’utilisateur peut gérer quelles données sont partagées avec qui
Moi, je n’y vois rien qui empêche la liberté d’expression, rien qui puisse tuer le pseudonymat et beaucoup d’avantages “possibles si bien fait” pour l’utilisateur.
Même les plate-formes pourraient y trouver des avantages.
Le 18/10/2021 à 18h 30
Les enfants ne pourront plus créer de compte eux-mêmes en douce notamment. Les adultes auront un moyen de détecter les tentatives d’usurpation d’identité. On pourra espérer à terme avoir un endroit unique d’où lister les comptes qu’on a créés, et les révoquer. Les plate-formes pourront espérer avoir un moyen de vérifier qu’un compte est encore actif pour purger les comptes des inactifs et des gens décédés.
Le 18/10/2021 à 18h 27
Perso, je ne le vois pas comme cela. Rien n’empêche de créer un compte avec un pseudo, et de garder les informations personnelles masquées. Voire ne pas les avoir en fait. Mais créer un compte avec la carte d’identité:
Avoir un tiers pour valider l’identité n’est pas idiot: de fait on peut valider l’identité SANS la transmettre.
Le 18/10/2021 à 13h 23
Exactement. Il me semble que sur les forums c’est obligatoire d’avoir des modérateurs “intrinsèquement” car de mémoire l’hébergeur est responsable des propos (j’ai juste ???)
Mais c’est comme ça ne s’appliquait pas vraiment à facebook.
Le 18/10/2021 à 12h 37
Perso je ne vois pas le problème en fait. Que l’on soit obligé de créer un compte par personne sur facebook/twitter, compte vérifié, ça me plaît bien.
Ca éviterait les comptes secondaires pour se défouler.
Et de même tout groupe facebook devrait s’auto modérer, avec responsabilité pénale de responsables de groupes.
On en est déjà là sur facebook et twitter. Tu te fais jeter rapidement ou harceler de messages si tu vas dans un groupe de “discussion” sur lequel tu es modéré et pas extrémiste.
PC silencieux : passer au (presque) passif avec un petit radiateur, est-ce possible ?
20/10/2021
Le 20/10/2021 à 13h 20
J’en ai eu un quelques semaines avec un 3400G. Il ne m’a pas convenu à cause d’un certain déséquilibre: 2 SATA + 2NVMe: super, 3 USB: horreur!
Mais surtout: Deskmini x300 + AMD 3400G + Proxmox = bugs à répétition (NVMe plus détecté au bout de quelques secondes ou minutes).
Par contre, génial sous Windows.
Il passe ras sur le Deskmini x300. Pour moi, trop ras, il poussait les refroidisseurs des MOSFET, mais ce n’est pas le cas de tout le monde car les radiateurs de mosfet utilisés changent…
Même sous Windows et sans chercher à bidouiller, on arrive à 9W-12W à vide sur un deskmini avec un APU 65W.
A ce niveau, il n’y a plus rien à grapiller. Mon 3200GE est à moins de 15W en Idle (lenovo tiny par contre, donc bon rendement à faible conso).
Apple M1 Pro et M1 Max : qu’est-ce que ces SoC ont dans le ventre ?
19/10/2021
Le 19/10/2021 à 20h 53
Linux, c’est pas un système juste pour faire durer les vieilles machines. On peut vouloir Linux pour plein de raisons, par exemple pour avoir quelque chose d’un peu moins obtus que MacOS en cas d’utilisation entreprise (vieux souvenirs d’arrachage de cheveux entre MacOS/iOS et le réseau Cisco), ou pour avoir des fonctionnalités moins bridées que ce que certains OS propriétaires proposent.
Et puis il y a le côté sport/ultra snob.
Si on se rappelle l’époque des P2 & Celeron 400, c’est plus une question de segmentation de marché que de prix de revient.
Apple a créé un M1 qui fait très fort, et placent leurs prix en-deçà des Apple x64 précédents de performances inférieures, histoire de bien montrer la supériorité du matériel Apple.
J’imagine bien qu’ils margent encore bien fort (et je pense qu’ils le méritent, ce n’est pas un reproche), mais il faut reconnaître que sur les Mac “pro” x64 précédent, les prix étaient très très très forts…
Les M1 vont certainement rester un moment moins chers, le temps de sortir toute la gamme. Ensuite, soit ils augmenteront de prix, soit (et je pense que c’est probable) ils seront légèrement simplifiés car je pense qu’une partie des transistors est une aide pour l’émulation x64.
Pour le moment on est dans une phase de pénétration de marché. Une fois bien en place, ils pourront marger plus, potentiellement sans bouger les prix.
Le 19/10/2021 à 14h 41
Tout à fait. On a l’impression que c’est une vieille bataille sur des enjeux qui ne sont plus d’actualité.
Si un constructeur ARM réussi à faire une puce presque équivalente au M1 mais pour PC, Windows on ARM va décoller. Enfin, si elle ne coûte pas le double du prix pour 30% des perfs du PC comme ça a été le cas (en exagérant) avec les dernières tentatives.
Car un des problèmes des PC basse conso, ça a été qu’ils ont été fortement décrié non pas pour ce qu’ils étaient, mais pour ce qu’ils n’étaient pas (les transmeta en 2000, les PC en atom avec CG de portable vers 2010, les derniers portables ARM). On ne leur a laissé aucune chance car ils ne faisaient pas tourner les applis qui ne leur étaient pas destinées.
Sera-ce toujours le cas? J’ai plusieurs ordis en 8Go de RAM, mon ordi de jeu est une 3570K en 8Go de RAM, j’ai juste mon poste de dev en 16Go de RAM… Ca suffit amplement pour mes usages (et ils sont nombreux).
Si un ordi est optimisé avec une OS optimisé (donc pas … Android), 8Go de RAM peuvent largement suffire.
Le 19/10/2021 à 08h 09
C’est la tendance actuelle (exemple: intel GNA). Le GPGPU a montré que le CPU n’est pas capable de suivre sur plusieurs types de calcul qui sont de plus en plus courants/répandus.
Par ailleurs, le paradigme actuel “périph -> CPU -> RAM -> CPU pour le calcul -> RAM -> périph” est bien remis en cause aussi.
Autant faire périph qui calcule <-> RAM.
Remettre le CPU non pas au centre comme en x86, mais sur le bus au même titre que toute autre unité. Laisser les unités travailler à leur rythme, parfois plus vite que le CPU ne pourrait, et surtout avec moins de latence que si le CPU doit tout orchestrer lors d’échanges.
Ce que je crains, c’est qu’avec les directstorage et autres, Apple finisse par mettre le SSD aussi sur la puce.
Le 19/10/2021 à 06h 24
Belles bêtes. La réussite du iGPU face à ceux d’Intel et AMD est certainement très liée à la BP de la RAM, très impressionnante (et les tests de latence du M1 le plaçait plus proche d’intel que d’AMD sur ce terrain).
A se demander si un x86 basé sur de l’ARM avec un traducteur en amont ne serait pas faisable pour de la basse conso (c’était faisable en 2000 avec Transmeta et autre chose que ARM).
Après, avec Windows en ARM, on s’en moque un peu, si quelque constructeur arrive à faire de l’ARM aussi avancé qu’Apple.
Alder Lake et Sapphire Rapids-SP/HEDT : que sait-on des prochaines plateformes d’Intel ?
18/10/2021
Le 19/10/2021 à 14h 45
Oui, c’est effectivement probable … Et puis la différence en conso à vide entre 4 coeurs rapides et 2 lents est peut-être pas assez significative en y pensant. Je ne sais pas combien vont consommer les machines à vides, mais la mienne fait 10-12W (Ryzen 35W), les intel équivalents 9-10, des coeurs lents feraient peut-être baisser de 2W-3W mais le reste de la plate-forme a quand même besoin de tourner (RAM, USB, NVMe, CG, Wifi)
Le 18/10/2021 à 13h 36
En fait, si j’apprécie de voir ces nouveautés, je ne comprends pas pourquoi en bureau des i3 n’ont pas de coeurs lents mais des i7 si.
Le i7 je le vois bien dans des stations de travail, ordis d’utilisateurs exigeants qui n’ont généralement que faire de la conso (en tout cas qui ne sont pas à économiser quelques Watts sur le CPU pendant une séance de navigation).
Par contre, sur un parc de i3 bureautique, ça pourrait être bienvenu.
Pour le reste, je pense que ça va être un sacré renouveau. Hâte de voir des applis courantes en prendre compte (notamment des accélérateurs “IA”)
Places de marché : 63 % de produits non conformes, sur les 450 analysés par la DGCCRF
18/10/2021
Le 18/10/2021 à 08h 55
Deux choses dans cette constatation. Les marketplace permettent de vendre des produits non conformes -> il faudrait pouvoir les faire fermer.
Le côté non conforme des produits est parfois manifeste, parfois juste profondément infantilisant pour le consommateur
Phrases de passe : l’ANSSI passe en mode 2.0
15/10/2021
Le 15/10/2021 à 09h 18
La technique est loi d’être idiote:
C’est bien mieux qu’on code pin sur un tél avec des doigts gras :)
Le 15/10/2021 à 08h 00
Ce qui est drôle, c’est la politique de mots de passes de certains sites comme:
Ils feraient donc mieux de tester l’entropie plutôt que des nombres de caractères et présence de caractères “non naturels” quand on fait un nouveau mot de passe
DAB+ : 25 radios nationales se lancent sur l’axe Paris, Lyon, Marseille
13/10/2021
Le 14/10/2021 à 07h 22
Merci :)
Soit ça soit je vis sur une faille temporelle …
En lieux brouillé, le RDS a du mal. Les auto-radio ont deux solutions avec le RDS:
Mais il y a deux/trois problèmes:
Le DAB sera tout numérique, on peut s’attendre à ce que les données soient “justes”. Par ailleurs, beaucoup de DAB sont “double tuner” (même mon radio réveil DAB, acheté fièrement en 2008 il me semble - je peux donc voyager avec, c’est sûr!)
Le 13/10/2021 à 09h 49
Si ça pouvait corriger le “stuttering” sur la FM. Je déteste perdre un mot ou l’entendre 2 fois de suite. Mais ça arrive tout le temps.
Non, pas tout le monde. Parce que ça coupe pendant le trajet (2 fois exactement, quelque soit l’opérateur).
Performances des SSD sous Linux : Jens Axboe vise 8 MIOPS sur 1 cœur avec io_uring
13/10/2021
Le 13/10/2021 à 18h 39
Effectivement: Microsoft, Oracle, IBM/Lenovo (avec une grosse partie optimisation pour le stockage)
Facebook a aussi forcé PHP à s’améliorer pour faire face à l’espèce de fork ultra performant qu’ils avaient.
En tout cas, on sent la convergence entre les technos SSD vers ethernet, les formats de SSD, les solutions très haute perfs et l’optimisation des perfs de solutions existantes, il doit y avoir un goulet d’étranglement sur l’extraction des infos du stockage…
Le 13/10/2021 à 14h 45
C’est pas parce qu’il a du talent que c’est une “bonne personne”. ReiserFS inside. Linus Torvald n’a pas l’air d’être très sympa à cotoyer non plus d’ailleurs, ni Richard Stallman.
AMD fête les 5 ans de l’annonce des processeurs Ryzen et évoque (enfin) sa feuille de route 2022
12/10/2021
Le 13/10/2021 à 11h 30
Un 4C/8T couvre +90% des cas d’utilisation. Surtout avec du cloud, des applis web, etc…
La charge de travail la plus conséquente en CPU, c’est l’antivirus hebdo sur des ordis en SSD.
Bien sûr qu’un monteur vidéo, un modélisateur 3D, il sera aux anges avec un truc à 8C/16T, mais vu que toute une partie des ces logiciels “de niche” est déportée sur la CG, un CPU plus balèze ne fera pas toujours une différence notable non plus.
Euh, change le :). Un 8250U est sous les 15% à 800MHz avec tout cela (et quand je dis 15, c’est pour te faire plaisir - d’ailleurs en plus j’ai 2 instances SQL server qui tournent).
Mais je plaisante: 25% d’utilisation moyenne ne me dérange pas, c’est d’ailleurs extrêmement rarement atteint sur des serveurs en PME/PMI et plus. La question est surtout: combien de temps passes-tu à 80⁄100%? Quelle part serait améliorée par plus de coeurs? Et si tu as des pics, sont-ils couvert par le temps de boost ou est-ce qu’ils dépassent?
Non, on y perd sur la conso à vide, l’enveloppe thermique ou la vitesse maxi (même si des subterfuges permettent de limiter cette dernière). Plus de coeurs sur ton portable = moins d’autonomie.
J’utilise encore des ordis en 2C/4T quotidiennement (i3 6100U notamment), et on fait jusqu’au montage vidéo dessus. Bien sûr le rendu final on le fait plutôt sur une autre machine, mais on a besoin de 1 machine puissante pour combien de machine qui le sont moins?
Et je ne dis pas que c’est inutile, je dis que c’est loin d’être universel ou franchement nécessaire, ou même réellement visible pour nombre d’utilisateurs.
Le multithreading n’a pas attendu d’avoir du multicoeurs pour être utile quand c’est adéquat!
Le 13/10/2021 à 07h 26
Les derniers bench sur Phoronix sont encourageants: plus ou moins les perfs des Intel AMD, avec 2 fois plus de coeurs, mais en consommant la moitié. Certains benchs complètement à l’avantage des ARM, de loin.
Et si on combine avec de nouveaux concepts, le CPU ne sera plus forcément un point primordial (et come je le dis souvent, ce n’est déjà pas souvent un point primordial)
Dans le domaine des BDD, c’est encore très frileux à mettre de l’ARM, mais dans le domaine du serveur Web (frontal et back), ARM n’est plus juste convaincant: il est carrément envisagé (bon, je n’en n’ai pas encore vu, certainement car il reste des doutes sur le support et la viabilité des constructeurs/distributeurs)
C’est clair que Apple a lâché une grosse brique dans la marre. Le problème ne semble plus de trouver de l’IPC pour du x86, mais d’être capable d’intégrer des unités hétérogènes, mettre à disposition assez de données pour saturer les unités. Je lisais que dans les futurs iGPU, Intel utilisera des pages de 64ko au lieu des pages de 4Ko chères (et coûteuses) à nos x86. Intel pousse le oneDNN qui pourra abstraire la complexité des implémentations (sur GPU? AVX-512?) au lieu de jongler en permanence avec les bibliothèques dans python pour passer d’une implémentation à l’autre. Tous envisagent d’ajouter des unités de calcul - sans vraiment avoir un standard.
90% des PC ne servent pas à jouer (statistique: de moi-même). Et ceux qui jouent ne jouent pas forcément à ces jeux là (exemple: moi-même aussi).
En pro, Excel parallélise bien mais plein de fichiers ne peuvent être parallélisés correctement au-delà de 6 threads (trop de dépendances). Un ryzen 3600 est généralement totalement inutile en pro, on garde de l’APU, l’antivirus tourne très bien dessus en parallèle des protections RGPD et des applis. On a même des pics à 25% de CPU par tranche de 5 min.
Avoir 4C/8T, c’est agréable, on peut lancer plein d’applis sans soucis. Mais en général, aucune appli ne se parallélise bien à part:
–> la grande majorité des utilisateurs ne profitent que très peu d’avoir 6C/12T.
Le cache est redevenu une bataille importante (d’ailleurs Ryzen a monté les enchère énormément sur ce sujet): Intel, AMD et IBM ont eu des annonces intéressantes dans ce domaine (3D-Vcache de AMD et la cache “virtuelle” de IBM qui transforme le L2 non utilisé d’un coeur en L3 partagé - à la fois une évolution majeure et un risque de fou vu les dernières méthodes d’attaque CPU…)
Le 12/10/2021 à 18h 19
5 ans déjà, mais quand on se refait le film:
Une belle remontada pour qui se rappelle comment on essayait de se convaincre que les générations avant Ryzen étaient des concurrents…
Ceci dit, je continue à penser que non, l’avenir n’est pas à un PC à 20 coeurs 40 threads pour tous à la maison.
Bien que AMD sorte des produits très performants, très intéressants, je crois que la vision d’intel qu’un CPU grand public est plus dans le 4C/8T voire 6C/12T est plus réaliste, les logiciels optimisés pour plus tenant de la niche.
Mais n’empêche bon sang, sacré coup de fouet ces dernières années!
CXL, DDR5, HBM, persistante : la mémoire évolue, VMware s’adapte avec Capitola
11/10/2021
Le 12/10/2021 à 07h 39
C’est effectivement le travail sur les bases de données actuelles.
Par exemple dans le cas de SQL Server, Ms a travaillé pour que SQL Server gère le mapping mémoire lui-même, se substituant à la gestion mémoire de Windows, ceci afin de ne jamais swapper.
Avec des mémoires lentes et rapides, rien n’empêche de le faire niveau système: la RAM classique et la NV peuvent être dans l’espace d’adressage du système, un système de cache aidant à ne pas lire deux fois ou différer les écritures, sans que le programme sache quelle est la part de RAM et la part de NV.
En fait, j’ai déjà vu cela en 2000, mais avec 2 types de RAM: RAM rapide et RAM lente, sur une silicon graphics qui avait 64CPU et 64Go de RAM: à l’époque 64Go de RAM rapide, ça aurait fait fondre le truc.
L’ordonnanceur utilisait la RAM rapide moitié comme de la RAM, moitié comme de la cache. Pendant un appel pour écrire dans la RAM lente, le temps que la RAM lente donne l’accès, il pouvait encore modifier la copie en RAM rapide et n’écrire que quand la lente était prête.
Rufus 3.16 permet de passer outre les exigences de Windows 11 (TPM 2.0, Secure Boot)
11/10/2021
Le 11/10/2021 à 19h 18
Entre le BIOS au lieu de l’UEFI, le non support de certaines technos de virtualisation maintenant bien ancrées dans le système (pour WSL, pour la compatibilité Android aussi j’imagine), l’impact des mesures anti spectre/meltdown (ce qui est dommage, ce CPU étant certainement touché mais ses performances n’auraient pas permis une grosse fuite de données), le non support ou le support bancal de certaines fonctionnalités PCIe, et effectivement quelques instructions récentes… Disons que Ms a maintenu les vieux PC jusque là, parfois plus longtemps que Linux, mais là c’est fini.